Respuesta Rápida: El sesgo algorítmico en la calificación crediticia ocurre cuando los modelos de aprendizaje automático utilizan variables proxy —como códigos postales, tipos de dispositivos o patrones de datos móviles— que desfavorecen sistemáticamente a las poblaciones minoritarias, de bajos ingresos o no bancarizadas. En los mercados emergentes, esta discriminación digital niega silenciosamente el acceso al crédito a miles de millones, reforzando los ciclos de pobreza en lugar de romperlos.
La promesa era elegante: reemplazar a los oficiales de crédito subjetivos con algoritmos objetivos, eliminar los prejuicios humanos y extender el crédito a los miles de millones excluidos de la banca tradicional. Fintech democratizaría las finanzas. El algoritmo sería ciego a la raza, el género y la clase.
No fue así.
Lo que surgió en su lugar es una forma de discriminación más sutil y duradera, una que se esconde detrás de la precisión matemática y la falsa autoridad del código. En los mercados emergentes de África subsahariana, el sudeste asiático y América Latina, los sistemas algorítmicos de calificación crediticia están tomando decisiones financieras trascendentales sobre cientos de millones de personas, a menudo utilizando datos que codifican la desventaja histórica como una característica permanente de la identidad financiera de alguien.
Por qué los algoritmos heredan los prejuicios humanos
El problema de los datos de entrenamiento
Todo modelo de calificación crediticia aprende de datos históricos. Aquí está la trampa: si las decisiones de préstamo pasadas fueron discriminatorias —y lo fueron— entonces el modelo entrenado con esos datos aprende a replicar la discriminación a gran escala. Esto no es un error que alguien olvidó corregir. Es una característica estructural de cómo funciona el aprendizaje automático supervisado.
En Kenia, Nigeria e Indonesia, los primeros prestamistas digitales extrajeron características de los metadatos de los teléfonos móviles: frecuencia de llamadas, diversidad de contactos, patrones de carga de batería, incluso la hora del día en que alguien hace llamadas. Estas variables se correlacionan con la solvencia en el agregado, pero también se correlacionan con la geografía, el género y la clase socioeconómica. Una mujer en la Kenia rural que carga su teléfono con poca frecuencia debido al acceso irregular a la electricidad es calificada como de alto riesgo. El algoritmo nunca "vio" su problema de electricidad. Solo vio el patrón.
El mecanismo central:
- Las aprobaciones de préstamos históricas favorecen a los prestatarios urbanos, educados y con empleo formal.
- El modelo se entrena con estos datos y aprende a ponderar las variables proxy para esas características.
- Las mismas variables proxy califican negativamente a los prestatarios rurales, del sector informal o a las mujeres.
- Las tasas de rechazo reproducen y, a veces, amplifican el sesgo original.
Discriminación por proxy: el mecanismo silencioso
Los reguladores en los mercados desarrollados llaman a esto "impacto dispar" —cuando un criterio aparentemente neutral produce resultados discriminatorios—. La Ley de Vivienda Justa de EE. UU. reconoció esto en 1968. La mayoría de los marcos regulatorios de los mercados emergentes no tienen un equivalente.
Las variables proxy son el mecanismo. Un modelo nunca puede usar directamente la raza o el género. En su lugar, utiliza:
- Datos geográficos (códigos postales urbanos vs. rurales)
- Tipo de dispositivo (usuarios de iOS vs. Android de gama baja)
- Diversidad del grafo social (número de contactos únicos)
- Patrones de recarga de saldo (prepago vs. pospago)
- Comportamiento de uso de aplicaciones (qué aplicaciones usa alguien, con qué frecuencia)
Cada una de estas variables se correlaciona con características protegidas sin nombrarlas. El algoritmo mantiene una negación plausible. La discriminación persiste.
Los mercados emergentes como epicentro
Escala y desafíos
El Banco Mundial estima que 1.400 millones de adultos en todo el mundo siguen sin acceso a servicios bancarios. La abrumadora mayoría se encuentra en los mercados emergentes. Estas son precisamente las poblaciones a las que el crédito digital prometía servir, y precisamente las poblaciones más expuestas al sesgo algorítmico.
En la India, los préstamos digitales explotaron después de la desmonetización en 2016. Cientos de aplicaciones implementaron la calificación crediticia basada en datos alternativos, a menudo sin la supervisión del Banco de la Reserva de la India. Las tasas de interés predatorias combinadas con modelos de calificación opacos crearon un sistema donde los prestatarios no tenían recurso para impugnar decisiones que no entendían, tomadas por modelos que no podían ver.
En el África subsahariana, el ecosistema de M-Pesa generó docenas de aplicaciones de microcréditos que utilizaban historiales de transacciones de dinero móvil para calificar la solvencia. Un estudio de 2020 publicado en World Development encontró que las mujeres en Kenia recibían límites de crédito sistemáticamente más bajos a pesar de historiales de pago comparables o mejores, porque sus redes de transacciones eran más pequeñas y concentradas localmente, una característica que el modelo interpretó como riesgo en lugar de contexto.
El problema del desierto de datos
Aquí radica la particular crueldad de esta situación. Las poblaciones de los mercados emergentes se encuentran en desventaja algorítmica de dos maneras que se refuerzan mutuamente:
- Expedientes delgados: Un historial financiero formal limitado significa que los modelos tienen menos señales y recurren a decisiones conservadoras (excluyentes).
- Datos alternativos sesgados: Los datos alternativos utilizados para compensar los expedientes delgados conllevan sus propios sesgos sistémicos.
No se puede resolver un problema de desierto de datos importando datos sesgados de un desierto diferente. Sin embargo, esto es precisamente lo que han hecho la mayoría de los prestamistas digitales.
El vacío regulatorio y quién lo llena
Marcos regulatorios con un retraso de una década
El Reglamento General de Protección de Datos de la UE introdujo un "derecho a la explicación" para las decisiones automatizadas en 2018. La Ley General de Protección de Datos de Brasil siguió en 2020. Pero la implementación de una rendición de cuentas algorítmica significativa en el crédito —particularmente las disposiciones que exigen auditorías de sesgos— sigue siendo incipiente incluso en entornos regulatorios sofisticados.

