Réponse rapide : Le biais algorithmique dans la notation de crédit se produit lorsque les modèles d'apprentissage automatique utilisent des variables de substitution – comme les codes postaux, les types d'appareils ou les schémas de données mobiles – qui désavantagent systématiquement les populations minoritaires, à faible revenu ou non bancarisées. Sur les marchés émergents, cette discrimination numérique silencieuse refuse l'accès au crédit à des milliards de personnes, renforçant les cycles de pauvreté au lieu de les briser.
La promesse était élégante : remplacer les agents de crédit subjectifs par des algorithmes objectifs, éliminer les préjugés humains et étendre le crédit aux milliards de personnes exclues du système bancaire traditionnel. La Fintech allait démocratiser la finance. L'algorithme serait aveugle à la race, au genre et à la classe sociale.
Il ne l'a pas été.
Ce qui a émergé à la place est une forme de discrimination plus subtile et plus durable – une discrimination qui se cache derrière la précision mathématique et la fausse autorité du code. Sur les marchés émergents d'Afrique subsaharienne, d'Asie du Sud-Est et d'Amérique latine, les systèmes de notation de crédit algorithmiques prennent des décisions financières importantes concernant des centaines de millions de personnes, utilisant souvent des données qui encodent les désavantages historiques comme une caractéristique permanente de l'identité financière d'une personne.
Pourquoi les algorithmes héritent des préjugés humains
Le problème des données d'entraînement
Chaque modèle de notation de crédit apprend à partir de données historiques. Voici le piège : si les décisions de prêt passées étaient discriminatoires – et elles l'étaient – alors le modèle entraîné sur ces données apprend à reproduire la discrimination à grande échelle. Ce n'est pas un bug que quelqu'un aurait oublié de corriger. C'est une caractéristique structurelle du fonctionnement de l'apprentissage automatique supervisé.
Au Kenya, au Nigeria et en Indonésie, les premiers prêteurs numériques ont extrait des caractéristiques des métadonnées des téléphones portables : fréquence des appels, diversité des contacts, schémas de chargement de la batterie, même l'heure de la journée à laquelle quelqu'un passe des appels. Ces variables sont corrélées à la solvabilité dans l'ensemble, mais elles sont également corrélées à la géographie, au genre et à la classe socio-économique. Une femme dans les zones rurales du Kenya qui charge rarement son téléphone en raison d'un accès irrégulier à l'électricité est considérée comme à haut risque. L'algorithme n'a jamais "vu" son problème d'électricité. Il a juste vu le schéma.
Le mécanisme central :
- Les approbations de prêts historiques favorisent les emprunteurs urbains, éduqués et ayant un emploi formel
- Le modèle s'entraîne sur ces données et apprend à pondérer les proxys pour ces caractéristiques
- Ces mêmes proxys attribuent un score négatif aux emprunteurs ruraux, du secteur informel ou féminins
- Les taux de rejet reproduisent et parfois amplifient le biais original
La discrimination par procuration : le mécanisme silencieux
Les régulateurs des marchés développés appellent cela « impact disparate » – lorsqu'un critère d'apparence neutre produit des résultats discriminatoires. Le Fair Housing Act des États-Unis a reconnu cela en 1968. La plupart des cadres réglementaires des marchés émergents n'ont pas d'équivalent.
Les variables de substitution sont le mécanisme. Un modèle peut ne jamais utiliser directement la race ou le genre. Au lieu de cela, il utilise :
- Les données géographiques (codes postaux urbains ou ruraux)
- Le type d'appareil (utilisateurs iOS vs. Android d'entrée de gamme)
- La diversité du graphe social (nombre de contacts uniques)
- Les schémas de rechargement de temps d'antenne (prépayé vs. postpayé)
- Le comportement d'utilisation des applications (quelles applications quelqu'un utilise, à quelle fréquence)
Chacune de ces variables est corrélée à des caractéristiques protégées sans les nommer. L'algorithme maintient un déni plausible. La discrimination demeure.
Les marchés émergents comme épicentre
Échelle et enjeux
La Banque mondiale estime que 1,4 milliard d'adultes dans le monde restent non bancarisés. L'écrasante majorité se trouve dans les marchés émergents. Ce sont précisément les populations que le crédit numérique a promis de servir – et précisément les populations les plus exposées au biais algorithmique.
En Inde, le prêt numérique a explosé après la démonétisation de 2016. Des centaines d'applications ont déployé la notation de crédit basée sur des données alternatives, souvent sans la supervision de la Reserve Bank of India. Des taux d'intérêt usuraires combinés à des modèles de notation opaques ont créé un système où les emprunteurs n'avaient aucun recours pour contester des décisions qu'ils ne comprenaient pas, prises par des modèles qu'ils ne pouvaient pas voir.
En Afrique subsaharienne, l'écosystème de M-Pesa a donné naissance à des dizaines d'applications de microcrédit utilisant les historiques de transactions d'argent mobile pour noter la solvabilité. Une étude de 2020 publiée dans World Development a révélé que les femmes au Kenya recevaient systématiquement des limites de crédit inférieures malgré des historiques de remboursement comparables ou meilleurs – parce que leurs réseaux de transactions étaient plus petits et plus concentrés localement, une caractéristique que le modèle interprétait comme un risque plutôt que comme un contexte.
Le problème du désert de données
Voici la cruauté particulière de cette situation. Les populations des marchés émergents sont désavantagées algorithmiquement de deux manières cumulatives :
- Dossiers minces : Un historique financier formel limité signifie que les modèles ont moins de signaux et optent par défaut pour des décisions conservatrices (exclusionnaires).
- Données alternatives biaisées : Les données alternatives utilisées pour compenser les dossiers minces comportent leurs propres biais systémiques.
Vous ne pouvez pas résoudre un problème de désert de données en important des données biaisées d'un autre désert. Pourtant, c'est précisément ce que la plupart des prêteurs numériques ont fait.
Le vide réglementaire et qui le comble
Des cadres réglementaires en retard d'une décennie
Le Règlement général sur la protection des données de l'UE a introduit un « droit à l'explication » pour les décisions automatisées en 2018. La Lei Geral de Proteção de Dados du Brésil a suivi en 2020. Mais la mise en œuvre d'une responsabilité algorithmique significative en matière de crédit – en particulier les dispositions exigeant des audits de biais – reste naissante même dans les environnements réglementaires sophistiqués.

