Kurzantwort: Algorithmische Voreingenommenheit bei der Kreditwürdigkeitsprüfung tritt auf, wenn Modelle des maschinellen Lernens Ersatzvariablen – wie Postleitzahlen, Gerätetypen oder Mobilfunkdatenmuster – verwenden, die Minderheiten, einkommensschwache oder bankenlose Bevölkerungsgruppen systematisch benachteiligen. In Schwellenländern verwehrt dieses digitale Redlining Milliarden von Menschen stillschweigend den Zugang zu Krediten und verstärkt Armutszyklen, anstatt sie zu durchbrechen.
Das Versprechen war elegant: Subjektive Kreditberater durch objektive Algorithmen ersetzen, menschliche Vorurteile beseitigen und Milliarden von Menschen, die vom traditionellen Bankwesen ausgeschlossen sind, Kredite ermöglichen. Fintech würde das Finanzwesen demokratisieren. Der Algorithmus würde blind sein für Rasse, Geschlecht und Klasse.
Das war er nicht.
Was stattdessen entstand, ist eine subtilere, haltbarere Form der Diskriminierung – eine, die sich hinter mathematischer Präzision und der falschen Autorität des Codes verbirgt. In Schwellenländern in Subsahara-Afrika, Südostasien und Lateinamerika treffen algorithmische Kreditwürdigkeitsprüfungssysteme weitreichende finanzielle Entscheidungen über Hunderte Millionen von Menschen, oft unter Verwendung von Daten, die historische Nachteile als dauerhaftes Merkmal der finanziellen Identität eines Menschen kodieren.
Warum Algorithmen menschliche Vorurteile erben
Das Problem der Trainingsdaten
Jedes Kreditwürdigkeitsmodell lernt aus historischen Daten. Hier liegt die Falle: Wenn frühere Kreditentscheidungen diskriminierend waren – und das waren sie –, dann lernt das Modell, das mit diesen Daten trainiert wurde, Diskriminierung im großen Maßstab zu replizieren. Dies ist kein Fehler, den jemand vergessen hat zu beheben. Es ist ein strukturelles Merkmal der Funktionsweise des überwachten maschinellen Lernens.
In Kenia, Nigeria und Indonesien zogen frühe digitale Kreditgeber Merkmale aus den Metadaten von Mobiltelefonen: Anrufhäufigkeit, Kontaktvielfalt, Batterielademuster, sogar die Uhrzeit, zu der jemand Anrufe tätigt. Diese Variablen korrelieren insgesamt mit der Kreditwürdigkeit, aber sie korrelieren auch mit Geografie, Geschlecht und sozioökonomischer Klasse. Eine Frau im ländlichen Kenia, die ihr Telefon aufgrund unregelmäßiger Stromversorgung selten auflädt, wird als risikoreich eingestuft. Der Algorithmus "sah" ihr Stromproblem nie. Er sah nur das Muster.
Der Kernmechanismus:
- Historische Kreditgenehmigungen bevorzugen städtische, gebildete, formell beschäftigte Kreditnehmer
- Das Modell trainiert mit diesen Daten und lernt, Stellvertreter für diese Merkmale zu gewichten
- Dieselben Stellvertreter bewerten ländliche, informelle oder weibliche Kreditnehmer negativ
- Ablehnungsquoten reproduzieren und verstärken manchmal die ursprüngliche Voreingenommenheit
Stellvertretende Diskriminierung: Der stille Mechanismus
Regulierungsbehörden in entwickelten Märkten nennen dies "disparate impact" – wenn ein scheinbar neutrales Kriterium diskriminierende Ergebnisse liefert. Der U.S. Fair Housing Act erkannte dies 1968 an. Die meisten Regulierungsrahmen der Schwellenländer haben kein Äquivalent.
Stellvertretende Variablen sind der Mechanismus. Ein Modell darf niemals direkt Rasse oder Geschlecht verwenden. Stattdessen verwendet es:
- Geografische Daten (städtische vs. ländliche Postleitzahlen)
- Gerätetyp (iOS-Nutzer vs. Einsteiger-Android)
- Vielfalt des sozialen Graphen (Anzahl einzigartiger Kontakte)
- Aufladeverhalten für Mobilguthaben (Prepaid vs. Postpaid)
- App-Nutzungsverhalten (welche Apps jemand nutzt, wie oft)
Jede dieser Variablen korreliert mit geschützten Merkmalen, ohne sie zu benennen. Der Algorithmus bewahrt plausible Abstreitbarkeit. Die Diskriminierung bleibt.
Schwellenländer als Epizentrum
Umfang und Einsätze
Die Weltbank schätzt, dass weltweit 1,4 Milliarden Erwachsene immer noch keinen Zugang zu Bankdienstleistungen haben. Die überwiegende Mehrheit befindet sich in Schwellenländern. Dies sind genau die Bevölkerungsgruppen, denen digitale Kredite versprochen wurden – und genau die Bevölkerungsgruppen, die der algorithmischen Voreingenommenheit am stärksten ausgesetzt sind.
In Indien boomte die digitale Kreditvergabe nach der Demonetisierung im Jahr 2016. Hunderte von Apps setzten alternative Daten zur Kreditwürdigkeitsprüfung ein, oft ohne Aufsicht der Reserve Bank of India. Raubzinsraten in Kombination mit undurchsichtigen Scoring-Modellen schufen ein System, in dem Kreditnehmer keine Möglichkeit hatten, Entscheidungen anzufechten, die sie nicht verstanden, getroffen von Modellen, die sie nicht sehen konnten.
In Subsahara-Afrika führte das M-Pesa-Ökosystem zu Dutzenden von Mikrokredit-Apps, die die Transaktionshistorien von Mobile Money nutzten, um die Kreditwürdigkeit zu bewerten. Eine 2020 in World Development veröffentlichte Studie ergab, dass Frauen in Kenia trotz vergleichbarer oder besserer Rückzahlungsquoten systematisch niedrigere Kreditlimits erhielten – weil ihre Transaktionsnetzwerke kleiner und stärker lokal konzentriert waren, ein Merkmal, das das Modell als Risiko und nicht als Kontext interpretierte.
Das Problem der Datenwüste
Hier liegt die besondere Grausamkeit dieser Situation. Bevölkerungsgruppen in Schwellenländern sind algorithmisch auf zwei sich verstärkende Weisen benachteiligt:
- Dünne Akten: Begrenzte formelle Finanzhistorie bedeutet, dass Modelle weniger Signale haben und zu konservativen (ausschließenden) Entscheidungen neigen
- Voreingenommene alternative Daten: Die zur Kompensation dünner Akten verwendeten alternativen Daten weisen eigene systemische Voreingenommenheiten auf
Man kann ein Datenwüstenproblem nicht lösen, indem man voreingenommene Daten aus einer anderen Wüste importiert. Doch genau das haben die meisten digitalen Kreditgeber getan.
Das regulatorische Vakuum und wer es füllt
Regulatorische Rahmenwerke hinken um ein Jahrzehnt hinterher
Die Datenschutz-Grundverordnung der EU führte 2018 ein "Recht auf Erklärung" für automatisierte Entscheidungen ein. Brasiliens Lei Geral de Proteção de Dados folgte 2020. Doch die Umsetzung einer sinnvollen algorithmischen Rechenschaftspflicht im Kreditbereich – insbesondere Bestimmungen, die Bias-Audits vorschreiben – bleibt selbst in ausgeklügelten Regulierungsumgebungen im Anfangsstadium.

