In unserer neuen Reihe illustrieren wir an dieser Stelle die Effekte von Algorithmen für Individuum, Staat und Gesellschaft sowie das soziale Miteinander. Der zweite von neun Beiträgen befasst sich mit dem Zugang zu wesentlichen Gütern des gesellschaftlichen Lebens.

Wenn Staaten Straßen bauen, Unternehmen Maschinen anschaffen oder wohlhabende Privatleute Immobilien erwerben, ist es völlig normal, dass sie alle sich Geld leihen. Liquidität, auch wenn sie nur geborgt ist, ist ein Gut, das neue Möglichkeiten eröffnet. Doch viele derjenigen, für die ein Kredit die Eintrittskarte in eine bessere Welt wäre, sind davon ausgeschlossen. Über zwei Milliarden Menschen haben keinen Zugang zu solchen Finanzdienstleistungen. Das beschneidet ihre Chance auf Teilhabe am gesellschaftlichen Leben: Bildung, medizinische Versorgung oder Existenzgründung hängen oft an der Kreditwürdigkeit.

Kreditech will das ändern. Unternehmensgründer Alexander Graubner-Müller erzählt gerne von seiner Vision: Mit moderner Technologie mehr und einfacher Kredite vergeben an Menschen, die von traditionellen Banken vernachlässigt werden. Die Hamburger Firma bietet Darlehen vollautomatisiert per Computerprogramm an. Wenn jemand online ein Antragsformular ausfüllt, errechnen Algorithmen in Sekundenschnelle ein individuelles Angebot – inklusive Zins, Laufzeit und Rückzahlungsplan. Seit 2012 hat der digitale Finanzdienstleister auf diese Weise rund zwei Millionen Kredite vergeben. Die Mehrzahl der Kunden sind Studierende, Freiberufler und andere Personengruppen, die in traditionellen Darlehenssystemen keine Chance haben. Sie leihen sich bei Kreditech zumeist Beträge von unter tausend Euro mit einer Laufzeit von etwa einem Monat.

Ein wichtiger Unterschied zu traditionellen Banken liegt in der Bonitätsprüfung. Auf bis zu 20.000 Datenpunkte greift das auf künstlicher Intelligenz basierende System in Echtzeit zu. Wie schnell füllt jemand das Formular aus? Tippt er die Wörter einzeln ein oder tut er dies per copy and paste? Solche Informationen vergleichen die Algorithmen mit früheren Kunden und deren Rückzahlungsverhalten. Unumstritten ist das Geschäftsmodell von Kreditech freilich nicht. Die Zinssätze können durchaus auch mal bei 60 Prozent pro Jahr liegen. Zu den teilweise extrem hohen Zinsen kommt die Übermittlung von Daten hinzu, deren Ausmaß wohl kaum einem Kunden bewusst sein dürfte. Mehr Zugang hat seinen Preis. Wenn die Tippgeschwindigkeit oder der „Freundeskreis“ auf Facebook darüber bestimmt, ob man einen Kredit bekommt oder nicht, entsteht mehr als nur ein gewisses Unbehagen. Die Kunden stecken in einem Dilemma: Entweder sie akzeptieren die algorithmische Auswertung von allerlei Daten, die nichts mit ihrer finanziellen Lage zu tun haben, oder sie bleiben von einem möglichen Darlehen ausgeschlossen.

Der traditionelle Weg der Kreditvergabe mit Kundengespräch und allen Formalitäten braucht diese Daten nicht. Stattdessen begnügen sich viele Banken mit einem kurzen Blick in die Kundendatei, um einen Antrag zu bewerten: kein festes Einkommen, noch nie ein Darlehen gehabt, folglich kein Beleg für gute Rückzahlungsmoral – abgelehnt. Doch diese Geschäftspraxis verfestigt bestehende Ungleichheit, indem sie bessere Teilhabe von sozial benachteiligten Gruppen verhindert. Häufig sind junge Menschen ohne vorherige eigene Einkünfte oder Einwanderer betroffen. Wie sollen sie sich als kreditwürdig erweisen, wenn sie den ersten Kredit nie erhalten?

Diskriminierung durch die Hintertür

Algorithmische Systeme tragen ein Versprechen in sich: Indem sie konsistent und von Stereotypen unbeeinflusst entscheiden, können sie gerechteren Zugang zu gesellschaftlich knappen Gütern ermöglichen und Diskriminierung abbauen. So argumentiert auch Kreditech-Gründer Graubner-Müller: „Solange das Modell über die richtigen Daten verfügt, ist es besser als der Mensch, weil es keinem subjektiven BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht. unterworfen ist.“ Ohne Frage: menschliche Entscheidungen können unfair sein. Verhaltenswissenschaftliche Experimente und Studien belegen, dass wir uns oft von Assoziationen und unbewusst aktivierten Vorurteilen leiten lassen. So haben Gemeinsamkeiten in der Freizeitgestaltung erwiesenermaßen einen nicht unerheblichen Einfluss auf die Mitarbeiterauswahl. Weil gute Softwarelösungen potenziell diskriminierende Daten wie Geschlecht oder Religion gar nicht erst abfragen und irrelevante Faktoren wie sportliche Hobbys ausblenden, müssten sie eigentlich zu faireren Entscheidungen beitragen. In der Praxis sollte man sich von der Scheinobjektivität algorithmischer Systeme aber nicht täuschen lassen. Sie können nämlich durchaus auch neue Diskriminierung produzieren. Menschen mit Rechtschreibschwäche etwa werden bei algorithmenbasierten Kreditanträgen systematisch benachteiligt, weil Orthographiefehler dort als Signal für ein erhöhtes Ausfallrisiko gelten.

Dass Merkmale wie Geschlecht oder Herkunft grundsätzlich von Algorithmen ignoriert werden sollten, ist unumstritten. Über die Details, welche Daten und Korrelationen genutzt werden dürfen, müssen Bürger und Politik hingegen zumindest in gesellschaftlich relevanten Bereichen immer wieder streiten. Hier bedarf es einer demokratisch legitimierten Entscheidung, die wir nicht den Softwareherstellern überlassen dürfen.

Keine Black Box

Grundsätzlich gilt: Ob und mit welcher Entscheidungslogik Algorithmen zum Einsatz kommen, sollte für alle Betroffenen bekannt und verständlich sein. Zum Vergleich: In der Pharmaindustrie sind Hersteller von Medikamenten verpflichtet, Patienten über Inhaltsstoffe, Anwendung und mögliche Nebenwirkungen in Kenntnis zu setzen. Statt jedoch auch für Algorithmen einen Beipackzettel zu entwerfen, ziehen sich Softwarehersteller zu häufig auf die Behauptung zurück, die Materie sei schlicht nicht so einfach zu erklären. Der wahre Grund hinter Transparenzdefiziten ist meist aber nicht überbordende Komplexität, sondern mangelnder Wille aus Sorge um die Geschäftsgeheimnisse oder die öffentliche Sicherheit. Beides sind zwar legitime Interessen, doch es gilt sie mit dem Anspruch größtmöglicher Transparenz zu vereinbaren. Computerprogramme, die tief in gesellschaftlich relevante Bereiche eingreifen, dürfen keine Black Box bleiben.

Mögliche Diskriminierung, systemimmanente Intransparenz und bewussten Missbrauch zu verhindern, ist nicht so sehr eine technische, sondern vorrangig eine politische Aufgabe. Wenn die gelöst wird, schaffen Algorithmen leichteren und gerechteren Zugang zu gesellschaftlich zentralen Gütern. Denn sie können mehr Daten genauer und schneller analysieren, sie gehen besser mit Komplexität um und entscheiden konsistenter als wir Menschen. Für die weltweit hunderte Millionen Arbeitslosen oder die Milliarden von Krediten Ausgeschlossenen ist das eine hoffnungsvolle Perspektive. Es liegt an uns, die Regeln für algorithmische Geschäftsmodelle wie bei Creditech so zu gestalten, dass daraus tatsächlich mehr individuelle Chancen für die bisher Benachteiligten erwachsen.

Dieser Beitrag basiert auf einem stark gekürzten und adaptierten Auszug des Kapitels „Zugang: Offene Türen, versperrte Wege“ aus dem Buch „Wir und die intelligenten Maschinen“.


 

Dieser Artikel ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.