Der achte von neun Beiträgen über die Effekte von Algorithmen auf einzelne Personen, Gesellschaft sowie das soziale Miteinander fragt danach, wie algorithmische Hilfe für mehr Fairness und Gerechtigkeit sorgen kann. Bereits erschienen: Personalisierung, Zugang, Befähigung, Freiraum, Kontrolle, Verteilung und Prävention.
Fairness ist in Bewerbungsverfahren kein triviales Ziel. Personaler lassen sich bei der Beurteilung von Job-Kandidaten erwiesenermaßen auch von Faktoren leiten, die mit dem Stellenprofil nichts zu tun haben. Wenn bei der Personalauswahl nicht individuelle Kompetenz und Begabung entscheiden, sondern Herkunft, Erscheinungsbild oder die Reputation des Abschlusses, dann gibt es eine ganze Reihe von Verlierern. Der erfolgreiche Bewerber wird auf dem Posten vielleicht gar nicht glücklich, während ein anderer seinen Traumjob verpasst; der Arbeitgeber hat nicht den geeignetsten Mitarbeiter eingestellt. Versuche der analogen Welt, auf Bewerbungsfotos und Angaben zu den Berufen der Eltern zu verzichten und so die Lebensläufe etwas anonymer zu gestalten, greifen zu kurz, solange Aisha und Yusuf verlässlich aussortiert, Linda und Paul bei gleicher Qualifikation hingegen zum Vorstellungsgespräch eingeladen werden.
Kampf den Vorurteilen
Frida Polli möchte dieses Gerechtigkeitsproblem für die Gesellschaft lösen – und ein Effizienz- und Qualitätsproblem für die Wirtschaft gleich mit. 2012 hat sie sich mit einer Software zur Vermittlung von Jobs selbstständig gemacht. Mittlerweile gilt Pymetrics als ein Vorreiter der Branche. „Matching talent to opportunity, biasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht.-free“ heißt der Werbeslogan der Firma, die zwei Fliegen mit einer Klappe schlagen will. Die Berufswelt soll zum einen ein gerechterer Ort werden, indem menschliche Vorurteile und Sexismus, Rassismus oder Altersdiskriminierung rigoros ausgehebelt werden. Zum anderen verspricht Pymetrics den Bewerberinnen einen Job, der sie erfüllt, und den Unternehmen eine Mitarbeiterin, die zu ihnen passt. Um beides einzulösen, setzt Frida Polli auf Algorithmen statt Personaler und Computerspiele statt Lebensläufe. Letztere hält die Neurowissenschaftlerin für „die verzerrteste Information, die im Einstellungsprozess verwendet wird“. Sie lieferten nur Aussagen über vergangene Leistungen und sagten nichts über vorhandene Fähigkeiten aus, die in bisherigen Jobs noch nicht abverlangt wurden. Zudem seien sie sehr anfällig für subjektive Bewertungen.
Pymetrics hingegen möchte für objektive und faire Kompetenzmessung stehen. Das funktioniert mittels Computerspielen, die auf jahrzehntelanger neurowissenschaftlicher Forschung beruhen. Wird Pymetrics mit der Personalauswahl für eine offene Position beauftragt, bittet Frida Polli zunächst vergleichbar tätige Mitarbeiter des Unternehmens an den Rechner. Dort warten zwölf verschiedene Spiele, die zusammen über 90 Eigenschaften messen: Risikobereitschaft, Offenheit gegenüber Neuem, Konzentrationsvermögen, Multitasking-Fähigkeit und vieles mehr. Aus den Spielresultaten der Mitarbeiter filtert ein Algorithmus jene Eigenschaften heraus, die man braucht, um auf der ausgeschriebenen Stelle erfolgreich zu arbeiten. Ein Beispiel: Gute Buchhalter beweisen oft Liebe zum Detail und sind eher introvertiert, gute Verkäufer hingegen lassen gerne Fünfe gerade sein und sind eher impulsiv.
Bevor Pymetrics den Auswahl-Algorithmus programmiert, werden die zugrundeliegenden Daten auf Verzerrungen überprüft. Würden etwa in einem Unternehmen kaum Frauen oder Migranten an der Spielrunde der bestehenden Mitarbeiter teilnehmen, wäre der Datensatz nicht hinreichend repräsentativ. Mittels Referenzdaten von zehntausenden Menschen wird der Algorithmus so lange angepasst, bis er frei von erkennbaren Vorurteilen ist. Erst dann dürfen die Bewerber an dieselben zwölf Computerspiele. Pymetrics kennt von den Job-Kandidaten keine biografischen Daten. „Wir ermitteln den besten Bewerber für die jeweilige Stelle mit einem neutralen Algorithmus, der keinerlei bekannte geschlechtsspezifische oder ethnische Merkmale berücksichtigt“, betont Frida Polli und sieht darin den wesentlichen Vorteil gegenüber herkömmlichen Auswahlverfahren: „Wir sagen gerne, dass wir menschlicher sind als Menschen.“
Das Engagement von Pymetrics wirkt sich auf die Personalstruktur seiner Kunden aus. Die Unternehmen werden vielfältiger. Der Frauenanteil steigt, ebenso derjenige ethnischer Minderheiten, auch Bewerber von Nicht-Eliteunis machen jetzt öfter das Rennen. Dieses Plus an Fairness entsteht nicht allein deshalb, weil statt eines Menschen ein Algorithmus am Werk ist. Selbst ein anonymer Test per Computerspiel schließt Benachteiligungen nicht aus, wenn dessen Algorithmus etwa mit einem nicht-repräsentativen Datensatz trainiert wurde. Die Kompetenzen der Bewerber kommen nur dann zur Geltung, wenn man alle potentiell diskriminierenden Faktoren bewusst herausfiltert. Fairness muss aktiv hergestellt werden. Wie dies möglich ist, hat Frida Polli bewiesen.
Dass mehr Fairness und mehr Effizienz bei der algorithmisch unterstützten Personalauswahl nicht immer Hand in Hand gehen, zeigt der Fall von Xerox Services. Das Unternehmen aus dem US-Bundesstaat Connecticut engagierte eigens Datenexperten um herauszufinden, warum in seinen Call-Centern eine so hohe Fluktuation herrschte. Dahinter stand das Ziel, die Kündigungsraten zu senken. Bei der Untersuchung kristallisierten sich hauptsächlich zwei Faktoren heraus, die es besonders wahrscheinlich machten, dass jemand die Firma nach relativ kurzer Zeit wieder verließ: eine hohe Aktivität in sozialen Netzwerken sowie ein Wohnort in großer Entfernung zum Firmensitz. Die Firma reagierte und änderte die Einstellungskriterien. Auch auf eine Rekrutierungsaktion bei einer Spielemesse verzichtete das Unternehmen, weil es die dortigen Besucher als besonders internetaffin einschätzte; dafür stellte Xerox vermehrt Mitarbeiter ein, die in der unmittelbaren Umgebung wohnten. Die Maßnahmen erfüllten ihren Zweck: Die Fluktuationsrate sank um 20 Prozent.
Doch dieser Erfolg hatte seinen Preis. Die Diversität der Teams ging zurück. Der Algorithmus hatte sich über das Kriterium „Anfahrtsweg zum Arbeitsplatz“ eine soziale und ethnische Diskriminierung eingehandelt. Denn offenbar galt: Je weiter von den Standorten der Call Center entfernt, desto billiger der Wohnraum. Folglich waren bestimmte gesellschaftliche Gruppen bei Xerox innerhalb kürzerer Zeit unterrepräsentiert. Als das Unternehmen die diskriminierende Wirkung des neuen Algorithmus bemerkte, strich es die räumliche Distanz zum Wohnort aus dem Kriterienkatalog. Man verdummte also den Auswahl-Algorithmus bewusst und nahm in Kauf, dass die Personalfluktuation wieder steigen würde. In der Abwägung entschied sich Xerox für mehr Fairness statt für mehr Effizienz.
Moralphilosophische Dilemmata
Im Streben nach Fairness und Gerechtigkeit sind Algorithmen gleich in mehrfacher Hinsicht nützlich. Pymetrics und Xerox stellen ihre Algorithmen in den Dienst der Fairness, indem sie Diskriminierung auszuschließen versuchen. Ihre Analyse großer Datensätze belegt mit harten Zahlen mögliche Diskriminierungen und Verzerrungen, die sonst allenfalls einer gefühlten Wahrheit entsprächen. Algorithmen erleichtern es aber auch, Gerechtigkeitsziele zu operationalisieren, indem sie durch positive Diskriminierung aktiv Nachteile ausgleichen. Viele amerikanische Hochschulen etwa räumen bei der Vergabe ihrer begehrten Studienplätze schon seit Jahrzehnten bewusst nicht allen Bewerbern dieselben Zugangschancen ein – vielmehr versuchen sie, durch affirmative action benachteiligten Bevölkerungsgruppen den Zugang zu akademischer Bildung zu erleichtern.
Hier deutet sich die moralphilosophische Tücke nahezu jeglicher Fairness-Debatte an, die keine noch so intelligente Maschine zu lösen vermag: Es existieren unterschiedliche Begriffe von Fairness. Fair ist nicht unbedingt fair, sondern eine Frage des Betrachters. Je nach Blickwinkel kann etwas gerecht oder ungerecht erscheinen. Algorithmen vermögen keine absolute Gerechtigkeit zu schaffen, wohl aber den jeweiligen Fairness-Begriff ihrer Auftraggeber konsistent anzuwenden.
Dabei können verschiedene Ziele im Konflikt stehen. Während bei Pymetrics mit mehr Fairness auch andere Vorteile einhergehen, etwa weil Arbeitnehmer ihren Traumjob bekommen und Arbeitgeber den bestmöglichen Mitarbeiter, ist zuweilen auch eine Abwägung zwischen konkurrierenden Zielen vonnöten. So muss ein Unternehmen wie Xerox bewusst die Verringerung der Kündigungsrate hintanstellen, um den Bewerbungsprozess gerechter zu machen.
Unsere Beispiele zeigen: Menschen sind keinesfalls aus der Verantwortung zu entlassen. Sie müssen vielmehr ihr Konzept von Fairness klar definieren und sich gesellschaftlich auf ein gemeinsames Verständnis einigen. Denn sonst können Algorithmen gar nicht programmiert werden. Welche Fairness-Definition einem algorithmischen System zugrunde liegt, muss für alle Anwender transparent sein.
Gerade wenn scheinbar intelligente Maschinen von der öffentlichen Hand eingesetzt werden und Auswirkungen auf das Leben von Menschen haben, darf nicht ein kommerzieller Anbieter die Gerechtigkeitsziele bestimmen. Vielmehr müssen sie gesellschaftlich diskutiert und demokratisch festgelegt werden. Moralphilosophische Dilemmata transparent zu machen, Gerechtigkeitskriterien immer wieder neu zu verhandeln und Diskriminierungen auch mit Hilfe von Technologie zu beseitigen, sind öffentliche Aufgaben. Staat und Politik müssen sich diesen stellen.
Dieser Beitrag basiert auf einem stark gekürzten und adaptierten Auszug des Kapitels „Gerechtigkeit: Fair ist nicht gleich fair“ aus dem Buch „Wir und die intelligenten Maschinen“.
Dieser Artikel ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben