Algorithmen können, wenn sie gut gemacht sind, viel Gutes bewirken. Trotzdem kann der Einsatz der Technologie nicht alle gesellschaftlichen Probleme lösen. Wie können wir mit diesem Dilemma umgehen? Antworten finden sich in der dieswöchigen Ausgabe von Erlesenes. Außerdem: Müssen wir unser Verständnis von „nicht diskriminierenden“ Algorithmen erweitern? Was bedeutet „fair“? Diskutieren sie mit – auf Twitter (@algoethik) oder über unseren Blog!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.
?Algorithmen und die Sicht auf Menschen mit Behinderungen
(Disability, Bias, and AI), 21. November, AI Now Insitute
In der Debatte über Vorurteile und Diskriminierung durch Algorithmen kommen Menschen mit Behinderungen bislang wenig zur Sprache, schreiben die Autor:innen eines neuen Berichts des AI Now Institutes der New York University (im April diesen Jahres thematisierten die Macher:innen in einer anderen Publikation den Mangel an Diversität , siehe Erlesenes #66). Eine der Folgen sei ein großes Risiko der Benachteiligung, etwa wenn autonome Fahrzeuge Rollstuhlfahrer:innen nicht erkennen oder eine Sprachsteuerung Personen mit einer speziellen Sprechgeschwindigkeit nicht versteht. Ein weiterer Aspekt sei die normative Wirkung des Einsatzes von standardisierenden Verfahren, wie z. B. Künstlicher Intelligenz: Wenn diese aus Daten herausliest, welche Körper und Verhaltensweisen „normal” bzw. besonders häufig erfasst sind und welche nicht, habe dies wiederum einen Effekt auf die künftigen gesellschaftlichen Perspektiven auf vermeintliche Abweichungen vom Mainstream. Die Autor:innen hoffen, dass die Erkenntnisse dazu beitragen, das Blickfeld auf die Dimensionen algorithmisch-manifestierter Benachteiligungen zu erweitern und dass mehr Menschen mit Behinderungen in die Gestaltung der Systeme einbezogen werden.
(Hey, Data Scientists: Show Your Machine-Learning Work), 20. November 2019, IEEE Spectrum
Häufig seien in Unternehmen und Organisationen nur sehr wenige Datenwissenschaftler:innen und Entwickler:innen für die Schaffung und Pflege wichtiger Modelle zum Maschinellen Lernen verantwortlich. Nicht selten fehle es an Anforderungen zur Dokumentation, schreibt die Technologiejournalistin Stacey Higginbotham. Im Falle eines Jobwechsels der Schlüsselpersonen könne dies zu einem massiven Problem werden; etwa wenn sich dann nicht mehr nachvollziehen lasse, mit welchen Daten ein Modell trainiert wurde oder wie Daten gewichtet wurden. Um daraus resultierende Probleme zu verhindern, sei es angeraten, dass Organisationen ihre Aktivitäten im Bereich Künstlicher Intelligenz genau dokumentieren und möglichst andere Personen einbeziehen – analog dazu, wie es in der Softwareentwicklung üblich ist. Higginbotham nennt in ihrem Artikel auch einige Maßnahmen, wie dies ablaufen kann. Passend zum Thema: Kürzlich haben wir eine neue Studie mit dem Titel „Wie Algorithmen verständlich werden” veröffentlicht, inklusive einer schnellen Checkliste.
?Wie Algorithmen uns helfen, über Fairness nachzudenken
(How Machine Learning Pushes Us to Define Fairness), 6. November 2019, Harvard Business Review
Fairness ist eine komplizierte Angelegenheit. Nicht nur, wenn man sie algorithmisch abbilden will, wie kürzlich das interaktive Spiel bei MIT Technology Review vor Augen vorführte (siehe Erlesenes #87). David Weinberger, Wissenschaftler am Berkman Klein Center für Internet and Society der Harvard University sowie Buchautor, sieht hier eine große Möglichkeit: Maschinelles Lernen eröffne uns die Möglichkeit, genauer über die gewünschte Form von Fairness nachzudenken. Auch müssten wir anerkennen, dass eine Optimierung für einen Fairness-Wert auf Kosten eines anderen Wertes gehen könne. Im Zuge der Debatte über faire Algorithmen würden durch präzisere Formulierungen, angestrebte Zustände besser diskutiert werden (z.B. “False Positives” und “False Negatives”).. Weinberger sieht die Chance, dass sich so die Fairness von Systemen besser in Einklang mit vorher definierten Werten bringen lasse.
?Das Problem mit “AI for Good”-Initiativen von Technologiekonzernen
(Opinion: AI For Good Is Often Bad), 18. November 2019, Wired
Viele Technologiekonzerne haben in der vergangenen Zeit „AI for Good”-Projekte gestartet, um mithilfe von Künstlicher Intelligenz (KI) Beiträge zur Lösung sozialer und gesellschaftlicher Probleme wie Armut, Hunger, Kriminalität oder Krankheiten zu leisten. Doch derartige Initiativen verdienen einen kritischen Blick, argumentiert der KI-Experte und Bürgerrechtler Mark Latonero meinungsstark. Löbliche Intentionen seien nicht immer ausreichend. Die Annahme, dass alle strukturellen Herausforderungen mit technischen Lösungen aus dem Weg geschafft werden könnten, sei falsch – zumal die Technologien selbst noch viele bekannte Schwächen besitzen, etwa wenn es um Diskriminierung und Vorurteile geht. Grundsätzlich begrüßt Latonero die Vorstöße zwar, betont aber, dass sie bereits in der frühen Konzeption Personen mit direkter Kenntnis der Probleme einbeziehen müssten.
?Die Stadt New York bekommt eine:n Algorithmuswächter:in
(Why New York City is getting an algorithms officer), 20. November 2019, City & State New York
Die Stadt New York richtet die formelle Position einer/eines Verantwortlichen für das Management des Einsatzes vonAlgorithmen (“Algorithms management and policy officer”) ein, schreibt Annie McDonough, Journalistin beim Lokalmagazin City & State New York. Der von Bürgermeister Bill de Blasio angeordnete Schritt folgt der für den Schlussbericht der 2017 eingesetzten Arbeitsgruppe, die den Einsatz von Algorithmen in der öffentlichen Verwaltung der Stadt und ihre Konsequenzen prüfen sollte (siehe Erlesenes #65). Julie Samuels, Mitglied dieser Arbeitsgruppe, begrüßt die neue Rolle. Entscheidend sei, dass diese mit einem ausreichenden Budget ausgestattet werde. Sie und ihre Mitstreiter:innen hoffen, dass dies den Beginn der Entstehung einer neuen Behörde mit weitreichenden Befugnissen darstellt und dass in Zukunft weitere Empfehlungen des Berichts verwirklicht werden.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Kommentar schreiben