Liebe Abonnent:innen,
schön, dass wir uns wieder lesen. So direkt haben wir auch noch nie gesprochen! Da die 100. Ausgabe aber ein kleines Jubiläum darstellt, wird es höchste Zeit. Neben unseren üblichen fünf Impulsen der Woche möchten wir nämlich die interessantesten (und überraschendsten) Beiträge über Künstliche Intelligenz (KI) und Algorithmenethik aus fast zweieinhalb Jahren und über 500 Empfehlungen in den Blick nehmen.
Wussten Sie beispielsweise, dass einer der beliebtesten Artikel der letzten Erlesenes-Ausgaben aufzeigt, was Kinder über KI wissen sollten? Passend dazu haben wir über das „Recht auf Vergessen“ diskutiert, das vor allem jüngeren Generationen im Netz zustehen sollte. Vielleicht hilft aber auch ein KI-Bingo-Spiel, mit den komplexen Themen zurechtzukommen?
Dass neue Technologien neben Chancen auch Herausforderungen bergen, wird ebenfalls häufig diskutiert. Das Wort „Chance“ kommt aber in über 500 Beiträgen gerade ein einziges Mal in den Überschriften vor. Diskriminierende Algorithmen oder fehlende Nachvollziehbarkeit sind dagegen immer wieder Thema. Dennoch: Besonders spannend ist, wie KI eingesetzt wird, um unsere Gesellschaft besser zu machen, beispielsweise indem Naturkatastrophen oder bestimme Krankheiten präziser und frühzeitiger erkannt werden können.
Ein immer wichtigerer Aspekt scheint deshalb auch das Thema Nachhaltigkeit zu werden. Dabei ist nicht ganz klar, ob der immense Energieverbrauch für das Trainieren von Systemen die tatsächlichen Chancen überwiegt. Einer Frage, der wir uns bestimmt in den kommenden Ausgaben öfter widmen werden.
Welche Trends in den nächsten Erlesenes-Ausgaben noch auftauchen werden, können wir in der algorithmischen Glaskugel noch nicht voraussehen – doch eine Sache steht fest: Mit Erlesenes bekommen Sie einen guten Überblick über die Welt der Algorithmenethik, empfohlen von echten Menschen, nicht von Algorithmen.
Weiterhin viel Lesevergnügen wünschen Martin Weigert und Lajla Fetic!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.
?Ein Algorithmus soll mit besseren Suizidstatistiken Leben retten helfen
(How researchers are using Reddit and Twitter data to forecast suicide rates), 24. Februar 2020, Recode
Die US-Gesundheitsbehörde CDC (Centers for Disease Control and Prevention) nutzt Daten aus sozialen Netzwerken und einen Algorithmus, um akkuratere Statistiken zu Suiziden zu erstellen, berichtet Rebecca Heilweil beim Onlinemagazin Recode. Bis offizielle Informationen zu Todesursachen aus den 50 Bundesstaaten übermittelt und in einer nationalen Datenbank aufbereitet würden, vergingen mitunter bis zu zwei Jahre. Dies bedeute, dass die Behörde Entscheidungen für die Planung von Präventions- und Interventionsmaßnahmen zur Verhinderung von Suiziden grundsätzlich auf Basis leicht veralteter Informationen trifft. Der neue Ansatz kombiniere die offiziellen, zeitverzögerten Statistiken mit der Analyse von Stichwörtern bei Twitter, Reddit, Google Trends und YouTube-Suchen. Ein Algorithmus prognostiziere davon ausgehend wochengenau – bis zu einem Jahr – Suizidraten, bevor die offiziellen Daten für den Zeitpunkt verfügbar sind. Noch befinde sich das Projekt in einem frühen Stadium. Im Laufe des Jahres plane die Behörde, ein wissenschaftliches Papier zu dem Verfahren zu publizieren.
?Algorithmische Entscheidungen – Warum das Scoring polnischer Arbeitssuchender gescheitert ist
21. Februar 2020, Netzpolitik.org
Die polnische Arbeitslosenbehörde plante, einen Scoring-Algorithmus einsetzen, um effizienter mit Förderungen und Maßnahmen zum Arbeitswiedereinstieg umzugehen. Eine Klage vor dem polnischen Verfassungsgericht im Jahre 2018 sorgte jedoch für ein jähes Ende des Vorhabens, das im Kern dem des österreichischen Arbeitsmarktservice in vielerlei Hinsicht gleicht. Iwona Laub, Presseverantwortliche bei der österreichischen Digital-NGO epicenter.works, widmet sich in diesem Text den Lehren, die sich aus dem polnischen Einsatz sowie der aus Sicht von Bürgerrechtler:innen erfolgreichen juristischen Verhinderung ziehen lassen. Eine der wichtigsten Erkenntnisse ist laut Laub, dass die menschlichen Sachbearbeiter:innen so gut wie nie die algorithmischen Entscheidungen beanstandet beziehungsweise korrigiert hätten. „Menschen vertrauen auf Entscheidungen von Computern, weil diese vermeintlich objektiv sind.” Dies wirft ein fragliches Licht auf das verbreitete Argument, dass ein Algorithmus lediglich Vorschläge oder Empfehlungen mache, der endgültige Beschluss aber von Menschen getroffen werde.
?Warum ein US-Bundesstaat einer algorithmischen Neuberechnung von Versicherungsprämien widersprach
(Suckers List: How Allstate’s Secret Auto Insurance Algorithm Squeezes Big Spenders), 25. Februar 2020, The Markup
Der US-amerikanische Versicherungskonzern Allstate setzt einen Algorithmus ein, um anhand von Risikoprofilen die Tarife seiner Autoversicherung für Kund:innen neu zu berechnen. Vor sieben Jahren bat er den Bundesstaat Maryland dafür um grünes Licht – vergeblich. Das Vorhaben sei diskriminierend, so die Begründung. Das Onlinemagazin The Markup und die Verbraucherschutzorganisation Consumer Reports konstatieren nach einer Analyse der damals eingereichten Dokumente: Der Algorithmus sei darauf ausgerichtete gewesen, die Prämien zum Nachteil der Kund:innen zu verändern. Wer bereits am meisten zahlte, hätte die höchsten Prämienerhöhungen bekommen. Kund:innen, denen eigentlich eine signifikante Prämienreduzierung zustand, hätten davon nur einen Bruchteil erhalten. Wie die Recherche von Maddy Varner und Aaron Sankon zeigt, kommen Modelle dieser Art weiterhin zum Einsatz – in manchen Bundesstaaten ohne Einwände der Behörden. Problematisch sei an dem Fall nicht der Einsatz eines Algorithmus zur Tarifgestaltung an sich, sondern dass er als Werkzeug für eine diskriminierende Preisgestaltung genutzt wird.
(Why faces don’t always tell the truth about feelings), 26. Februar 2020, Nature
Verschiedene Unternehmen bieten Software an, die verspricht, mithilfe von Künstlicher Intelligenz (KI) Emotionen aus menschlichen Gesichtern ablesen zu können. Doch derartige Verfahren sind umstritten – schon deshalb, weil keinerlei wissenschaftliche Gewissheit darüber existiert, dass Emotionen universell zu denselben Gesichtsausdrücken führen. Douglas Heaven liefert im Wissenschaftsmagazin Nature einen Überblick zum aktuellen Stand der Forschung. Diese stellt die einst von Charles Darwin popularisierte Idee infrage, dass bestimmte Mimik als Teil eines evolutionären Adaptionsprozesses entstand. Dass KI-Unternehmen trotz des fehlenden Konsens unter Expert:innen Systeme zur Emotionserkennung anpreisen, sorge laut Heaven bei vielen Wissenschaftler:innen für Skepsis – selbst bei denen, die weiterhin Belege für die Plausibilität der Ursprungstheorie sehen. Bei heise online findet sich ein deutschsprachiger Artikel zum gleichen Thema.
?Algorithmische Schichtplanung kann Arbeitskräften das Leben schwer machen
(Here’s What Happens When an Algorithm Determines Your Work Schedule ), 24. Februar 2020, Vice
Immer mehr US-amerikanische Unternehmen in den Bereichen Handel, Gastronomie und Tourismus verwenden Algorithmen für die Arbeitszeit- und Schichtplanung – häufig mit weitreichenden negativen Folgen für das Personal. Kaye Loggins schildert beim Onlinemagazin Vice, welche schädlichen Auswirkungen die auf Effizienzerhöhung und Kostensenkungen optimierten Systeme auf das Privatleben und Wohlbefinden von Arbeitskräften haben. So erfordere die häufig erratische Schichteinteilung eine extrem hohe Anpassungsfähigkeit vom Personal – private Verabredungen oder Termine langfristig zu planen, werde unmöglich. Den Computersystemen fehle jede Form des Verständnisses für menschliche Bedürfnisse. Ein weiteres Problem sei, dass häufig unklar ist, anhand welcher Daten die Algorithmen ihre Entscheidungen treffen und ob überhaupt irgendeine Perspektive der Arbeitnehmer:innen als Kriterium einfließt. Mit dem Verweis auf Geschäftsgeheimnisse entziehen sich Firmen der Verantwortung, die der Einsatz von algorithmischen Entscheidungen mitbringe, so Loggins.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren.
Kommentar schreiben