Sind Sprachassistenzsysteme sexistisch und wie könnten wir das künftig ändern? Können Algorithmen gegen Lebensmittelverschwendung eingesetzt werden? Was läuft falsch beim derzeitigen Digitalisierungstrend? Damit Sie das verlängerte Wochenende mit frischen Impulsen zu Algorithmenethik beginnen, kuratieren wir schon heute Antworten auf die drängendsten Fragen!
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.
?Kann ein Maschinengeschlecht den Sexismus bei Sprachassistenten verdrängen?
24. Mai 2019, T3N
Ein eigenes „Geschlecht“ für Maschinen könne ein Weg sein, um zu verhindern, dass Sprachassistentensoftware altmodische Rollenklischees verfestigt und verstärkt. Das konstatieren die Autor:innen eines umfassenden Unesco-Berichts zu Sexismus bei gängigen “smarten” Assistenten wie Siri, Cortana, Alexa und Google Assistant. Johanna Kleibl, Autorin bei t3n, fasst einige der Kernthesen, Erkenntnisse und Vorschläge des Berichts zusammen. Das grundsätzliche Problem: Die meisten Sprachassistenten sprechen zumindest standardmäßig mit Frauenstimmen und reagieren in bestimmten Situationen stereotypisch. Da die Software obendrein eine immer gefügige Rolle erfüllt, die traditionell Frauen und Mädchen zugeschrieben wurde, sehen die Verfasser:innen das große Risiko, dass derartige Dienste frauenfeindliche Kommunikations- und Verhaltensformen verstärken. Immerhin: Noch seien die gesellschaftlichen Erwartungen durch den Einsatz einer geschlechtsneutralen Stimme an die Technologie formbar.
?Algorithmen bei Uber und Lyft: Fahrer ertricksen kollektiv Preissteigerung
21. Mai 2019, Heise Online
Die Algorithmen der US-amerikanischen Beförderungsdienste Uber und Lyft berechnen den Preis für eine Fahrt dynamisch ausgehend von der aktuellen Verfügbarkeit von Fahrer:innen. Je weniger Angebot, desto tiefer müssen Fahrgäste in die Tasche greifen. Wie Martin Holland bei Heise Online berichtet, nutzen Dutzende Fahrer:innen am Flughafen von Washington D.C. genau das zu ihren Gunsten: Zunächst melden sich Fahrer:innen in der Umgebung koordiniert und gleichzeitig vom System ab, um das Angebot künstlich zu verknappen. Daraufhin meldet der Algorithmus die Notwendigkeit, die Preise zu erhöhen. Die Fahrer:innen melden sich indes umgehend wieder an, um dann Fahrten zu den teureren Raten auszuführen. Zwar hätten die Fahrer:innen dabei ein schlechtes Gewissen. Sie schieben die Schuld aber den Anbietern zu, die ihre Marktmacht ausnutzen, um stetig die Preise zu reduzieren.
?Ein Algorithmus im Supermarkt sorgt für Rabatt bei Lebensmitteln
22. Mai 2019, SWR3
Mithilfe eines Algorithmus die systematische Verschwendung von Lebensmitteln verringern – geht das? Erste Supermarktketten wie das niederländische Unternehmen Albert Heijn wollen es herausfinden: In einer Filiale wird zwei Monate lang eine Lösung getestet, die unter Einsatz digitaler Preisschilder situationsabhängig die Preise senkt, um bis zu 60 Prozent. Das Ziel der Supermarktkette: möglichst alles verkauft zu haben, bevor das Haltbarkeitsdatum erreicht ist, schreibt die freie Autorin Kerstin Schweighöfer bei SWR3 über die Innovation. Der Algorithmus berücksichtige nicht nur das Haltbarkeitsdatum, sondern auch den Vorrat im Lager, den bisherigen Verkaufsverlauf, aktuelle Sonderangebote mit ähnlichen Lebensmitteln, die dem Produkt zu sehr Konkurrenz machen könnten, und sogar das Wetter. Eine Besonderheit sei, dass die Preise sich grundsätzlich nie nach oben, sondern nur nach unten bewegen. Wenn der Test erfolgreich verläuft, sollen hundert weitere Filialen mit digitalen Preisschildern ausgestattet werden.
?Über Fehleranfälligkeit und andere Probleme im Digitalen
26. Mai 2019, Der Tagesspiegel
Fehleranfälligkeit ist eine der maßgeblichen Eigenschaften des Digitalen, denn im Zentrum stehen immer auch Daten. Doch Daten repräsentieren lediglich „Artefakte des Gewesenen”. Daten müssen gepflegt werden, sie sind nicht immer aktuell, sie bilden nur einen Bruchteil der Realität ab. Sich deshalb auf Daten (und die auf ihnen aufbauenden Algorithmen) zu verlassen, sei nicht klug, argumentiert Sarah Spiekermann in diesem Interview, in dem sie nicht mit Kritik an derzeitigen Digitalisierungstrends sowie dem “Storytelling der IT-Industrie” spart. Spiekermann ist Professorin für Wirtschaftsinformatik an der Wirtschaftsuniversität Wien (WU) und Vizevorsitzende des derzeit in Arbeit befindlichen IEEE Standards für “Ethical System Engineering”. Sorgen mache sie sich auch um die Freiheit von Forschung und Lehre. Wissenschaftler:innen, gerade im Ethikbereich, die von Firmen gesponsert werden, seien nicht wirklich frei: „Sie folgen Industrieagenden und sie sind mundtot, auch wenn sie das ungern wahrhaben wollen.”
?Künstliche Intelligenz erfordert eine neue Sicht auf Cybersicherheit
(When Humans Attack: Re-thinking safety, security, and AI), 14. Mai 2019, Points
Künstliche Intelligenz (KI) erweitert das Spektrum und die Qualität der Bedrohungsszenarien rund um Cybersicherheit, warnt die Kulturanthropologin und KI-Forscherin Madeleine Clare Elish. Sie beschreibt drei kritische Entwicklungen: Erstens erweitere KI den traditionellen Werkzeugkasten für Cyberattacken und ermögliche so, größere Schäden anzurichten sowie Ziele noch exakter ins Visier zu nehmen. Zweitens führe KI zu einem Wettrüsten in Sachen Cybersicherheit, weil potenzielle Opfer ihrerseits immer massivere Geschütze auffahren, um sich abzusichern. Drittens sorgten insbesondere Systeme zum Maschinellen Lernen für neuartige Risiken. Es gehe nicht mehr allein um das Absichern technischer Lösungen, sondern auch um ihr Zusammenspiel mit sozialen, kulturellen und politischen Systemen; Systeme, deren Intelligenz manipuliert und von Angreifern missbraucht werden könne. Künftige Maßnahmen für Cybersicherheit erfordern deshalb eine “sozio-technologische” Perspektive, betont Elish.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren.
Kommentar schreiben