Nach dem Feiertag fällt es schwer, die Gehirnzellen wieder anzukurbeln? Vielleicht kann Erlesenes den nötigen Anstoß bieten. Denn auch diese Woche gibt’s wieder viele Fragen, Ideen und Denkanregungen rund um das Thema Algorithmenethik:
Was können Unternehmen und Regierungen tun, um Diskriminierung durch algorithmische Systeme zu vermeiden? Wieso hat Instagram ein Drogen-Problem? Was hat Artenschutz mit der Entwicklung von Künstlicher Intelligenz zu tun?
Dies und vieles mehr erwartet Euch in der neuen Erlesenes Ausgabe.
Der Instagram-Algorithmus hat ein Drogenproblem
(Instagram has a drug problem. Its algorithms make it worse.), 25. September 2018, Washington Post
Wer beim Foto- und Videoapp Instagram Inhalte konsumiert oder Personen folgt, die mit dem Handel oder Konsum von Drogen in Verbindung stehen, erhält vom Empfehlungsalgorithmus Vorschläge für ähnlichen Content sowie für die Seiten aktiver Dealer. Elizabeth Dwoskin, Silicon-Valley-Korrespondentin bei der Washington Post, beleuchtet die Problematik, die zur Folge hat, dass Personen mit bestehenden Drogenproblemen oder einfach neugierige Menschen vom Algorithmus zum Drogenkonsum verleitet werden könnten. Der Algorithmus selbst funktioniert natürlich genau so wie vorgesehen – er empfiehlt Menschen Inhalte, die sie interessieren könnten. Das Unternehmen versucht daher, dem Problem mit dem Sperren einschlägiger Hashtags und Nutzerkonten, mit Warnhinweisen für betroffene Nutzer:innen sowie mit der Entwicklung eines Algorithmus zur Erkennung von drogenverherrlichenden Inhalten zu begegnen. Instagram ist nicht die einzige Techplattform mit einem Algorithmus, der die Gefahren seiner Empfehlungen nicht erkennt: Vor einem Jahr etwa geriet Amazon in die Schlagzeilen, weil es zum Bau von Sprengstoff benötigte Produktempfehlungen machte.
?Wie Firmen mit ethischen Dilemmas ihrer Algorithmen umgehen sollten
(The role of corporations in addressing AI’s ethical dilemmas), 13. September 2018, Brookings
Technologiefirmen müssen sich mit den ethischen Folgen des Einsatzes ihrer Algorithmen auseinandersetzen und Wege finden, um ihre schädliche Implementierung zu verhindern. Der Autor und Politikwissenschaftler Darrell M. West beschreibt in einem Essay fünf drängende ethische Dilemmas, die sich aus der kommerziellen Entwicklung von Algorithmen für den zivilgesellschaftlichen, militärischen, juristischen und behördlichen Einsatz ergeben. Anschließend präsentiert er Lösungsvorschläge, mit denen sich die von ihren Macher:innen in der Regel unbeabsichtigten negativen Folgen der Algorithmen minimieren lassen. Zu seinen Vorschlägen gehört die Rekrutierung von Ethiker:innen, welche die Produktentwicklung begleiten und im Falle von potenziellen Risiken Alarm schlagen. Auch empfiehlt West Unternehmen, klare interne Prozesse aufzusetzen, um im Falle von durch die eigene Software verursachten Schäden sofort agieren und Betroffenen Unterstützung bieten zu können. Ergänzend zu dem Text verweisen wir auf unser Projekt zur Schaffung eines Gütekriterienkatalogs für algorithmische Prozesse, das auch für Firmen als eine Art ethische Leitlinie zur Entwicklung von Algorithmen dienen kann.
?Städte und Algorithmen: Diskriminierung verhindern
(Algorithmic Fairness: Tackling BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht. in City Algorithms), 31. August 2018, Data-Smart City Solutions
In der Hoffnung auf konsistentere, effizientere und fairere Entscheidungen setzen Regierungen auf nationaler und städtischer Ebene verstärkt Algorithmen in teilhaberelevanten Bereichen ein. Doch wie können Städte sicherstellen, den größtmöglichen Nutzen aus Künstlicher Intelligenz (KI) zu ziehen, ohne dass Diskriminierung dabei reproduziert wird? Mit dieser Frage beschäftigt sich der Datenwissenschaftler und Philosophie-Doktorand Chris Bousquet in dieser sehr umfangreichen Arbeit. Zu den von ihm beleuchteten Ansätzen gehört unter anderem der Vorschlag, für unterschiedliche soziale Gruppen getrennte Algorithmen zu verwenden („Affirmative Action for Algorithms“), oder die Idee, möglichst viele Bürger:innen oder zumindest eine repräsentative Gruppe von Entwickler:innen in die Entwicklung algorithmischer Anwendungen zu involvieren. Bousquet betont auch, dass es nicht als Erfolg zu werten sei, wenn Städte mit einem Algorithmus einen existierenden Prozess verbessern, sofern die Sinnhaftigkeit des Prozesses von vorneherein nicht sonderlich gut war.
?Wenn die KI tote Menschen nachahmt
(Artificial Intelligence Will Keep Our Loved Ones Alive), 20. September 2018, Medium
Wie gehen wir mit täuschend echten Simulationen verstorbener Menschen um? Dieser nicht mehr länger theoretischen Frage widmet sich der freie Autor Thomas McMullan in diesem Stück. Immerhin genüge mittlerweile eine hinreichend große Datenbank an Textnachrichten, um die Persönlichkeit eines Menschen zumindest in begrenztem Rahmen nachzubilden. Die menschenähnliche Sprachwiedergabe sowie Chatbot-Technologie machen ebenfalls große Fortschritte. Es sei daher realistisch, dass bald Werkzeuge existieren, mit denen sich Personen zumindest rudimentär simulieren lassen. McMullan berichtet in seinem Text von einem Projekt, um Erinnerungen von Holocaust-Überlebenden in interaktiven Dialogen auch nach ihrem Tod erlebbar zu machen. Was hier äußerst sinnvoll ist, kann in anderen Anwendungsfeldern schnell ethische und moralische Grenzen überschreiten. Etwa wenn einer simulierten verstorbenen Person Ideen oder Gedanken in den Mund gelegt werden, die diese zu Lebzeiten nie geäußert hat. Dass dies geschehen wird, werde sich allerdings schwer verhindern lassen.
?Was aussterbende Tiere mit Algorithmen zu tun haben
(Why Animal Extinction Is Crippling Computer Science), 19 September 2018, Wired
Wenn eine Tierart ausstirbt, dann repräsentiert dies das Ende eines von der Natur geschaffenen Algorithmus. Diese faszinierende Parallele zieht der Computerwissenschaftler Saket Navlakha in diesem Artikel. Wie bei einem Softwarealgorithmus gehe es auch bei einem biologischen Algorithmus darum, Probleme zu lösen. Die heute auf der Erde existierenden biologischen Organismen seien eine Sammlung an Algorithmen, die auch zunehmend für Computerwissenschaftler:innen interessant werden. Denn von den Rezepten, mit denen die Natur nach Millionen Jahren natürlicher Selektion bestimmte Probleme löst, lässt sich auch für die Entwicklung von Software viel lernen. Navlakha beschreibt zum Beispiel, wie Erkenntnisse aus der Analyse des Gehirns von Fruchtfliegen als Inspiration zur Verbesserung eines Suchalgorithmus dienten. Das nächste Mal, wenn eine Tierart infolge menschlichen Zutuns ausstirbt, sollten wir nicht nur den ökologischen und emotionalen Verlust beklagen, sondern auch den eines Algorithmus.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren.
Kommentar schreiben