Erlesenes meldet sich zurück aus der Sommerpause – mit vielen neuen Leseempfehlungen, Denkanregungen und spannenden Fragen: Welche Herausforderung stellen Algorithmen für die Kontrolle von Kartellbildung dar?  Brauchen wir bald keine menschlichen Übersetzer:innen mehr? Wie sieht eine erfolgreiche Professionsethik für Algorithmen-Gestalter aus?

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


?Was ein Kind und ein algorithmisches System gemeinsam haben

(Programming My Child), 23. August 2018, Boston Review

Die Algorithmen der großen Techplattformen werden stetig verändert oder gar ersetzt. Doch die Gesamtsysteme von Google, Facebook, Amazon und Co. werden durch die Änderungen der einzelnen Programmcodes nicht in ihr Anfangsstadium zurückversetzt, sondern entwickeln sich in einer Art linearen Kontinuität immer weiter. Mit ihrer zunehmenden Komplexität wird es somit immer schwerer, sie zu verstehen und zu beeinflussen. Der Buchautor und Softwareentwickler David Auerbach versucht, diese Entwicklung anhand einer nachdenkenswerten Analogie zu verdeutlichen: Die algorithmenbasierten Systeme, die unseren Alltag prägen, weisen bemerkenswerte Parallelen zum Heranwachsen von Kindern auf. Auerbach beschreibt, wie Eltern ihren Nachwuchs sozusagen “programmieren” und wie sie gleichzeitig ihr Handeln an das sich stetig weiterentwickelnde Verhalten ihres Kindes anpassen. Als Baby gleiche ein Kind am ehesten einer simplen, vorhersagbaren Maschine. Doch nach und nach entwickelt sich ein autonom denkender und handelnder Mensch, der die Welt um sich herum auf eigene, teilweise unerwartete Weise interpretiert und mit ihr interagiert. Genau das passiere gerade mit den aus vernetzten Algorithmen bestehenden Systemen der Technologiewelt. Und es gebe noch eine Ähnlichkeit: Ein Resetknopf existiert weder bei Kindern noch bei komplexen algorithmischen Systemen.


?Wenn Algorithmen Kartelle bilden

28. August 2018, NZZ

Selbstlernende Algorithmen entwickeln sich zu einer großen Herausforderung für Wettbewerbshüter. Natalie Gratwohl, Wirtschaftsjournalistin bei der NZZ, beleuchtet das Risiko von stillschweigenden Preisabsprachen durch Algorithmen. Im Gegensatz zu herkömmlichen Kartellen fehlt bei von Software in kompletter Eigenregie festgelegten Preisen eine klar erkennbare Absicht zur Preiskoordination. Stattdessen entscheidet ein Algorithmus je nach Marktumfeld und Situation, welche Preisstrategie am ehesten zur Gewinnmaximierung führt – das könnte eben auch sein, mit den Preisalgorithmen von Konkurrenten zu kooperieren. Am Ende zahlen die Konsumenten drauf. Für Wettbewerbsbehörden stellen sich zwei kritische Fragen: Wer ist für das Verhalten selbstlernender Algorithmen verantwortlich? Und: Genügen die aktuellen Gesetze als Grundlage, um diese neue Form der Preiskoordination zu unterbinden? Unausweichlich scheint, dass Unternehmen in die Pflicht genommen werden müssen, ihre Software zu beobachten und für Transparenz zu sorgen.


?Menschen übersetzen besser als die KI – noch

(Has AI surpassed humans at translation? Not even close!), 25. Juli 2018, Skynet Today

Die Qualität von maschinellen Übersetzungen, bei denen Künstliche Intelligenz (KI) zum Einsatz kommt, sei mittlerweile genauso hoch wie die menschlicher Übersetzungen – das zumindest suggerierte die Medienberichterstattung der letzten Monate. Doch diese Behauptung habe mit der Realität nichts zu tun, schreibt die KI-Expertin und Computerwissenschaftlerin Sharon Zhou. Auch wenn Übersetzungen zwischen zwei Sprachen dank KI deutlich besser ausfallen als solche auf Basis herkömmlicher Verfahren, besitzen selbst die aktuellsten Ansätze noch zahlreiche Schwachpunkte: Die Resultate sind unzuverlässig, den Systemen fehlt ein “Gedächtnis” über zuvor Übersetztes und es mangelt an “gesundem Menschenverstand”. In der Folge sind KI-Übersetzungen anfällig für diskriminierende Statements, völlig absurde Übersetzungen sowie Inkonsistenzen. Zusätzlich existieren große Schwierigkeiten bei der Bewertung der Qualität von derartigen maschinellen Übersetzungen. Allerdings, so Zhou, mache das Forschungsfeld stetig Fortschritte. Kontinuierliche Verbesserungen der Ergebnisse von KI-Übersetzungen sind also zu erwarten.


?Silicon Valley und das Ethikproblem 

(“Striving to minimize technical and reputational risks” – Ethical OS and Silicon Valley’s guilty conscience), 24. August 2018, LibrarianShipwreck

Technologiefirmen haben gezeigt, dass sie unfähig sind, die gesellschaftlichen Konsequenzen ihrer Entwicklungen vorherzusehen. Nun versuchen Vertreter des Silicon Valley, mit verschiedenen Initiativen das Vertrauen der Öffentlichkeit zurückzugewinnen. Über eine davon, Ethical OS, schreibt die unter Pseudonym auftretende Autorin des Blogs LibrarianShipwreck. Sie hebt positiv hervor, dass das Rahmenwerk, welches sich an Protagonisten der Techbranche richtet, umfassend und doch prägnant ist und die Akteure dazu auffordert, sich auch mit den Risiken der von ihnen erschaffenen Technologie auseinanderzusetzen. Gleichzeitig identifiziert sie verschiedene grundlegende Mängel: Statt die fundamentale Ursache der Probleme – die Ideologie des Silicon Valley – infrage zu stellen, manifestiert das Rahmenwerk diese. Der ungebrochene Glaube an die Fähigkeit zur Selbstregulierung sowie das propagierte Selbstbild der Branchenvertreter als gutmeinende Weltverbesserer bleiben unangetastet. Ebenfalls problematisch: Ethical OS verpasst es, die breite Gesellschaft in die Entwicklung eines ethischen Kompasses einzubinden und ihnen eine Möglichkeit zu geben, die aufgeworfenen Fragen mitzugestalten. Zum Thema empfehlen wir auch unser neues Arbeitspapier zu erfolgreichen Professionsethiken (siehe „In eigener Sache“).


?Über die Furcht vor automatisierten Entscheidungsprozessen

(What to Do When Algorithms Rule), 6. Februar 2018, Behavioral Scientist

Menschen fühlen sich unwohl dabei, Entscheidungen an Maschinen zu übergeben – das zeigte jüngst auch unsere repräsentative Bevölkerungsbefragung. Das häufig unbegründete Misstrauen in algorithmische Systeme kann dazu führen, dass die Chancen der Technologie nicht voll genutzt werden. Der Daten- und Wirtschaftswissenschaftler Jason Collins befasst sich in diesem Essay mit dem seit dem 20. Jahrhundert regelmäßig wiederkehrenden Phänomen des Misstrauens gegenüber Automatisierung. Es handele sich unter anderem um eine Folge der Schwierigkeit, die statistische Überlegenheit von automatisierten Entscheidungen zu demonstrieren. Doch die Lage sei nicht aussichtslos, so Collins: Studien hätten beispielsweise gezeigt, dass die Bereitschaft der Abgabe von Entscheidungsautonomie steigt, sofern Menschen zumindest ein gewisses Maß an Einfluss auf den Algorithmus besitzen. Was den Autor optimistisch stimmt: Sobald sich Menschen an die Automatisierung eines Prozesses gewöhnt haben, erscheint ihnen eine Rückkehr zu einem manuellen Vorgang plötzlich undenkbar. So gebe es heute beispielsweise keinen Bedarf mehr an Menschen, die einen Fahrstuhl steuern. Das sei mal ganz anders gewesen.


?In eigener Sache: Ethik für Algorithmen-Gestalter. Was wir von erfolgreichen Professionsethiken lernen können

Transparenz, Fairness und Nachhaltigkeit: Das sind nur einige der Anforderungen, die derzeit – auch von uns – an algorithmische Prozesse gestellt werden. Die Personen, die algorithmische Systeme beauftragen, gestalten und einsetzen, stehen in der Verantwortung, diese Anforderungen umzusetzen. Doch warum sollten sie dieser Verantwortung nachkommen? Wir glauben, eine verbindliche Professionsethik könnte die Antwort sein. In unserem neuen Arbeitspapier identifizieren die Autorinnen und Autoren zehn Erfolgsfaktoren verbindlicher Professionsethiken aus verschiedensten Bereichen und geben Empfehlungen für die Übertragung auf das Berufsfeld der Algorithmengestaltung.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren