Kann Künstliche Intelligenz Lügner:innen entlarven? Vertrauen Menschen eher einer Maschine als einem anderen Menschen? Zerstören algorithmische Reiseempfehlungen kulturelle Diversität?

Auch diese Woche gibt’s im Erlesenes-Newsletter wieder einige spannende Fragen, Diskussionsbeiträge, Interviews und neue wissenschaftliche Erkenntnisse rund um das Thema Algorithmenethik.

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.


?Computer-Polizisten sollen per Lügendetektor die EU-Grenzen schützen

2. November 2018, Watson.de

Die EU will an den Außengrenzen von Ungarn, Griechenland und Lettland einen virtuellen Lügendetektor namens iBorderCtrl testen, bei dem ein Algorithmus Mikrobewegungen im Gesicht von Befragten analysieren und potenzielle Lügner:innen entlarven soll. Max Biederbeck, Reporter bei Watson, beleuchtet einige kritische Reaktionen auf das EU-Vorhaben. Expert:innen befürchten „pseudowissenschaftliche Grenzkontrollen“ und bezweifeln, dass nichtverbale Signale im Gesicht beweisen könnten, ob jemand die Unwahrheit sagt. In einem sehr kleinen Test habe das System lediglich eine Trefferquote von 76 Prozent erzielt. Die iBorderCtrl-Entwickler:innen betonen, dass die Software zu keinem Zeitpunkt die Grenzkontrollen durch echte Beamt:innen ersetzen soll. Wer vom Algorithmus als verdächtig eingestuft wird, müsse als nächstes zu einer Überprüfung durch menschliches Personal. Allerdings, so zitiert Biederbeck einen Experten: “Wenn diese Systeme erst einmal in Gebrauch sind, dann gehen sie nicht mehr weg” – unabhängig davon, wie gut oder schlecht sie tatsächlich funktionieren.


?Algorithmen brauchen kein menschliches Antlitz

(Do People Trust Algorithms More Than Companies Realize?), 26. Oktober 2018, Harvard Business Review

Unternehmen und Expert:innen irren sich in der Annahme, Menschen würden algorithmisch bereitgestellten Informationen grundsätzlich misstrauisch begegnen. Zu diesem Schluss kommt ein Forscher:innenteam der Hardvard University und der University of California in Berkeley auf Basis einer Reihe von Studien, die das Trio in diesem Artikel vorstellt. Laut den Ergebnissen ziehen Menschen unter bestimmten Bedingungen algorithmische gegenüber menschlichen Ratgebern vor – selbst dann, wenn keine Angaben zur Funktionsweise des Algorithmus gemacht werden. Fachexpert:innen dagegen zweifeln häufig an den Ergebnissen von Algorithmen – auf Kosten der eigenen Akkuratheit. Das Forscher:innenteam schlussfolgert, Unternehmen würden einen Fehler begehen, wenn sie ihren Algorithmen um jeden Preis ein menschliches Antlitz zu geben versuchen. Zumal sich dann viele Anwender:innen zu Recht getäuscht fühlen würden.


?Forscher:innen bringen Künstlicher Intelligenz bei, neugierig zu sein

(How teaching AI to be curious helps machines learn for themselves), 1. November 2018, The Verge

Neugier ist für Menschen ein besonderer Motivator, um sich weiterzuentwickeln und Ziele zu erreichen. Forscher:innen der Non-Profit-Organisation OpenAI ist es nun gelungen, einer Künstlichen Intelligenz (KI) so etwas wie Neugier zu verleihen, wie James Vincent bei The Verge berichtet. Die Software wurde damit in die Lage versetzt, in einem bislang von KIs nicht gemeisterten Videospiel namens Montezuma’s Revenge zumindest Teilerfolge zu erzielen. Damit sind die Wissenschaftler:innen auf einem guten Weg, eine bislang bedeutsame Schwäche selbstlernender Algorithmen aus dem Weg zu räumen: Wenn eine zu lösende Aufgabe für die KI keine im Vorfeld klar definierten Belohnungen bietet, scheitern die Algorithmen in der Regel. Die neugierige KI hingegen kann eigenständig erkunden und entdecken, allein animiert durch die theoretische Aussicht darauf, an unerwarteter Stelle eine für ihre eigene Weiterentwicklung notwendige Information zu finden. Über das Level 1 des Spiels kam die Software allerdings bislang nicht hinaus.


?Uniformer Tourismus durch Algorithmendiktat

(The Algorithmic Trap), 27. August 2018, perell.com

Die physische Welt werde zunehmend optimiert für die im Internet dominierende Ästhetik. Hippe Cafés auf der ganzen Welt haben die gleichen Lampen, Stühle und dasselbe Avocado Toast – eben genau das, was die Algorithmen von Instagram & Co. belohnen. Der Unternehmer, Autor und leidenschaftliche Reisende David Perell bedauert diese Entwicklung. Es finde gerade ein massiver Verlust von kultureller Diversität statt, ausgelöst und verstärkt durch Algorithmen, meint Perell. Einschlägige Onlineportale und Reisewebsites versprächen authentische Erlebnisse, böten allerdings genau das Gegenteil. Schnelldrehende Feedback-Loops führen zu einer rasanten Kommerzialisierung dessen, was Algorithmen als trendig anpreisen, umgehend gefolgt von der nächsten einengenden Optimierung der Algorithmen. Für Perell ist die Konsequenz, sich für die Erkundung neuer Städte und Länder zunehmend von algorithmisch generierten Empfehlungen fernzuhalten. Algorithmen seien gut darin, uns Dinge zu geben, die wir mögen, würden aber darin versagen, uns Dinge zu geben, die wir lieben, so Perell.


?Interview zu den komplizierten politischen und ethischen Dimensionen Künstlicher Intelligenz 

(The politics of artificial intelligence: an interview with Louise Amoore), 26. Oktober, openDemocracy

Künstliche Intelligenz (KI) wird in immer mehr Disziplinen als unterstützendes Instrument für Entscheidungen eingesetzt. Dabei werde schnell vergessen, dass es häufig gar keine einfachen, eindeutigen Entscheidungen gebe. Durch die Automatisierung bestehe daher das Risiko, dass die Vielschichtigkeit von Entscheidungen auf einen völlig simplifizierenden Output reduziert wird. Diese Sorge ist einer von vielen tiefgehenden Aspekten, die Louise Amoore, Professorin an der englischen Durham University und Expertin zur Ethik KI, in diesem ausführlichen und anspruchsvollen Interview zu den politischen Konsequenzen von KI artikuliert. Amoore äußert sich unter anderem zum Verhältnis von maschinellem Lernen und Kapitalismus, dem Einsatz von KI für Grenzkontrollen sowie zu Diskriminierung und Freiheitseinschränkungen durch Merkmalsassoziationen.


?In eigener Sache: Der maschinelle Weg zu mehr Menschlichkeit: Es braucht Kontrolle

Dieser Gastbeitrag von Carla Hustedt vom Projekt “Ethik der Algorithmen” der Bertelsmann Stiftung bei derStandard hat eine heftige Kommentardiskussion ausgelöst, die zeigt: Das Thema bewegt die Menschen. Für treue Leser:innen von Algorithmenethik Erlesenes mag der Beitrag wenig Neues beinhalten. Er eignet sich jedoch gut als Debattenanstoß und Einführung in das Thema, denn er fasst die zentralen Chancen und Risiken von Algorithmen anhand von Fallbeispielen zusammen und zeigt auf, was getan werden muss, um die Technologie in den Dienst der Gesellschaft zu stellen. Wir freuen uns, wenn der Beitrag geteilt wird und Anlass für weitere Debatten zu dem Thema bietet.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren