Was ist von Googles neuen ethischen Prinzipien für KI zu halten? Welche Rolle spielen Algorithmen bei der Moderation von Sozialen Netzwerken? Und warum hat das MIT eine psychopatische KI geschaffen? Diese und einige weitere Fragen erwarten Sie diese Woche in Erlesenes.
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen.
Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leserinnen und Lesern. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an carla.hustedt@bertelsmann-stiftung.de zukommen lassen.
?Google: Wir entscheiden, was böse ist
18. Juni 2018, Zeit Online
Mit seinen gerade veröffentlichten sieben Prinzipien zum ethischen Einsatz von Künstlicher Intelligenz (KI) bestätigt Google-Chef Sundar Pichai implizit die Macht, die das Unternehmen als eines der führenden in der KI-Forschung besitzt. Die Entscheidungen, die dort gefällt werden, könnten die Leben von unzähligen Menschen auf der ganzen Welt verändern. So kommentiert Dirk Peitz, Digital-Redakteur bei Zeit Online, den Vorstoß das Konzerns, der auf eine polarisierende firmeninterne Debatte zu einer kontroversen KI-Zusammenarbeit mit dem Pentagon folgt (siehe Erlesenes #16 und #28). An konkreten Aussagen mangele es dem Dokument jedoch. Die meisten der aufgeführten Ethikprinzipien beschreiben eigentlich Selbstverständlichkeiten, so Peitz. Pichai definiere nicht, was der Nutzen und der Schaden von KI sein könnte. Zynisch ließe sich die kommunizierte Botschaft in Anlehnung an das einst legendäre Google-Firmenmotto “Sei nicht böse” nach Ansicht des Journalisten etwa so zusammenfassen: “Wir entscheiden situativ, was wir für böse halten.” Was man jedoch bedenken muss: Die Balance zu finden zwischen Prinzipien, die allgemein genug sind, um auf verschiedene Systeme anwendbar zu sein, ohne aber ihre konkrete Aussagekraft zu verlieren, ist schwierig. Dem Problem werden sich auch zivilgesellschaftliche Organisationen stellen müssen, wenn sie versuchen, moralische Richtlinien zu entwickeln.
?Die gigantischen Ausmaße der Moderation von Social-Media-Inhalten
(“The Scale Is Just Unfathomable”), Juni 2018, Logic
Für Nutzer der großen Social-Media-Plattformen fühlt sich die Moderation von Inhalten noch immer an wie ein individueller, jeweils für ihren Fall einzigartiger Prozess. Doch in Realität handelt es sich um hochgradig skalierbare Vorgänge von gigantischen Ausmaßen. Angesichts von Milliarden Nutzern sei kein noch so scheinbar atypischer Fall wirklich mehr einzigartig. Entsprechend systematisiert, auf Effizienz getrimmt und teilautomatisiert läuft Content-Moderation im Jahr 2018 ab, wie der Microsoft-Forscher Tarleton Gillespie in diesem Text erklärt. Eine immer wichtigere Rolle erhält angesichts der zu bewältigenden Herausforderungen der Einsatz von Algorithmen zur Moderation und Löschung von gegen Regeln verstoßenden Inhalten. Doch dabei entsteht ein Paradox: Denn während die Anzahl der zu durchforstenden Inhalte den Einsatz von Künstlicher Intelligenz (KI) schier unumgänglich macht, wird diese genau für solche Entscheidungen herangezogen, die aufgrund ihrer Komplexität und Kontextabhängigkeit nicht automatisiert werden sollten und heutzutage wohl auch nicht wirklich zufriedenstellend automatisiert werden können. Es handele sich um ein Dilemma, für das es womöglich gar keine wirkliche Lösung gebe, so Gillespie.
?Wie leicht ein Algorithmus zum Psychopathen wird
(MIT Trains Psychopath Robot ‘Norman’ Using Only Gruesome Reddit Images), 6. Juni 2018, Newsweek
Wer eine Künstliche Intelligenz (KI) mit üblen Daten füttert, bekommt von ihr entsprechend problematische Resultate geliefert. Dies haben Forscher des Massachusetts Institute of Technology (MIT) anhand eines “psychopathischen” Bilderkennungsalgorithmus namens “Norman” demonstriert. Newsweek-Reporter Benjamin Fearnow berichtet über das Projekt, für das die KI mit ausschließlich gewalttätigen Bildern aus Unterforen der beliebten Onlineplattform Reddit trainiert wurde. Auf Basis dieses Datensets ließen die Wissenschaftler dann Norman typische Tintenklecksmuster des Rorschachtests “interpretieren”. Norman, angelernt mit Bildmaterial übelster Sorte, sah in jedem Motiv Mord und Totschlag, während ein zum Vergleich genutzter “herkömmlicher” Algorithmus harmlose Darstellungen zu erkennen glaubte. Mit dem Experiment liefern die MIT-Forscher ein besonders anschauliches Beispiel dafür, dass Technik per se nicht gut oder böse ist, und zeigt, wie sehr die Eigenschaften von Datensets die Resultate von lernfähigen Algorithmen beeinflussen und in unerwünschte Richtungen bewegen können. Auf der dazugehörigen Projektwebsite findet man nicht nur weitere Informationen über Norman, sondern kann auch selber Tintenflecke interpretieren und so dabei helfen, Norman “zu heilen”.
?(Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft
Juni 2018, Kompetenzzentrum Öffentliche IT
Regieren Algorithmen? Welche Chancen und Grenzen bietet die algorithmische Verwaltung? Wie lässt sich algorithmische Diskriminierung systematisch verhindern? Welchen Einfluss hat Künstliche Intelligenz (KI) auf die Demokratie? Diesen und vielen weiteren Fragen widmet sich eine umfassende Publikation des vom Bundesministerium des Inneren (BMI) geförderten Kompetenzzentrums Öffentliche IT mit dem Titel “(Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft”, herausgegeben von Resa Mohabbat Kar, Basanta Thapa und Peter Parycek. In 24 Beiträgen befassen sich Experten aus Forschung, Wirtschaft und Politik mit einem breiten Spektrum an wichtigen Fragen rund um den Einfluss, die Möglichkeiten und Risiken des Einsatzes von KI. Mit dabei ist auch eine Kurzfassung unseres von Konrad Lischka und Julia Krüger verfasstes Arbeitspapiers zu Lösungsansätzen, um sicherzustellen, das algorithmische Prozesse den Menschen dienen. Sämtliche 24 Kapitel der Publikation können einzeln als PDF heruntergeladen werden, außerdem steht das Gesamtwerk kostenfrei im PDF- und ePub-Format bereit.
?Wie Kriminelle versuchen, die Abwehralgorithmen der Onlinedienste auszutricksen
(Attacks against machine learningMachine Learning Ein Teilbereich der KI, bei dem Systeme aus Daten lernen und sich verbessern, ohne explizit programmiert zu werden. — an overview), Mai 2018, Elie.net
Führende Onlinedienste setzen systematisch auf Künstliche Intelligenz (KI), um Missbrauch, Spam und Cyberattacken abzuwehren. Doch Kriminelle lernen schnell und testen stetig neue Methoden, um die auf die Erkennung von Angriffen optimierten Algorithmen auszutricksen. Elie Bursztein, Leiter von Googles Anti-Abuse-Forschungsteam, liefert einen Überblick über die drei gängigsten Maßnahmen, mit denen Betrüger versuchen, beispielsweise Künstliche Intelligenzen zur Erkennung von Spam und Phishing von E-Mail-Diensten hinters Licht zu führen: sogenannte „Adversarial Attacks“ (um schadhafte Inhalte vor der Entdeckung zu schützen), Angriffe zur “Vergiftung” von Trainingsdaten (etwa systematisch Spam-Mails als harmlos zu “flaggen”) sowie Versuche, die Funktionsweise der Abwehralgorithmen oder die für das Anlernen der KI genutzten Datensätze zu “stehlen”. Der Text ist etwas technischer als unsere anderen Empfehlungen, aber wer Algorithmenethik Erlesenes regelmäßig liest, dürfte mit ihm keine großen Verständnisprobleme haben.
Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de
Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren.
Kommentar schreiben