Falschnachrichten auf Twitter, neuronale NetzwerkeNeuronale Netzwerke Ein Modell der Künstlichen Intelligenz, das die Arbeitsweise des menschlichen Gehirns nachahmt. Es besteht aus vielen miteinander verbundenen „Neuronen“ oder Knotenpunkten, die in Schichten angeordnet sind. Diese Netzwerke lernen durch Anpassung der Verbindungen zwischen den Neuronen, um Muster in Daten zu erkennen und daraus Vorhersagen oder Entscheidungen zu treffen. zum Stricken, Googles Kooperation mit dem US- Militär – diese und viele weitere Themen erwarten Sie in der sechzehnten Ausgabe von Erlesenes. Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen.

Unsere Umfrage haben wir mittlerweile ausgewertet. Es waren einige hilfreiche Anregungen dabei. Wir werden uns bemühen, möglichst Viele umzusetzen. Vielen Dank an alle, die teilgenommen haben und uns so helfen, Erlesenes zu verbessern! Sollten Sie weiteres Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de

Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten. 

Folgende Empfehlungen haben wir diese Woche für Sie ausgewählt:


?Unwahres verbreitet sich auf Twitter schneller

8. März 2018, Zeit Online

Unwahre Inhalte haben beim Kurznachrichtendienst Twitter eine um 70 Prozent höhere Wahrscheinlichkeit, von Nutzerinnen und Nutzern weiterverbreitet zu werden. Zu diesem ernüchternden Schluss kommt eine umfangreiche Studie von Forschern des Massachusetts Institute of Technology (MIT). Zeit Online schildert die wichtigsten Ergebnisse der Untersuchung, für die von drei Millionen Menschen veröffentlichte Tweets zu 126.000 englischsprachigen Nachrichten untersucht wurden. Nach Ansicht der Wissenschaftler erklärt sich der Hang zur Verbreitung von Unwahrem mit der menschlichen Präferenz für Überraschendes und den damit verbundenen Emotionen. Was die Arbeit auch zutage fördert: Trotz der massiven Präsenz und Aktivität von Bots trägt menschliches Verhalten stärker zur Ausbreitung von Unrichtigem bei als automatisierte Twitterkonten.


?Wenn ein neuronales Netzwerk sich Stricken beibringt

(SkyKnit: How an AI Took Over an Adult Knitting Community), 6. März 2018, The Atlantic

Was passiert, wenn man ein neuronales Netzwerk mit 500 Strickanleitungen versieht und es auf dieser Datenbasis neue Strickinstruktionen generieren lässt? Der Journalist Alexis C. Madrigal berichtet über ein Projekt der Wissenschaftlerin Janelle Shane, das dieser Frage nachgeht: Mit der Unterstützung eines Onlinestrickforums fütterte Shane ein algorithmisches System mit hunderten Anleitungen. Der Algorithmus produzierte damit anschließend neue Instruktionen. Die Forenmitglieder machten sich daraufhin mit Stricknadeln und Garn daran, die Resultate nachzubilden. Sinnvolle Kleidungsstücke kamen dabei nicht heraus. Kein Wunder, das neuronale Netzwerk wusste gar nicht, was es da eigentlich tat, und warum. Aber an Einfallsreichtum mangelte es den Ergebnissen nicht. Janelle Shanes Unterfangen stellt somit in erster Linie ein spannendes Kunstprojekt dar, das zumindest beweist, dass algorithmische Systeme durchaus kreativ sein können.


?Forscher lernen, wie künstliche Intelligenz (KI) lernt

(Google Researchers Are Learning How Machines Learn), 6. März 2018

KI-Forscher wollen liebend gerne wissen, wie neuronale Netzwerke ihre Entscheidungen treffen und warum sie Fehler machen. Bislang tappen sie jedoch weitgehend im Dunkeln. Der Journalist Cade Metz berichtet in der New York Times über einen kleinen Fortschritt von Google-Wissenschaftlern, was die Visualisierung der Entscheidungsfindungen der KI angeht. Der Journalist zitiert verschiedene Experten wie Jeff Clune, Professor für Informatik an der University of Wyoming, der die Forschung rund um die Denkprozesse von Algorithmen als “Künstliche Neurowissenschaft” bezeichnet. Der Versuch, die Vorgänge innerhalb von KI zu verstehen, brächte viele Vorteile, etwa bessere Möglichkeiten, Manipulationsversuche zu verhindern. Zu viel Hoffnung, die Vorgänge der KI wirklich nachvollziehen zu können, sollten wir uns aber lieber nicht machen. Schon deshalb nicht, weil die Algorithmen immer komplexer werden.


?Google hilft dem US-Militär bei der Entwicklung von künstlicher Intelligenz (KI) für Drohnen

(Google Is Helping the Pentagon Build AI for Drones), 6. März 2018, Gizmodo

Das Bekanntwerden einer Kooperation von Google mit dem US-Verteidigungsministerium im Bereich der KI-Bildanalyse für Drohnen sorgt bei dem Internetkonzern intern für Diskussionen. Die Gizmodo-Reporter Kate Conger and Dell Cameron schreiben über die Zusammenarbeit zwischen Google und dem US-Militär und beleuchten die ethischen Konflikte und Fragestellungen, die sich daraus ergeben. Google sagt, dass die zum Einsatz kommende Technologie nicht für Angriffsszenarien verwendet werde. Die bekannten und hinreichend dokumentierten Schwächen von Algorithmen bezüglich Diskriminierung und Voreingenommenheit legen jedoch den Schluss nahe, dass die Implementierung in keinem Fall ohne Risiko ist. Wer sich detaillierter über den Einsatz von KI-Technologie für militärische Zwecke informieren möchte, sollte einen Blick in diesen umfangreichen Bericht (PDF) von Harvard-Forschern aus dem vergangenen Jahr werfen.


?“Die ethische Herausforderung durch künstliche Intelligenz ist etwas kategorial Neues.”

5. März 2018, Politico

KI-betriebene Technologie ist nur dann sinnvoll, wenn sie irgendetwas besser kann als der Mensch. Das betont Armin Grunwald, seit 15 Jahren Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag, in diesem Interview mit dem POLITICO-Journalisten Janosch Delcker. Bei KI sei das Problem jedoch, dass wir abgehängt werden könnten und die Kontrolle über die Systeme verlieren, so Grunwald. Die größte Gefahr ist seiner Ansicht nach die menschliche Bequemlichkeit. Das ethische Dilemma, das häufig im Zusammenhang mit selbstfahrenden Autos angeführt wird – wenn eine Kollision droht: Welche Passanten soll das Auto überfahren, welche nicht? – hält er für ein Scheinproblem, das in der realen Welt nicht vorkommt. Sein pragmatischer Vorschlag: Im Bordcomputer des autonomen Autos solle ein Zufallsgenerator laufen, der in einer brenzligen Situation entscheidet, wohin das Fahrzeug gesteuert wird. Das sei die Analogie zu dem, was ein Mensch machen würde.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren