Auf der re:publica 2018, die diese Woche stattfindet, drehen sich diesmal besonders viele Vorträge um das Thema Algorithmenethik. Was dabei immer wieder deutlich wurde: Wir brauchen mehr Transparenz über den Einsatz algorithmischer Systeme und ein besseres Verständnis für ihre Funktionsweise und Auswirkungen.

Umso mehr freuen wir uns, Ihnen auch diese Woche wieder eine kuratierte Auswahl an diversen und hoffentlich zum Denken anregenden Artikeln zum Thema präsentieren zu können. Wie immer ist uns die Auswahl nicht leichtgefallen.

Wer wissen will, wie die KI-Strategie der Europäischen Kommission zu bewerten ist, welche Bedeutung die Entwicklung des Like-Buttons für die Dominanz von Facebook hatte und welche Risiken bestehen, wenn eine Software von Gangs ausgehende Straftaten identifiziert, der ist hier richtig:

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. 

Wir freuen uns, wenn Sie Erlesenes weiterempfehlen und an interessierte Menschen weiterleiten!
Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de


?Warum eine echte künstliche Intelligenz extrem unwahrscheinlich ist

(What tech calls “AI” isn’t really AI), 29. April 2018, Salon

Dass der Mensch in naher Zukunft eine wörtlich zu verstehende Künstliche Intelligenz (KI) entwickeln wird, sei extrem unwahrscheinlich, schreibt der freie Journalist Jason Rhode in dieser knackigen Polemik. Für seine These liefert er eine durchaus schlagfertige Argumentation: Erstens sei ungenau definiert, was „Intelligenz“ überhaupt bedeutet. Zweitens gebe es massive technologische Herausforderungen in der Entwicklung. Und drittens stelle sich die Frage, ob der Mensch überhaupt in der Lage wäre, eine KI als solche zu identifizieren. Viel wahrscheinlicher sei, dass eine KI-ähnliche Software dem Menschen erfolgreiche vorgaukeln würde, intelligent zu sein. Und noch ein Problem sieht Rhode: Diejenigen Akteure, die heute vorgeben, an KI zu arbeiten, begnügten sich eigentlich schon damit, Algorithmen für mehr Werbeklicks zu optimieren. Angesichts der Tatsache, dass sich Rhode über begriffliche Unklarheit beklagt, hätten wir uns über einen Hinweis auf die begriffliche Differenzierung zwischen schwacher (narrow AI) und starker KI (general AI) gefreut.


?Anmerkungen zur KI-Strategie Europas

28. April 2018, christophkappes.de

Die EU-Kommission will mit massiven Investitionen und verschiedenen Vorstößen den Einsatz von Künstlicher Intelligenz (KI) fördern und regeln. In der vergangenen Woche veröffentlichte sie dazu einen umfassenden Bericht. Teil der Strategie ist die Bildung einer Expertengruppe, die gemeinsame Ethikprinzipien erarbeiten soll. Der Berater und Publizist Christoph Kappes weist in diesem Kommentar jedoch darauf hin, dass die Strategie aus einer ökonomischen Perspektive gedacht und die Auseinandersetzung mit den Folgen der KI der technischen Entwicklung hintenanstellt ist. Auch vermisst Kappes bei dem Vorhaben eine Berücksichtigung von Geistes- und Sozialwissenschaften, wie er in dem Text anhand dreier Thesen ausführt. Aus unserer Sicht besonders relevant ist seine zweite These: Was Europa ausmache, sei “Vielfalt in Einheit”, so Kappes. Seiner Ansicht nach müsse die europäische KI-Politik daher darauf achtgeben, Europas regionale Kulturvielfalt auch in algorithmischen Prozessen widerzuspiegeln. Kappes stellt sich die Schaffung einer “pluralistische KI” vor, die auf einem breiten Angebot an Algorithmen basiert. Ohne die feste Einbindung der Kulturwissenschaften sei dies nicht möglich.


?Umstrittener Algorithmus soll Straftaten mit Gang-Kontext erkennen

(A pioneer in predictive policing is starting a troubling new project), 26. April 2018, The Verge

Jeff Brantingham, Professor für Anthropologie an der University of California-Los Angeles (UCLA) und Gründer der Predictive-Policing-Softwareunternehmens PredPol, startet ein neues Projekt, welches man im Auge behalten sollte: Ein Algorithmus soll bewerten, ob im Großraum Los Angeles begangene Straftaten im Zusammenhang mit Gangaktivitäten stehen. Die Reporterinnen Ali Winston und Ingrid Burrington beleuchten in ihrem Text die Ziele und die Vorgehensweise des indirekt vom US-Verteidigungsministerium mitfinanzierten Forschungsprojektes und erörtern die erhebliche Kritik, die das Vorhaben auf sich zieht. Zu den monierten Schwachpunkten gehören veraltetes Datenmaterial, die grundsätzliche Subjektivität im Bewerten von Gangzusammenhängen, die Gefahr der geographischen – und damit besonders im segregierten Los Angeles automatisch auch ethnischen – Diskriminierung sowie die Interessenkonflikte und kommerziellen Verstrickungen des Initiators Jeff Brantingham. Das Vertrauen in die ethische Integrität des Ansatzes wird auch dadurch nicht gerade gestärkt, dass Hau Chan, einer der beteiligten Wissenschaftler, die Verantwortung für eventuelle negative Folgen mit dem Satz “Ich bin nur ein Ingenieur” von sich wies. Wer sich für die Chancen und Risiken von Predictive Policing interessiert, dem empfehlen wir auch unser Arbeitspapier “Wenn Maschinen Menschen bewerten” (Kapitel 2.2 und 2.8).


?Wie der Like-Button Facebooks Dominanz ermöglichte

(How Likes Went Bad), 25. April 2018, Medium

Die Kombination von drei Kernkonzepten ebnete Facebook den Weg zur absoluten Dominanz im Bereich Soziale Netzwerke: Der Social Graph, der Newsfeed und der Like-Button. Der Journalist und Autor Matt Locke beschreibt hier die entfesselnde Wirkung, die aus diesem Feature-Trio resultierte, und konzentriert sich dabei besonders auf die Rolle des Likes. Die Einführung des Like-Knopfes im Jahr 2009 sei ein historischer Tag für Aufmerksamkeitsmetriken gewesen. Mit dem Like konnte Facebook plötzlich die Emotionen, Intentionen und Ansichten von Milliarden Nutzern erschließen und dann (anonymisierten) Zugang zu diesen Informationen an Unternehmen verkaufen. Locke glaubt, dass selbst Facebook nicht vorhersehen konnte, was sich aus zunächst scheinbar unspektakulären Funktionen eines Tages entwickeln würde. Dennoch versucht er sich an Vorschlägen, wie die Öffentlichkeit sowie Regulatoren in die Lage versetzt werden könnten, frühzeitig technische Funktionalitäten bei Onlinediensten zu identifizieren, die längerfristig zu unerwünschter Machtkonzentration führen würden.


?Eine Künstliche Intelligenz, um manipulierte Videos zu identifizieren

(This algorithm automatically spots “face swaps” in videos), 10. April 2018, MIT Technology Review

Seit Monaten beschäftigen sogenannte “Deep Fakes” – mithilfe von einfachen, für jeden zugänglichen Algorithmen generierte Manipulationen von Videos – die Technologie-Presse. Viele Beobachter sorgen sich über die Folgen, die derartige Lösungen für die Glaubwürdigkeit von Bewegtbild haben werden. Ein Forscherteam von der TU München um den Spezialisten für Künstliche Intelligenz (KI), Andreas Rossler, leistet nun einen substanziellen Beitrag zur Debatte: Die Wissenschaftler haben einen selbstlernenden Algorithmus entwickelt, der auf Basis eines in seinem Umfang bislang einmaligen Datensets an Originalen und Manipulationen modifizierte Videos, Clips mit ausgetauschten Gesichtern, identifizieren kann. Dieser Bericht im MIT Technology Review fasst den Ansatz zusammen und benennt direkt das offensichtliche Problem: Theoretisch könnte eine KI, die manipulierte Videos erkennt, auch dafür missbraucht werden, die Manipulation von Videos schwerer erkennbar zu machen. Es handele sich um ein regelrechtes Katz-und-Maus-Spiel. Das Forschungspapier zum Verfahren gibt es hier als PDF.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: carla.hustedt@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren