Können Algorithmen gegen die Kriminalität in Dörfern angehen? Wie können algorithmische Systeme Naturkatastrophen verhindern? Und wieso braucht es für Facebooks Künstliche Intelligenz eine händische Vorarbeit? Antworten auf diese Fragen gibt es wie jede Woche in fünf spannenden Beiträgen im Erlesenes-Newsletter!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?Künstliche Intelligenz und die Bedeutung menschlichen Kontakts

(As Artificial Intelligence Moves Into Medicine, The Human Touch Could Be A Casualty), 30. April 2019, NPR

Für viele Patient:innen spielt der zwischenmenschliche Aspekt und das damit verbundene Gefühl, dass sich jemand um sie kümmert, beim Besuch medizinischer Facheinrichtungen eine bedeutsame Rolle. Doch wenn Künstliche Intelligenz (KI) in den Praxen und Krankenhäusern Einzug hält, könnte genau dieser Aspekt infrage gestellt werden. Das schreibt Richard Harris, Korrespondent bei NPR. Er berichtet über Bedenken, dass die Kombination von neuen Möglichkeiten der KI, Effizienzdenken und Kostendruck zu einer Reduzierung der Gelegenheiten des zwischenmenschlichen Kontakts im Gesundheitswesen führen könnte. Die Gefahr einer solchen Entwicklung bestehe besonders für Gruppen, die ohnehin bereits soziale Benachteiligung erleben. Harris zitiert die Stanford-Medizinerin Sonoo Thadaney Israni, die angesichts der Technologie eine sich verstärkende Zwei-Klassen-Gesellschaft im Gesundheitswesen heraufziehen sieht: “Wir müssen sicherstellen, dass die Technologie Probleme rund um Gerechtigkeit und Inklusion nicht noch verschärft”, so Israni.


?Facebooks Beiträge werden händisch gelabelt

(Facebook ‘labels’ posts by hand, posing privacy questions), 6. Mai 2019, Reuters

Das händische Labeln von Daten zum Training von Künstlicher Intelligenz (KI) ist ein aufstrebender Markt. Wenn etwa der Facebook-Algorithmus die Stimmung eines Nutzerpostings “versteht”, Anzeigen im Umfeld bestimmter Inhalte blockiert oder Marktplatzeinträge automatisch einer Kategorie zuweist, dann geht dies oft auf die menschliche Vorarbeit zurück. Munsif Vengattil und Paresh Dave, Reporter bei der Nachrichtenagentur Reuters, berichten, dass bei dem Internetkonzern jederzeit für bis zu 200 Projekte Drittfirmen die Kategorisierung vornehmen. Dafür versehen die Zuarbeiter:innen von Nutzer:innen bei Facebook privat veröffentlichte Inhalte mit Labels, von denen später Algorithmen Gebrauch machen können. Wie die Autoren anmerken, werfe die Methode unter anderem Fragen dazu auf, ob die Privatsphäre der Anwender:innen verletzt werde und inwieweit sie mit der Datenschutz-GrundverordnungDSGVO (Datenschutz-Grundverordnung) Ein EU-Gesetz zum Schutz personenbezogener Daten und der Privatsphäre von EU-Bürgern. vereinbar sei.


?Wie kombinierte Algorithmen gegen Kriminalität in Dörfern vorgehen

3. Mai 2019, ETH-News

Damit Computerprogramme durch maschinelles LernenMachine Learning Ein Teilbereich der KI, bei dem Systeme aus Daten lernen und sich verbessern, ohne explizit programmiert zu werden. auf Basis von Einbruchstatistiken akkurate Prognosen über das Risiko von Einbrüchen machen können, benötigen sie hinreichend Daten des entsprechenden Gebiets. Bislang war daher eine statistische Vorhersage für Regionen mit besonders dünner Besiedelung schwierig. Michael Walther, Redakteur bei ETH-News, informiert über eine von der Informatikerin Cristina Kadar an der ETH Zürich entwickelte Methode, die Abhilfe schaffen soll: Kader habe einen Datensatz mithilfe des statistischen Verfahrens des “Random Undersampling” bearbeitet, mit diesem dann verschiedene Algorithmen trainiert und aus den aggregierten Vorhersagen Einbruchsprognosen erstellt. Ihr Ansatz erziele mit ungleich verteilten Daten mindestens gleich gute und zum Teil bessere Trefferquoten als herkömmliche Methoden in städtischen Gebieten, wo die Daten dichter und zudem gleichmäßiger verteilt sind. Zum Thema empfehlen wir auch das Papier zum “Predictive Policing in Deutschland” der Stiftung Neue Verantwortung und der Bertelsmann Stiftung.


?Algorithmen – die neuen Helfer bei Naturkatastrophen

(How to bring wildfires under control), 27. Februar 2019, BBC

Algorithmen bieten Expert:innen neue Möglichkeiten der Prävention und Schadensbegrenzung von Naturkatastrophen wie Waldbränden oder Hochwasser. Die freie Journalistin Abigail Beall schildert in diesem Artikel bei BBC verschiedene Einsatzbereiche. Unter anderem berichtet sie über ein Unternehmen, das hochauflösende Satellitenaufnahmen der gesamten Waldfläche der USA sowie andere Datenquellen dafür nutzt, um mithilfe eines Computerprogramms Waldstücke zu identifizieren, in denen sich Feuer besonders gut ausbreiten kann. Die Erkenntnisse sollen Planer:innen helfen, gezielt präventive Maßnahmen zu ergreifen, etwa Schneisen zu schlagen oder physische Brandschutzbarrieren zu errichten. Auch die Gefahr von Fluten lasse sich laut Beall mithilfe von Algorithmen besser prognostizieren. Im Falle anderer Katastrophenarten wie Erdbeben und Tsunamis wiederum eigne sich Künstliche Intelligenz (KI) dafür, Schäden schneller zu erfassen, Rettungsmaßnahmen zu optimieren und damit Leben zu retten.


?Die Konsequenzen der algorithmischen Gesellschaft (PDF)

(On Social Machines for Algorithmic Regulation), 30. April 2019, arXiv.org

Eine algorithmische Gesellschaft setze nicht zwangsläufig offizielle, explizite staatliche Beschlüsse und Planung voraus, wie es in China der Fall ist. Sie könne sich auch ganz unverfänglich aus der organischen Verknüpfung verschiedener kommerzieller oder behördlicher Bewertungssysteme entwickeln. Diese spitze These vertreten die KI-Wissenchaftler:innen Nello Christian und Teresa Scantamburlo der Universität Bristol. In einem längeren wissenschaftlichen Papier analysieren sie denkbare Wege, wie aus heute breit eingesetzten Onlinealgorithmen, Reputationssystemen und isolierten Scoringlösungen eine sogenannte “Autonomous Social Machine” (ASM) erwachsen könnte. Diese Mechanismen würden unter anderem Feedbackschleifen begünstigen, die das Verhalten der Bürger:innen beeinflussen. Angesichts weitreichender technischer, ethischer und politischer Konsequenzen erfordere das Thema dringende multidisziplinäre Beachtung, mahnen die Autor:innen des Papiers.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren