Auf zu neuen Ufern! Das war das Motto unseres Teamtags, bei dem wir nicht nur an neuen Projektstrategien arbeiten, sondern auch ein fahrtüchtiges Floß bauen konnten. Neue Impulse finden sich aber auch im dieswöchigen Erlesenes-Newsletter: Welche wissenschaftlichen Durchbrüche könnten durch Algorithmen vorhergesagt werden? Wie hilft eine Künstliche Intelligenz (KI), die Zahl von Demonstrant:innen richtig zu schätzen? Und welche Auswirkungen könnten „dumme“ Daten auf unser Zusammenleben haben?

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?Wie Algorithmen zu wissenschaftlichen Durchbrüchen verhelfen

(With Little Training, Machine-Learning Algorithms Can Uncover Hidden Scientific Knowledge), 3. Juli 2019, Berkeley Lab

Ein Algorithmus kann sich allein ausgehend durch eine linguistische Analyse einer großen Zahl wissenschaftlicher Texte Fachwissen über die jeweilige Disziplin aneignen. Das zeigen Forscher:innen des Lawrence Berkeley National Laboratory in einem aktuellen Papier, dessen Erkenntnisse Julie Chao zusammenfasst. Gefüttert mit Millionen Textstücken aus Forschungsarbeiten zur Materialwissenschaft habe die Künstliche Intelligenz ein Verständnis von Konzepten wie dem Periodensystem oder der kristallinen Struktur von Metallen erwerben können – und das lediglich aufgrund von sprachlichen Wortbeziehungen. Das Verfahren sei auch in der Lage, künftige Entdeckungen vorherzusagen. Der Algorithmus prognostizierte auf Basis von bis zum Jahr 2008 publizierten Forschungspapieren fünf verschiedene wissenschaftliche Durchbrüche, von denen drei mittlerweile Realität geworden seien. Zusammen mit ihrer Arbeit haben die Studienverantwortlichen auch eine Liste von 50 thermoelektrischen Materialien publiziert, mit deren baldiger Entdeckung der Algorithmus rechnet, so Chao.


?In Hong Kong schätzt ein KI die Zahl der Protestteilnehmer:innen

(How A.I. Helped Improve Crowd Counting in Hong Kong Protests), 3. Juli 2019, The New York Times

Die Teilnehmer:innenzahlen an prodemokratischer Demonstrationen in Hongkong sind regelmäßig Objekt heißer Debatten, denn sie gelten als Indikator für die generelle Stimmung in der chinesischen Sonderverwaltungszone. Entsprechend weit gehen die Schätzungen von Initiator:innen sowie der Polizei gewöhnlich auseinander. Bei den jüngsten Massenprotesten setzte eine Gruppe von Wissenschaftler:innen erstmals ein System ein, das Videobilder, Künstliche Intelligenz (KI) sowie menschliches Überprüfen kombinierte, um eine genaue Zahl zu erhalten, berichtet K.K. Rebecca Lai, Redakteurin bei der New York Times. Teil des Experiments seien verschiedene Testläufe in den Wochen zuvor sowie unterschiedliche KI-Modelle gewesen, um ein akkurates Verfahren zu entwickeln, das sich beispielsweise nicht durch die von vielen Protestierenden mitgebrachten Regenschirme verwirren lässt. Das Resultat: Die Schätzung der KI lag – vielleicht wenig überraschend – zwischen denen der Behörden und Organisator:innen.


?Warum sich ein wenig mehr Aufwand lohnt, um Gesichtserkennung an Flughäfen aus dem Weg zu gehen

(I Opted Out of Facial Recognition at the Airport – It Wasn’t Easy), 2. Juli 2019, WIRED

Verschiedene US-amerikanische Fluggesellschaften setzen seit Kurzem in Zusammenarbeit mit der Grenzbehörde Customs and Boarder Protection (CBP) beim Boarding Gesichtserkennungstechnologie zur Identifizierung der Passagier:innen ein – dem zu entgehen, erfordert besondere Eigeninitiative, wie die Sicherheitsexpertin und Bürgerrechtlerin Allie Funk jüngst vor einem Flug erlebte. Formell bestehe (bislang) kein gesetzlicher Zwang zur Partizipation. Doch ein Hinweis darauf, dass man sich statt des Gesichtsscans auch per Reisepass ausweisen könne, habe es keinen gegeben. Und so landen die Gesichtsaufnahmen einer großen Mehrheit der Reisenden in den Datenbanken der Airlines und der CBP. Angesichts bekannter Schwächen der Technologie in Hinblick auf Fehleranfälligkeit, Diskriminierungspotenzial und Datensicherheit sei diese Praxis ein Problem, findet Funk. Ihr Appell an Reisende: Sie sollten sich genau überlegen, ob die kleine Zeitersparnis es Wert ist, sensitive biometrische Informationen preiszugeben.


?“Dumme” Daten erzeugen einen evidenzbasierten Rassismus

(Evidenzbasierter Rassismus – Algorithmen sind immer nur so schlau wie die Daten, auf denen sie beruhen), 6. Juli 2019, NZZ

Menschen neigen dazu, von der äußeren Erscheinung anderer Personen auf ihre gesellschaftliche Stellung, ihren Beruf, ihr Inneres zu schließen – was zu Diskriminierung und vielen Fehlschlüssen führen kann. Nun verfahren Maschinen nach einem ähnlichen Prinzip. Wieso glaubt irgendjemand, dass die Resultate nicht ähnlich negativ ausfallen würden? Dies fragt der Physiker und promovierte Philosoph Eduard Kaeser in diesem NZZ-Gastkommentar, in dem er grundsätzlich die Praxis der Vereinnahmung von Individuen durch ständiges Kategorisieren kritisiert; eine Praxis, die durch Künstliche Intelligenz neue Ausmaße annehme. Kaeser zitiert den französischen Philosophen Jean-Paul Sartre, für den Menschsein bedeutete, nie erschöpfend beschreibbar zu sein. Wer diese Beschreibbarkeit beanspruche, ja zu erzwingen suche, verletze die Menschenwürde, so der Autor. Um der “Sartreschen Hölle” zu entkommen, fordert Kaeser ein “Menschenrecht auf Nichterkanntsein”. Übrigens: Über einen verwandten Aspekt der ständigen Datenverarbeitung und Kategorisierung, nämlich Selbstzensur, schrieb Niklas Eder kürzlich bei uns im Blog.


?Wenn das Gesichtserkennungssystem nur Mann und Frau kennt

(Amazon’s Facial Analysis Program Is Building A Dystopic Future For Trans And Nonbinary People), 27. Juni 2019, Jezebel

Der Internetkonzern Amazon bietet mit Rekognition ein Gesichtserkennungssystem an, das auch von US- Behörden eingesetzt wird. Für transsexuelle Menschen und Personen mit einer nicht binären Geschlechtsidentität ist dies eine besorgniserregende Entwicklung, schreiben Anna Merlan und Dhruv Mehrotra, Reporter:innen bei der Mediengruppe G/O Media. Ihre Recherchen hätten gezeigt, dass Rekognition von einem binären Geschlechtersystem ausgeht. Mit anderen Worten: Der Algorithmus erkenne grundsätzlich entweder Mann oder Frau – selbst dann, wenn eine Person sich bewusst als weder noch einordnet. Bei transsexuellen Menschen wiederum liefere die Software deutlich ungenauere Ergebnisse als bei Personen, die sich mit ihrem biologischen Geschlecht identifizieren. Die Folgen könnten für die Betroffenen weitreichend sein, warnen die Autor:innen: “Was, wenn bei einer Polizeikontrolle das von einer Maschine angenommene Geschlecht nicht damit übereinstimmt, was die Polizist:innen sehen?”, fragen sie.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren