Derzeit wird auf EU-Ebene darüber diskutiert, ob automatisierte Gesichterkennung in der KI-Verordnung verboten werden soll. Passend dazu gibt es in dieser neuen Erlesenes-Ausgabe gleich zwei Beiträge dazu: Zum einen wird anhand eines Beispiels aus den USA gezeigt, wie die Technik bei der Onlineidentitätsverifizierung (nicht) eingesetzt wird. Zum anderen verdeutlicht das Beispiel aus Russland die Gefahren eines solchen Technologieeinsatzes in Autokratien: US-amerikanische Gesichtserkennungssoftware wird dort genutzt, um Menschen zu identifizieren und präventiv zu verhaften – nur weil sie potenziell gegen das Regime protestieren könnten. Des Weiteren darf natürlich auch ein Beitrag von Emily Bender über den offenen Brief von Elon Musk und Co. nicht fehlen.
Viel Spaß beim Lesen wünschen
Teresa und Michael
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.
Offener Brief von Musk und Co. reproduziert KI-Hype
Policy makers: Please don’t fall for the distractions of #AIhype, Twitter, 29.3.2023
Vor Ostern veröffentlichte das Future of Life Institute einen offenen Brief, der breite Aufmerksamkeit erregte. Zentrale Forderung des Briefs ist ein Stopp bei der Entwicklung großer Sprachmodelle von mindestens sechs Monaten, um gemeinsame „Sicherheitsregeln“ für KI-Design zu entwickeln. Unterschrieben wurde der Brief von über 1000 Personen, darunter Steve Wozniak und Elon Musk. Das machte Computerlinguistin Emily Bender stutzig und so nimmt sie in diesem Blogpost (und in einem gleichlautenden Twitterthread) die Inhalte und das Framing des Briefs auseinander. Sie bewertet etwa die Forderungen nach transparenten, genauen und nachvollziehbaren KI-Anwendungen positiv. Gleichzeitig stellt sie heraus, wie der Brief durch Formulierungen und Framing KI-Systemen übermenschliche Eigenschaften zuschreibt – und wie ein zentrales Problem in dem Brief vernachlässigt wird: Es gehe nicht (nur) um KI-Systeme, sondern um die Regulierung von Unternehmen und Regierungen, die KI-Systeme nutzen, um Macht auszuüben.
Hier wurde Gesichtserkennung vorgeschrieben
A US Agency Rejected Face Recognition—and Landed in Big Trouble, WIRED, 22.3.2023
Die zentrale Plattform, bei der US-Bürger:innen online ihre Identität verifizieren, um öffentliche Dienste zu erreichen, entschied sich bewusst gegen automatisierte Gesichtserkennung. Diese hätte über eine Kamera aufgenommene Fotos des Gesichts mit biometrischen Bildern von Ausweisen verglichen. Das Team hinter Login.gov sah ein großes Risiko darin, dass es hierbei zu diskriminierenden Auswirkungen kommen könne. Das ist nicht ganz unbegründet, schließlich gab es zuvor bereits ähnliche Probleme bei anderen Systemen. Soweit, so verantwortungsvoll. Ein Anfang März veröffentlichter Bericht der entsprechenden Aufsichtsbehörde meldete jedoch Beschwerde an: Login.gov breche bestehende Standards, indem es sich weigere, KI-Gesichtserkennung einzusetzen. Diese sei bei Verifikation online vorgeschrieben, um Identitätsdiebstahl zu vermeiden – alternative Methoden seien bisher nicht erlaubt. Journalist Khari Johnson beschreibt, welche Diskussion dieser Fall ausgelöst hat. Die nationale Standardisierungsbehörde NIST (National Institute of Standards and Technology) überarbeitet inzwischen den betreffenden Standard, um auch andere Verifikationsverfahren zu ermöglichen.
So können wir messen, ob ChatGPT wirklich „gut“ ist
Language Models are Changing AI: The Need for Holistic Evaluation, Stanford University, 17.11.2022
Große Sprachmodelle und ihre Fähigkeiten werden sehr unterschiedlich bewertet. Manche behaupten, solche Systeme würden Anzeichen allgemeiner Intelligenz zeigen, während andere den Output als teilweise sinnlos oder gefährlich bewerten. Da stellte sich für Forscher:innen der Stanford University die Frage, wie eigentlich die Leistungsfähigkeit von Sprachmodellen bewertet und verglichen werden kann – abseits des Hypes und mit klaren Benchmarks, also Maßstäben für den Vergleich von Leistungen. Im Projekt HELM (Holistic Evaluation of Language Models) entwickelten sie daher einen gleichnamigen Ansatz, der auch sehr unterschiedliche Sprachmodelle bewertbar und vergleichbar macht. Dieser besteht aus definierten Anwendungsfällen, in welchen die Modelle anhand einheitlicher Metriken bewertet werden. Dabei können Anwendungsfälle ausgewählt werden, die für das jeweilige Modell passend sind. Das erlaubt es, neben etwa Genauigkeit auch Robustheit oder BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht., also Verzerrungen, zu erfassen. Mit diesem holistischen Ansatz wollen die Forscher:innen zur Transparenz von Sprachmodellen beitragen.
Interdisziplinäre Zusammenarbeit kann Burnout im Gesundheitssektor verringern
Artificial Intelligence And Its Potential To Combat Physician Burnout, Forbes, 12.4.2023
Hohe Arbeitsbelastungen sind im medizinischen Kontext leider nicht unüblich und auch Burnout ist ein zunehmendes Krankheitsbild bei Ärzt:innen und Pfleger:innen. Insbesondere während der Coronapandemie nahm dieses Problem zu. Radiologe Omer Awan beschreibt in diesem Artikel, dass bei diesen Berufsgruppen zudem die rein administrativen Aufgaben fast die Hälfte ihrer Arbeitszeit füllen. Hier sieht er Potenzial, dass KI-Anwendungen dabei helfen können, Arbeitsabläufe zu entlasten. Er beschreibt beispielsweise die KI-Anwendung „Regard“, die Ärtz:innen bei der Diagnose nutzen können, um Entwürfe für Arztberichte zu erstellen. In einem Test am Torrance Memorial Medical Center habe diese Anwendung dabei geholfen, Fälle von Burnout zu reduzieren. Das System funktioniere dabei auch deshalb besonders gut, weil für seine Programmierung Entwickler:innen mit medizinischem Fachpersonal zusammengearbeitet haben.
Importierte Gesichtserkennung sorgt für präventive Verhaftungen in Russland
Facial recognition is helping Putin curb dissent with the aid of U.S. tech, Reuters, 28.3.2023
Seit 2017 setzt Moskau stadtweit automatisierte Gesichtserkennung ein. Nun untersuchte die Reuters-Journalistin Lena Masri gemeinsam mit der russischen Menschenrechtsorganisation OVD-info über 2000 Gerichtsprozesse, um die Auswirkungen dieser Technologie zu erfassen. Dabei zeigt sich, dass Gesichtserkennung vor allem im Jahr 2021 zu Verhaftungen führte, etwa um Menschen nach ihrer Teilnahme an Protesten zu identifizieren. Seit dem Beginn des vollumfänglichen Angriffs Russlands auf die Ukraine wird dieses automatische KI-System aber zunehmend dafür eingesetzt, potenzielle Protestierende im Voraus zu identifizieren. Sie werden verhaftet mit der Begründung, sie hätten in Sozialen Medien angekündigt, an einer Protestaktion teilnehmen zu wollen. Einige der Komponenten der Gesichtserkennung wurden dabei aus den USA importiert oder entstanden in Kooperation mit US-Unternehmen und Behörden. In diesem Artikel liefern die Autor:innen einen Überblick über Gesichtserkennung in Russland, beschreiben ihre Auswirkungen auf die Freiheit und erzählen die Geschichten einiger Betroffener.
Follow-Empfehlung: Emily Bender
Emily Bender ist Professorin für Computerlinguistik an der University of Washington. Sie setzt sich auf Twitter und Mastodon mit dem AI Hype – v. a. um große Sprachmodelle – kritisch auseinander.
Verlesenes: AI Made in Germany
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben