Der Herbst ist da und mit ihm auch die neueste Ausgabe unserer Lektüreempfehlungen. Während „Erlesenes“ aus der Sommerpause zurückkehrt, haben die Entwicklungen rund um Künstliche Intelligenz (KI) scheinbar keine Ruhepause eingelegt: Von Deepfakes, also KI-generierten Fälschungen, über den Einsatz von KI im Gesundheitsbereich bis hin zur Kommunalpolitik – es gibt viel zu berichten.

In dieser Ausgabe widmen wir uns unter anderem der Frage, wie KI-Tools für Barrierefreiheit eingesetzt werden können und ob sie Türen öffnen, die bisher verschlossen waren. Wir werfen einen Blick auf die Auswirkungen KI-generierter Übersetzungen auf die Literatur und fragen uns, ob das menschliche Feingefühl für Sprachen und Kontexte verloren geht. Und was bedeutet die digitale Kluft zwischen dem Globalen Norden und Süden für die Erkennung von Deepfakes? Außerdem: ein Interview über KI, Daten und Verantwortung.

Viel Spaß beim Lesen wünschen

Elena und Teresa 

P.S. Sie wollen Erlesenes alle zwei Wochen als Newsletter im Postfach haben? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de, bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl oder bei Bluesky unter @reframetech.bsky.social.


KI: Ein Gamechanger für die Barrierefreiheit?

AI could be a game changer for people with disabilities, MIT Technology Review, 23.8.2024

In diesem Artikel geht es darum, wie KI-Systeme Menschen mit Behinderungen dabei helfen, Barrieren zu überwinden. Egal ob automatische Videountertitel und Bildbeschreibungen, Spracheingaben oder die Unterstützung bei körperlichen Einschränkungen durch Roboter – KI-basierte Software kann Menschen dabei helfen, Dinge zu tun, von denen sie sonst ausgeschlossen wären. Für blinde Menschen war es beispielweise oft ziemlich aufwendig, sich durch eine Vielzahl von nicht barrierefreien Webseiten zu navigieren. KI-Tools wie etwa Chatbots helfen hier, indem sie alle wichtigen Infos an einem Ort sammeln und zusammenfassen. Auch im Bereich Mobilität könnten autonome Fahrzeuge es den Nutzer:innen ermöglichen, selbstbestimmter unterwegs zu sein. Natürlich gibt es auch Bedenken: Der Autor des Artikels weist – wie auch wir regelmäßig – darauf hin, dass Fehler und Vorurteile in den Daten Risiken sind, die nicht ignoriert werden dürfen. Wenn KI-Systeme jedoch richtig umgesetzt werden, zeigen die im Text genannten Beispiele, wie sie Türen öffnen, die bisher verschlossen waren.


Von Maschinentinte und menschlichem Feingefühl

KI kann keine Literatur: Der Wert menschlicher Übersetzung, Netzpolitik.org, 1.9.2024

KI kann uns im Alltag auf vielfältige Weise praktisch unterstützen. Bei literarischen Werken stoßen wir jedoch schnell an Grenzen. Janine Malz, eine erfahrene Literaturübersetzerin, zeigt in diesem Artikel auf, welche Probleme KI-generierte Übersetzungen mit sich bringen. Kürzlich erhielt sie ein Angebot von einem großen Verlag, der sie nicht für eine klassische Übersetzung, sondern für das „Post-Editing“ (auf Deutsch: „Nachbearbeitung“) einer KI-Übersetzung anfragte – und das zu einem deutlich niedrigeren Honorar als üblich. Übersetzen ist allerdings weit mehr als nur das Übertragen von Wörtern. Das mag Leser:innen unseres Newsletters wenig überraschen, steht aber offenbar für manche noch zur Debatte:  Übersetzen umfasst Recherche, kulturelle Sensibilität und oft auch eine enge Zusammenarbeit mit den Autor:innen. Zudem entgehen Übersetzer:innen bei KI-generierten Texten die Urheberrechte und die damit verbundene Einnahmen. Solche Praktiken gefährden nicht nur die Qualität der Übersetzungen und den Lebensunterhalt der Übersetzer:innen, sondern auch die Literatur als menschliche Ausdrucksform. Die Autorin hat die Anfrage abgelehnt und öffentlich gemacht. Ihr Standpunkt: „Mehr Sprachgefühl statt Sprachberechnung“.


Bad Practice

Künstliche Intelligenz im Arztkittel?

The testing of AI in medicine is a mess. Here’s how it should be done, Nature, 21.8.2024

KI-Systeme werden zunehmend als Lebensretter in der Medizin gesehen. Dies zeigt das Beispiel des Assistenzarztes Devin Singh. Nach einem tragischen Erlebnis in der Notaufnahme wollte er herausfinden, ob KI helfen kann, Wartezeiten zu verkürzen und damit Leben zu retten. Obwohl eine Studie vielversprechende Ergebnisse lieferte – die Wartezeit pro Patient:in wurde etwa um fast drei Stunden reduziert –, gibt es eine Reihe an Herausforderungen:  Die Prüfung und Zulassung der Systeme wird etwa derzeit noch nicht verlässlich geregelt, sodass auch fehlerhafte eingesetzt werden. Ein weiteres Problem ist, dass KI-Systeme oft nur mit wenigen Daten getestet werden. Die Ergebnisse klinischer Studien lassen sich daher nur schwer auf andere Bevölkerungsgruppen übertragen. In einigen Ländern versuchen die Behörden deswegen, strengere Anforderungen an KI-Systeme zu stellen. Selbst wenn sie technisch gut funktionieren, hängt viel von der Bereitschaft der Ärzt:innen ab, die Empfehlungen kritisch zu hinterfragen oder umzusetzen. In Krankenhäusern, die diese Systeme bereits einsetzen, hat man beispielsweise eine „Warnmüdigkeit“ festgestellt. Auch die Frage der Einwilligung der Patient:innen wird ebenfalls immer wichtiger. Das alles wirft neue rechtliche und ethische Aspekte auf, die noch geklärt werden müssen.  Entscheidend wird sein, dass diese Technologien tatsächlich den Patient:innen zugutekommen und nicht nur wirtschaftlichen Interessen dienen.


Bad Practice

Digitale Kluft: Deep Fakes im Globalen Süden

AI-Fakes Detection Is Failing Voters in the Global South, WIRED, 2.9.2024

Stellen Sie sich vor, Sie scrollen auf Ihrem Handy und sehen ein Bild von einer bekannten Politikerin oder einem bekannten Politiker, die:der plötzlich eine völlig unerwartete politische Meinung vertritt. Sie sind irritiert: Ist das echt? Im digitalen Zeitalter verschwimmen zunehmend die Grenzen zwischen Realität und Fiktion. Nehmen wir zum Beispiel die US-Präsidentschaftswahlen: Der ehemalige Präsident Donald Trump postete eine Reihe von Fotos, auf denen Fans des Popstars Taylor Swift zu sehen waren, die seine Kandidatur zu unterstützen schienen. Mit speziellen Tools konnten die Bilder schnell als manipuliert identifiziert werden. In vielen Teilen der Welt stellt dies jedoch eine große Herausforderung dar. Vor allem im Globalen Süden ist die Erkennung von Deep Fakes ein echtes Problem. Die Erkennungstools werden oft mit Daten aus dem Westen trainiert – vor allem mit englischsprachigen Texten und weißen Gesichtern (Erlesenes berichtete). Das Hauptproblem ist, dass es oftmals nicht genügend lokale, qualitativ hochwertige Daten gibt, um diese Systeme zu trainieren. Außerdem sind die Tools oft zu ungenau oder zu teuer. Es ist wichtig, mehr Unterstützung und neue Ansätze zu finden, um auch im Globalen Süden robuste Informationsökosysteme aufzubauen.


KI, Daten und Verantwortung: Ein Gespräch mit Jonathan Frankle

Rejecting Dogmas Around AI, User Privacy, and Tech Policy, The Markup, 17.8.2024

KI ist in unserem Alltag angekommen, wie auch die Artikel in unserer heutigen Ausgabe zeigen. Sie beeinflusst, wie wir Informationen erhalten und wie unsere Geräte funktionieren. Das wirft aber auch Fragen auf: Wie wird mit unseren Daten umgegangen? Welche ethischen Richtlinien brauchen wir? Und was kann die Politik tun? In einem aktuellen Interview spricht der KI-Wissenschaftler Jonathan Frankle über diese Herausforderungen. Frankle betont: „Die Daten der Nutzer[:innen; Anm. d. Red.] sind heilig“ und sollten nur mit ausdrücklicher Genehmigung und klaren Regeln verwendet werden. Ein weiteres Thema ist die zunehmende Integration von KI-Modellen, wie ChatGPT, auf persönlichen Endgeräten. Dies könne zwar den Schutz der Privatsphäre verbessern, aber auch hier müssten Datenschutz, Benutzerfreundlichkeit und technische Möglichkeiten gegeneinander abgewogen werden: Nicht jeder habe etwa Zugang zu einem unbegrenzten Datenvolumen. Frankle diskutiert auch die Bedeutung einer datenbasierten Politikgestaltung, wie sie beispielsweise von der OECD verfolgt wird. Für alle, die sich politisch engagieren wollen, hat er einen praktischen Tipp: Engagiert euch in der Kommunalpolitik. Viele relevante Themen, wie zum Beispiel der Einsatz von Gesichtserkennung, würden auf kommunaler Ebene entschieden. Hier könne man Einfluss nehmen und sich Gehör verschaffen.


Follow-Empfehlung: Karin Tafur

Expertin für KI-Governance sowie rechtliche und ethische Fragen rund um KI


Verlesenes: AI-Tracker-Tracker


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.