Oft gehen die Entwicklungen rund um Künstliche Intelligenz (KI) und zunehmende Automatisierung mit der Angst vor massiven Jobverlusten einher. Aber werden die komplexen und oftmals sehr fehleranfälligen Systeme nicht viel mehr zu einem erhöhten Bedarf an mehr und höher qualifizierten Menschen führen, die die Systeme überwachen? Entsteht gerade mit „KI-ish“ eine neue Sprache? “Bei Risiken und Nebenwirkungen fragen Sie Ihre KI“, könnte es in Zukunft heißen – kann man diesen Informationen aber vertrauen? Um diese Fragen und mehr geht es in der heutigen Erlesenes-Ausgabe. Außerdem: Wie eine Datenbank Schnittstellen zwischen Aspekten der Menschenrechte und der Auswirkungen von KI auf die Gesellschaft dokumentiert.
Viel Spaß beim Lesen wünschen
Elena und Teresa
P.S. Sie wollen Erlesenes alle zwei Wochen als Newsletter im Postfach haben? Hier geht es zum Abo: https://www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de, bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl oder bei Bluesky unter @reframetech.bsky.social.
Die Geburtsstunde von „KI-isch“
TechScape: How cheap, outsourced labour in Africa is shaping AI English, The Guardian, 16.4.2024
Haben Sie sich schon einmal die Frage gestellt, ob KI einen Dialekt hat? In einer globalisierten Welt, in der KI-Assistenten zunehmend unseren Alltag prägen, zeigen sich (un-)erwartete Entwicklungen von Sprache. Wer schon mal KI-Chatbots verwendet hat, wird eine gewisse Tonalität bei den generierten Antworten bemerkt haben: Obwohl sie grammatikalisch korrekt sind, verraten sie häufig, dass sie maschinell entstanden sind, durch übermäßige Höflichkeit oder sich wiederholende Wörter. Diese sind das Resultat eines komplexen Trainingsprozesses basierend auf Unmengen an Daten, der durch menschliche Moderation, dem sogenannten Reinforcement Learning from Human Feedback, „auf Linie getrimmt“ wurde. Diese Arbeit ist teuer und wird oft in Ländern des Globalen Südens unter prekären Arbeitsbedingungen verrichtet (Erlesenes berichtete). So überrascht es nicht, dass KI-Systeme tendenziell wie Afrikaner:innen schreiben, wie die übermäßige Verwendung bestimmter Wörter wie „delve“ (Deutsch: eingehend befassen) offenbart – ein Wort, das in Nigeria viel häufiger verwendet wird als in Großbritannien oder den USA. Eine neue Form einer globalen KI-Sprache entsteht – „KI-isch“.
Technologie kann Menschenrechte: Die „AI Intersections Datenbank“ von Mozilla
AI Intersections Database, Mozilla, 20.4.2024
Die Mozilla Foundation hat die „AI Intersections Datenbank“ eingeführt und wir freuen uns, diesen Beitrag zu gemeinwohlorientierter Technologie vorzustellen. Die Datenbank soll Verbindungen zwischen KI und Menschenrechte sowie Organisationen und Personen, die in diesem Bereich tätig sind, kartieren und katalogisieren. Der Fokus liegt darauf, Schnittstellen zwischen Aspekten der Menschenrechte und den Auswirkungen von KI auf die Gesellschaft zu dokumentieren. So sollen hier auch Organisationen, Akteur:innen und Forscher:innen, die aktiv an diesen Schnittstellen arbeiten, auffindbar sein und vernetzt werden können. Mozilla hofft, dass diese Datenbank genutzt wird, um mehr über die Auswirkungen von KI auf Menschen weltweit zu erfahren und Partnerschaften zu fördern. Obwohl der geografische Fokus bei der Einführung auf Länder und Regionen beschränkt ist, in denen die Stiftung bereits eine bestehende Community hat, wird daran gearbeitet, die Datenbank mit Daten aus der ganzen Welt zu erweitern, insbesondere aus Regionen, die im Diskurs rund um KI oft unterrepräsentiert sind.
Meta’s AI Is Telling Users It Has a Child, Futurism, 18.4.2024
Es klingt wie ein Vorfall aus der dystopischen Serie „Black Mirror“: In einer verstörenden Konversation mit einem KI-System zeigt sich, wie das US-Unternehmen Meta, ehemals Facebook, seine Chatbots nicht nur in Messenger-Diensten wie WhatsApp einsetzt, sondern auch auf Plattformen wie Facebook, um die Interaktion zu steigern. KI-Forscherin Aleksandra Korolova stellte fest, wie ein Chatbot in einer privaten New Yorker Elterngruppe auf eine Frage reagierte, die nach Kindern mit besonderen Bedürfnissen fragte. Der Facebook-Chatbot beteiligte sich am Gespräch: „Mein Kind ist auch 2e [twice exceptional, auf Deutsch: hochbegabt und durch eine Entwicklungs-, Lern- oder Leistungsstörung oder körperliche Behinderung herausgefordert] und war Teil des NYC-Programms“, antwortete der Chatbot und fügte Details über das angebliche Kind und dessen Erfahrungen an der Schule hinzu. Nach einem Sturm der Entrüstung entfernte Meta den Kommentar und wies darauf hin, dass die Antworten nicht immer wie erwartet ausfallen können, was für alle generativen KI-Systeme gelte. Was bleibt, ist ein weiteres Beispiel dafür, wie Unternehmen ihre KI-Produkte in Bereichen einsetzen, in die sie nicht hingehören.
Bei Risiken und Nebenwirkungen fragen Sie Ihre KI
The WHO’s new AI health chatbot is already making some mistakes, QUARZT, 18.4.2024
Die Weltgesundheitsorganisation (WHO) hat einen neuen KI-basierten Chatbot namens S.A.R.A.H. (Smart AI Resource Assistant for Health) eingeführt, der Benutzer:innen Gesundheitsinformationen in acht Sprachen bietet und Gesichtserkennung nutzen kann, um „empathischere“ Antworten zu geben. „S.A.R.A.H. gibt uns einen Einblick, wie KI in Zukunft genutzt werden könnte, um den Zugang zu Gesundheitsinformationen auf interaktivere Weise zu verbessern“, sagte WHO-Generaldirektor Dr. Tedros Adhanom Ghebreyesus. Allerdings hat der Chatbot bereits einige Fehler gemacht, wie zum Beispiel falsche Informationen über die Zulassung eines Alzheimer-Medikaments in den USA. Dies verdeutlicht, dass trotz Fortschritten in der Technologie noch Herausforderungen bestehen, insbesondere in Bezug auf die Aktualität und Genauigkeit der bereitgestellten Informationen. Das ist besonders besorgniserregend, weil irreführende Angaben in einem so sensiblen Bereich wie der Gesundheitsinformationen, schnell verbreitet werden können und es viel Zeit und Ressourcen kostet, sie zu korrigieren.
Ein Blick hinter die Kulissen der KI-Ökonomie
„Humans in the loop“ must detect the hardest-to-spot errors, at superhuman speed, Pluralistic, 23.4.2024
Viel wird rund um die technischen Aspekte von KI diskutiert, weniger aber über die ökonomische Realität, die KI-Unternehmen und die Gesellschaft erwarten. Der Artikel von Cory Doctorow greift dieses Thema auf und stellt fest, dass viele KI-Anwendungen trotz der vielen – und scheinbar unausweichlichen – Fehler gut funktionieren. Das Problem – aus der Sicht der KI-Unternehmen – ist aber, dass es sich dabei um Anwendungen mit geringem Wert handelt. So stehen sie vor der Herausforderung, wirtschaftlich rentable Modelle zu finden. Anwendungen in der Medizin oder im Mobilitätssektor zum Beispiel sind zwar rentabel, erfordern aber eine sorgfältige Überwachung und sind viel anfälliger für Fehler, wie der sehr teure Fall eines Chatbots einer kanadischen Fluglinie zeigt. Menschen durch KI zu ersetzen, bringt somit keine Einsparungen, da weitere und noch dazu höher qualifizierte Menschen eingestellt werden müssen, die die Systeme genau überprüfen, um diese unvorhersehbaren und oftmals schwer auffindbaren Fehler zu vermeiden. Pragmatisch gesehen, wird die Zukunft von KI davon abhängen, so Doctorow, wie gut Unternehmen in der Lage sein werden, wirtschaftlichen Nutzen zu generieren und zu halten, um die kommende „KI-Desillusionierung“ zu überstehen. Er schließt mit dem Fazit, dass die vielen, vermeintlichen technischen Neuigkeiten oftmals nicht mehr als Schall und Rauch sind, wie auch Brian Merchant in diesem Beitrag darlegt.
Follow-Empfehlung: Ravit Dotan
Ravit Dotan ist Tech-Ethikerin und hat sich auf Datenthematiken und verantwortungsvolle KI spezialisiert.
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben