Frohes Neues Jahr! Passend zum Jahreswechsel beginnen wir mit einem Rückblick auf die Geschichte der KI-Entwicklung, um dann mit Melissa Heikkilä und Will Douglas Heaven einen Ausblick auf die Zukunft der Künstlichen Intelligenz zu wagen. Des Weiteren erfahren wir, wie sich die Mensch-Technik-Interaktion in der Praxis gestaltet und dass Chatbots nur vermeintlich vollautomatisiert sind. Wir schließen mit zwei Artikel zum Textgenerator ChatGPT, der in den vergangenen Wochen für Furore gesorgt hat. Französische Forscher:innen haben nun eine Art „Wasserzeichen“ vorgeschlagen, um KI-generierten Texte als solche identifizierbar zu machen.
Haben Sie schon Erfahrungen mit ChatGPT gemacht? Diskutieren Sie mit – über Twitter (@reframe_Tech) oder unseren Blog!
Viel Spaß beim Lesen wünschen
Teresa und Michael
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei Twitter unter @reframeTech.
Rückblick auf die Geschichte von KI
The Brief History of Artificial Intelligence: The World Has Changed Fast—What Might Be Next? Our World in Data, 6.12.2022
Jahreswechsel sind auch eine Zeit, in der wir zurückblicken. Max Roser, Forscher an der Oxford Universität, fasst in diesem Artikel knapp die Geschichte der KI-Entwicklung zusammen, seit den 1950er Jahren bis heute. Dabei macht er klar, dass die großen Sprünge in den letzten zehn bis 20 Jahren stattfanden: Während um 2010 Sprach- und Bilderkennungsmodelle noch kaum verlässliche Ergebnisse lieferten, sind sie inzwischen in standardisierten Tests teilweise präziser als Menschen. Auch die Bildgenerierung hat große Schritte gemacht: 2014 konnten die entsprechenden Modelle nur verpixelte menschliche Gesichter liefern, heute spucken Imagen oder DALL-E beliebige Bilder aus. Die Veränderungen macht Max Roser im Artikel mit informativen Grafiken und Zusammenstellungen deutlich.
Ausblick auf die Zukunft von KI
What’s next for AI, MIT Technology Review, 23.12.2022
Nach dem Blick in die Vergangenheit folgt der Blick in die Zukunft. Denn gerade zum Jahresanfang veröffentlichen Expert:innen Vorhersagen darüber, was im neuen Jahr alles passieren könnte. In diesem Artikel hat Journalistin Melissa Heikkilä, die im vergangenen Jahr etwa den Bias von Lensa AI aufgedeckt hatte, ihre Vermutungen zusammengestellt. Gemeinsam mit dem Journalisten und Computerwissenschaftler Will Douglas Heaven trifft sie vier Aussagen für 2023: Die Entwicklung von großen Sprachmodellen und ihren Anwendungen wie ChatGPT wird weitergehen, ohne dass das grundlegende Problem von Bias, also vorurteilsbehafteten Verzerrungen, gelöst wird. Regulierung wird eine immer größere Rolle spielen, sowohl mit Blick auf die KI-Verordnung der EU als auch auf Bestrebungen in den USA und China. KI-Forschung wird zunehmend von Open-Source-Modellen und Datensätzen geprägt sein, die nicht mehr von großen Tech-Unternehmen kontrolliert werden. Und schließlich sehen die Autor:innen große Veränderungen in der Pharmaindustrie am Horizont aufkommen, wenn KI-Systeme für die Entwicklung neuer Medikamente genutzt werden können.
So fühlt es sich an, das Backup eines Chatbots zu sein
Becoming a chatbot: my life as a real estate AI’s human backup, The Guardian, 13.12.2022
Chatbots können nicht immer alle Fragen beantworten, sondern verweisen bei komplexen Fragen manchmal an Menschen, die den Chat dann übernehmen können. Wie geht es solchen Menschen und wie sehen sie die Mensch-Computer-Interaktion? Laura Preston beschreibt in diesem Artikel ihre eigenen Erfahrungen als menschlicher Backup für den Immobilien-Chatbot Brenda. Dabei war der Chatbot nicht transparent: Er sollte stets wie ein echter Mensch wirken und auch wenn ein Mensch einspringen musste, sollten die Kund:innen nichts davon merken. Die Autorin zeigt, wie diese Anforderungen dazu geführt haben, dass sie langsam den Duktus des Chatbot übernommen hat. Wir bekommen aber auch einen detaillierten Einblick darin, wie stressig ein solcher Job ist oder wie genau bestimmt wird, wann ein Mensch das Gespräch übernimmt.
Chatbots können helfen, Alzheimer zu erkennen
Can the AI driving ChatGPT help to detect early signs of Alzheimer’s disease? EurekAlert!, 22.12.2022
Der Hype rund um ChatGPT und seine vielen Anwendungsmöglichkeiten hält weiter an. Forscher:innen haben in einer Studie nun untersucht, ob ChatGPT auch dazu genutzt werden kann, Alzheimer früh zu diagnostizieren. Die Grundidee: ChatGPT muss den sprachlichen Input von Menschen analysieren, um möglichst präzise Antworten liefern zu können. Schwierigkeiten bei der Aussprache oder der Formulierung von Sätzen sind dabei ein Symptom bei 60 bis 80 Prozent der Demenzpatient:innen. Um herauszufinden, ob das KI-System diese Veränderungen identifizieren kann, trainierten die Forscher:innen das zugrunde liegende Modell GPT-3 mit Gesprächsprotokollen aus ärztlichen Untersuchungen. Das Ergebnis: Mithilfe von ChatGPT konnten frühe Anzeichen von Demenz besser erkannt werden als durch andere übliche Methoden, die sich beispielsweise auf die Analyse von Sprachpausen und Stimmenstärke fokussieren. Nun könnte dieses KI-Modell als Webanwendung oder sprachgesteuerte App in Arztpraxen eingesetzt werden, um Ärzt:innen beim Alzheimer-Screening und der Frühdiagnose zu unterstützen.
The Ethical Need for Watermarks in Machine-Generated Language, Montreal Ethics, 27.11.2022
Mit entsprechenden Fragen gefüttert kann das erwähnte ChatGPT auch Texte generieren. Diese sind inzwischen so gut, dass sie teilweise auf den ersten Blick nicht mehr von menschlicher Sprache zu unterscheiden sind. Die Sorge ist etwa, dass Studierende nun ihre Hausarbeiten einfach von Chatbots schreiben lassen. New York City hat daher bereits reagiert und den Zugang zu ChatGPT auf den eigenen Netzwerken geblockt. Doch wie gut sind solche Vorschläge, wenn Studierende den Text einfach von eigenen Computern kopieren können und seine Herkunft nicht überprüfbar ist? In einer Studie schlagen zwei Forscher:innen aus Frankreich daher eine altbekannte Methode der Verifizierung vor: Eine Art „Wasserzeichen“ für KI-generierte Texte. Beim Equidistant Language Sequencing wird ein Wort oder Buchstabe in regelmäßigen Abständen im Text wiederholt, ohne den Lesefluss zu beeinträchtigen. So könnte ein Sprachmodell beispielsweise den Buchstaben „a“ alle 70 Zeichen wiederholen, um zu signalisieren, dass er maschinell erzeugt wurde. Solche Methoden hätten den Vorteil, dass sie im Vergleich zu textlichen Hinweisen nicht einfach entfernbar sind.
Follow-Empfehlung: Melissa Heikkilä
Journalistin beim MIT Technology Review, verfasst regelmäßig aktuelle und investigative Artikel zu KI.
Verlesenes: ChatGPT lebt wohl in einer anderen Realität
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben