*Der Artikel wurde zuerst im change-Magazin der Bertelsmann Stiftung veröffentlicht.*

Vor knapp zwei Jahren brach der Hype um ChatGPT los – eine Anwendung, die bereits vor über 50 Jahren in Form des Chatbots ELIZA des Computer-Pioniers Joseph Weizenbaum auf einer ähnlichen Logik basierte. Doch während Weizenbaum ELIZA schnell wieder einstellte, sind generative KI-Systeme, die Texte, Bilder oder andere Inhalte automatisch generieren, heute nicht mehr wegzudenken und stehen im Zentrum von Diskussionen über die Zukunft der Arbeit, Wirtschaft und Gesellschaft.

Täglich gibt es neue Berichte: Wirtschaftswissenschaftler:innen schwärmen von gesteigerter Produktivität und Kreativität, die Aktienkurse der beteiligten Firmen schießen in schwindelerregende Höhen. Chatbots wie ChatGPT oder Copilot und Bildgeneratoren wie Dall-E scheinen überall zu sein – im Arbeitsleben, in privaten Gesprächen und in den Medien. Die öffentliche Debatte lässt uns fast glauben, all unsere Probleme seien bald gelöst: von der Klimakrise bis hin zu Krebsbehandlungen. Dabei sind es nicht selten Tech-Unternehmer:innen selbst, wie Sam Altman, CEO von OpenAI, die solche Hoffnungen schüren, während sie gleichzeitig vor apokalyptischen Szenarien warnen – Altman sprach gar vom Aussterben der Menschheit durch KI. Obwohl scheinbar gegenläufige – also utopische oder dystopische – Betrachtungsweisen, dienen sie dem gleichen Zweck: Sie fachen den Hype an.

Wem nützt die Aufregung?

Zeit also, einen Blick hinter diesen Hype zu werfen und sich zu fragen: Cui bono? Wem nützt die ganze Aufregung? Dabei stößt man auf altbekannte Muster: Es sind vor allem die großen Tech-Unternehmen, die vom Hype profitieren. Der Mechanismus dahinter ist nicht neu: ein Produkt wie ChatGPT wird auf den Markt geworfen, häufig ohne ausreichende Sicherheitsvorkehrungen, dann wird das Produkt durch gezielte Marketingstrategien zu einer Art Wundermittel für alle möglichen Probleme stilisiert – vom automatisierten Kund:innenservice über kreatives Schreiben bis hin zum Coden. Doch dann muss sich das Produkt in der Realität behaupten, und es treten Probleme auf wie Desinformation, rassistische Ratschläge oder andere völlig unsinnige Antworten. „Move fast and break things“ – „Erst handeln, dann denken“ beschreibt dieses Vorgehen ganz treffend. Anstatt sichere Produkte zu entwickeln, geht es darum, schnell auf dem Markt zu sein, unsere Aufmerksamkeit dafür zu maximieren und die potenziellen Risiken gegebenenfalls im Nachgang zu adressieren.

Aufmerksamkeit als Geschäftsmodell

Das Geschäftsmodell der Unternehmen, die diese Technologien entwickeln, ist bislang noch nicht rentabel. Deswegen sind sie auf den Hype angewiesen – unsere Aufmerksamkeit und unsere Daten sind derzeit ihr Geschäftsmodell. Denn die Technologien, so beeindruckend sie auch sind, verbrauchen riesige Mengen an Ressourcen und Energie. Diese Kosten müssen sich rentieren, und das gelingt oft nur durch diese massive Aufmerksamkeit, die den Investor:innen das erhoffte Geld einbringen soll. Doch auch die Investor:innen werden bei übersteigerten Versprechen des Allheilmittels KI skeptisch: Der Börsenwert von Nvidia, de größte Hersteller von KI-Chips, bricht Anfang September um 279 Milliarden Dollar ein. Ebenso erleben die Werte anderer Tech-Unternehmen, die stark in KI investiert haben, einige Talfahrten. Und auch eine aktuelle Studie kommt zu dem Schluss, dass sich die Produktivitätsversprechen derzeit nicht bewahrheiten.

Technikgläubigkeit verschleiert die Realität

Gleichzeitig fördert der Hype eine fast schon religiöse Technologiegläubigkeit. Diese übersteigerten Erwartungen verhindern eine kritische Auseinandersetzung mit den tatsächlichen Fähigkeiten der Technologie. Wir beginnen, den Anwendungen blind zu vertrauen, ohne zu hinterfragen, was sie wirklich leisten können. Sprachmodelle wie ChatGPT beeindrucken zwar durch ihre Fähigkeit, menschliche Sprache und Kommunikation zu simulieren, doch im Kern beruhen sie auf der Vorhersage von Wörtern auf Basis statistischer Wahrscheinlichkeiten. Das führt dazu, dass – neben nützlichen Antworten – auch viel Unsinn produziert wird. Die Technologie ist also alles andere als unfehlbar, ihre Möglichkeiten werden aber durch den Hype oft stark überhöht.

 

Doch wie genau funktionieren diese Modelle, worauf basieren sie und was passiert im Hintergrund, bevor sie uns Ergebnisse liefern? Unsere Wissensseite zu KI-Basismodellen gibt Antworten.

Es braucht einen Hype um gemeinwohlorientierte Technologie

Was sollten wir stattdessen hypen? Die Antwort: Wir brauchen mehr Technologie, die dem Gemeinwohl dient. Anstelle von blindem Fortschrittsglauben, überzogenen Erwartungen und Machtkonzentrationen bei einigen großen Playern sollten wir uns auf die eigentlichen Probleme konzentrieren und dann prüfen, ob technologische Lösungen tatsächlich zur Lösung beitragen können. Der Mensch und seine Bedürfnisse sowie der Schutz der Natur und Umwelt müssen im Mittelpunkt stehen, nicht die Technologie an sich und der Profit.

Am Ende lohnt sich ein Blick zurück zu ELIZA. Weizenbaum stellte das Experiment deswegen so schnell wieder ein, da ihn die Leichtgläubigkeit der Menschen besorgte, die ELIZA ihre privatesten Geheimnisse anvertrauten und den Bot als menschlich-intelligent wahrnahmen. Anwendungen wie ChatGPT dagegen sind gekommen, um zu bleiben – das lässt sich nicht leugnen. Wie wir jedoch mit den Erwartungen an diese Technologien umgehen, liegt in unserer Hand. Es ist entscheidend, dass wir die Möglichkeiten nüchtern betrachten und nicht zu Wegbereiter:innen für immer größere Profite ein paar weniger Unternehmen werden. Stattdessen sollten wir Technologien einfordern, die dem Gemeinwohl dienen und dabei helfen, gesellschaftliche Probleme anzugehen. Dann sind Tools wie ChatGPT am Ende des Tages eines: nützliche Alltagshelfer, nicht aber Allheilmittel-Tools.

Weitere Informationen zu Sprachmodellen und Co.

Unsere Wissensseite zu KI-Basismodellen, die die Grundlage für Anwendungen wie ChatGPT bilden, bietet eine Übersicht über die Funktionsweise, die verschiedenen Modell-Arten und die Mechanismen im Hintergrund, die diese Technologie erst ermöglichen, wie Ressourcenverbrauch, Trainingsdaten und die unsichtbare menschliche Arbeit hinter der Automatisierung.

 

Bleiben Sie informiert!

Für kontinuierliche Updates und inhaltlichen Austausch zu diesem Thema folgen Sie unserem LinkedIn-Kanal oder kontaktieren Sie mich gerne unter teresa.staiger@bertelsmann-stiftung.de.


 

Dieser Text ist lizenziert unter einer  Creative Commons Namensnennung 4.0 International Lizenz.