Immer wieder begegnet man Erzählungen und Überschriften, die vor der Gefahr des „Aussterbens der Menschheit“ durch Künstliche Intelligenz (KI) warnen. Diese Szenarien werden zum Teil von einflussreichen „Tech-Pionieren“ der Effektiven Altruismus- und Longtermismus-Bewegung propagiert. Doch was steckt dahinter und welche Kritik daran gibt es?

Die Diskussionen über Künstliche Intelligenz (KI) fokussieren sich zunehmend auf sogenannte superintelligente KI-Systeme, auch bekannt als Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI). Es wird befürchtet, dass AGI unvorhersehbar handeln und die Menschheit gefährden könnte. Diese Szenarien werden von prominenten Figuren aus Silicon Valley – dazu zählt auch Elon Musk – verbreitet, die durch ihre Ressourcen Zugang zu internationalen politischen Foren haben und Entscheidungsprozesse beeinflussen. Viele von ihnen stehen den Denkschulen des Effektiven Altruismus und Longtermismus und zum Teil sogar noch extremeren ideologischen Konzepten nahe.

Effektiver Altruismus und Longtermismus

Der Effektive Altruismus (EA), seit 2010 eine etablierte soziale Bewegung, zielt darauf ab, mit vorhandenen Ressourcen den größtmöglichen positiven Einfluss zu erzielen. Entscheidungen sollen dabei nicht nach emotionalen Kriterien, sondern durch klare Analyse und Priorisierung getroffen werden, um den größten Nutzen zu schaffen. Anstatt eine Spende in ein lokales Projekt zu investieren, das eine kleine Anzahl von Kindern mit Freizeitangeboten unterstützt, könnte man das Geld für Maßnahmen verwenden, die in ärmeren Regionen Zugang zu sauberem Trinkwasser schaffen. Damit würde man laut EA deutlich mehr Menschen in Not erreichen und somit einen größeren Gesamtnutzen schaffen. Bekannte Vertreter sind die Philosophen Peter Singer und William McAskill.

Der Longtermismus ist eine spezifische Ausprägung des Effektiven Altruismus. Vertreter:innen fokussieren sich auf die langfristige Zukunft und betonen die Notwendigkeit, Risiken zu minimieren, die das Überleben der Menschheit über Millionen oder Milliarden von Jahren bedrohen. Dabei geht es nicht um aktuelle Krisen wie Klimawandel oder Hunger, sondern um potenzielle Gefahren, die mit einer zukünftigen Bevölkerung von bis zu 10³⁶ Menschen verbunden sind, die einen besseren Lebensstandard als die Reichsten heute haben sollen. Gegenwärtige Probleme, die im Vergleich dann weit weniger Menschen betreffen, werden als weniger dringlich betrachtet. Wichtige Vertreter sind William McAskill, Toby Ord, Nick Bostrom und Eliezer Yudkowsky, unterstützt von Persönlichkeiten wie Elon Musk und Sam Bankman-Fried.

Ablenken durch hypothetische Bedrohungen

Die Hauptkritik an den beiden Denkschulen und insbesondere am Longtermismus ist, dass es häufig als Ablenkung von den bereits bestehenden Risiken, mit denen wir uns jetzt als Menschheit beschäftigen müssen, dient. So auch bei den Risiken der Künstlichen Intelligenz. In diesem Kontext gehen die Risiken oft auf die Entwicklung und den Einsatz von KI zurück, hinter denen in erster Linie ressourcenstarke Techunternehmen stehen, die eine Tendenz zur Monopolisierung aufweisen. Indem die Aufmerksamkeit und die Ängste auf dystopische Szenarien in der Zukunft gelenkt werden, verschleiern Techunternehmen die unmittelbaren und konkreten Gefahren, die mit der aktuellen Nutzung von KI verbunden sind. Dies umfasst etwa die potenziellen Auswirkungen auf den Arbeitsmarkt, die Privatsphäre, die Machtkonzentration sowie die Verstärkung sozialer Ungleichheiten durch Verzerrungen in den Daten und Systemen. Statt die bestehenden Herausforderungen anzugehen, wird die öffentliche Diskussion auf hypothetische, fernere dystopische Bedrohungen verschoben, wodurch die verantwortlichen Akteur:innen von den dringenden Problemen der Gegenwart ablenken können.

Das TESCREAL- Akronym

Dass sich ein weiterer kritischer Blick auf die ehrgeizigen Projekte in Silicon Valley lohnt, zeigen Dr. Emilé P. Torres und Dr. Timnit Gebru in ihrem Bestreben, auf Missstände in der Technologieentwicklung hinzuweisen. Sie haben sich die sich überschneidenden Ideologien genauer angesehen und sie unter dem Akronym TESCREAL zusammengefasst. Transhumanismus (T) und Longtermismus (L) sind dabei Brücken zu weiteren Konzepten wie Extropianismus (E), Singularität (S), Kosmismus (C), Rationalismus (R) und Effektivem Altruismus (EA). Der Transhumanismus strebt an, die Menschheit durch Technologie auf die nächste Evolutionsstufe zu bringen. Dies soll geschehen, indem Menschen ihre physischen und geistigen Einschränkungen überwinden (Extropianismus). Die Singularität beschreibt die Vorstellung einer KI, die die menschliche Intelligenz übertrifft und unvorhersehbare Veränderungen herbeiführen könnte. Der Kosmismus dreht sich um die Besiedlung des Weltraums und die Schaffung einer interplanetaren Zivilisation, in der 10³⁶ Menschen leben sollen. Rationalismus und Effektiver Altruismus fungieren dabei als Instrumente, um diese Visionen zu erreichen.

Die dunkle Seite der Utopien

Einige dieser Ideen münden in ambitionierten Projekten, die weit über das Vorstellbare hinausgehen: von der Entwicklung  Künstlicher Intelligenz, die den menschlichen Intellekt weit übertrifft, über die Digitalisierung des menschlichen Bewusstseins – mit dem Ziel, es unabhängig vom biologischen Körper weiterleben zu lassen – bis hin zur Kolonisierung anderer Planeten, um die Menschheit vor globalen Katastrophen zu schützen.

Sie folgen einer Logik, die technologischen Fortschritt und Überlegenheit nahezu uneingeschränkt glorifiziert. Es entsteht das Bild einer „posthumanen“ Zukunft, in der Menschen potenziell unsterblich werden, ihre physischen und mentalen Grenzen überwinden und das Universum besiedeln. Dabei wird suggeriert, dass diese Visionen der Rettung der Menschheit dienen und den Fortbestand unserer Spezies langfristig sichern könnten.

Wissenschaftlich und praktisch lassen sich diese Vorstellungen kaum untermauern. Kritische Fragen zu den ethischen, sozialen und politischen Konsequenzen bleiben dabei weitgehend unbeantwortet.

Eugenische Tendenzen verpackt in vermeintlichen Lösungen

Ein weiterer kritischer Punkt ist, dass einige prominente Vertreter:innen dieser Bewegungen problematische und ethisch bedenkliche Ansichten vertreten. Nick Bostrom, ein bekannter Philosoph und Vertreter der Theorie existenzieller Risiken sowie ehemaliger Leiter des Future of Humanity Institute,  schlägt unter anderem vor, das Problem „zu vieler ‚unintelligenter‘ Menschen“ durch genetische Selektion oder eine gezielte IQ-Steigerung bereits im Embryo zu lösen. Aufgefallen ist er außerdem durch rassistische Annahmen über BIPOCs (Black, Indigenous, and People of Color). Diese Äußerungen wecken Assoziationen zur Eugenik und Diskriminierung und werfen Zweifel an den ethischen Grundlagen dieser Bewegungen, in der Bostrom eine zentrale Rolle spielt, auf.

Ein Appell zur Wachsamkeit

Die Diskussion rund um Artificial General Intelligence (AGI) und die Konzepte, die immer mehr unter dem Akronym TESCREAL bekannt werden, verdeutlichen – nicht nur nach den letzten Entwicklungen in den USA –, wie wichtig es ist, stets einen kritischen Blick auf die treibenden Akteur:innen in der Techbranche und ihre Absichten zu werfen. Gewisse ideologische Tendenzen geben vor, im Dienst der Menschheit zu stehen, fördern jedoch Vorstellungen, die einige wenige Gruppen privilegieren sollen und viele andere Gruppen noch weiter marginalisieren. Solche Denkweisen beeinflussen nicht nur die technologische Entwicklung, sondern prägen auch gesellschaftliche und ethische Normen, bis hin zu der Definition dessen, was als „menschlich wertvoll“ gilt. Es ist daher entscheidend, dass wir als Gesellschaft wachsam bleiben, die Diskurse vielfältig gestalten und sicherstellen, dass technologische Fortschritte dem Wohl aller und nicht nur einer privilegierten Minderheit dienen.


Dieser Text ist lizenziert unter einer  Creative Commons Namensnennung 4.0 International Lizenz.