Wer über Künstliche Intelligenz (KI) und Moral nachdenkt, sollte eine grundsätzliche Unterscheidung vollziehen: die zwischen Moral unter den Gesellschaftsmitgliedern in einer (stark) von KI geprägten Welt, gegenüber vorher beispielsweise, und von Moral oder Moralfähigkeit in KI.

Dieser Beitrag verschreibt sich ersterem, muss aber gleich im Sinne des Erwartungsmanagements beschränkt werden. Denn die Frage danach, wie Moralsysteme in der postindustriellen Ära beschaffen sein müssten, um sich zu behaupten respektive um effektiv zu sein, weckt tendenziell zu hohe Erwartungen beim Leser und bleibt somit für den gesellschaftlichen Diskurs reserviert, der hier mit einigen einordnenden Bemerkungen und begriffliche Klarheit schaffenden Überlegungen im besten Fall angestoßen wird. Angesichts weit verbreiteter Verständnisschwierigkeiten auf der basalen semantischen und konzeptionellen Ebene (Was ist KI? Wohin gehen technologische Entwicklungen?) kann die Eruierung von Policy- und Governance-Antworten auf KI aber erst nach etwas philosophischer Arbeit angegangen werden.

Aus diesem Grunde nimmt sich der vorliegende Beitrag die Aufgabe vor, mithilfe von Begriffsbestimmungen erstens veränderte Vorzeichen für Moralsysteme im Wandel hin zur KI-technologisierten Welt zu untersuchen. Und zweitens wird argumentiert, dass die Vorzeichen nicht in einem solch starken Ausmaß umschlagen werden, dass Moralsysteme künftig auch wirklich intelligente Maschinen als Gesellschaftsmitglieder integrieren werden. Denn die sogenannte technologische Singularität mag vielleicht niemals kommen.

Die Bedeutung effektiver Moralsysteme

Im Sinne des Bildes der spätrömischen Dekadenz ist das Ende einer Ära gekennzeichnet durch moralischen Verfall. Umgekehrt verfügen sämtliche starke Gesellschaften über eine intakte, starke moralische Basis, da ein enger Zusammenhang zwischen Moral und ökonomischen Faktoren besteht. Länder und Gruppen, die eine erfolgreiche Entwicklung verzeichnen, schaffen das zumindest teilweise aufgrund einer etwa (nach klassisch westlicher, industrialistischer Lesart) protestantischen Ethik, wie von Max Weber beschrieben, die ökonomische Werte wie harte Arbeit, Eigenständigkeit, soziale Verantwortung, Aufrichtigkeit und Sparsamkeit teilt.

Wird dieses postulierte starke Band zwischen Moral und wirtschaftlicher Entwicklung aber auch künftig Bestand haben oder etwa durch die oft gegebenen Prognosen zur Entwertung der Arbeit durch KI, die sich zumindest auf den zweiten Blick als irreleitend herausstellen, infrage gestellt? Beispielsweise übt KI einerseits im ersten Digitalisierungsschritt einfache und repetitive Aufgaben oder Vorhersagen aus, später auch komplexere. Wobei jedoch – der einfachen Ökonomik folgend – Menschen weiterhin eine Ressource in jeder Arbeitswelt («Humankapital») bleiben dürften, die «irgendwo» zum (dann effizienteren) Einsatz kommen und insofern alles andere als entwertet sind. Andererseits ist nichtsdestotrotz offen, ob das Webersche Tandem aus klassisch ökonomischen und moralischen Werten in einer Wirtschaft bestimmt durch Mensch-Maschinen-Interaktionen fortgilt.

Zunächst beobachten wir für menschliches Zusammenleben aus ökonomischer Warte und mit hohem Abstraktionsniveau, dass Informationen und Informationsflüsse so stark von den Schranken der Realität befreit zu werden scheinen wie es die menschliche Leistungsfähigkeit erlaubt. Durch die gesunkenen Kosten gibt es mehr Informationen. Zugleich allerdings auch mehr Konfusion darüber, was sie bedeuten. Eine besondere normative Folge für die digitale Zeit ist somit einerseits der gesteigerte Wert des vermeintlich altmodischen menschlichen Urteilsvermögens, um zwischen Rauschen, Worthülsen und Gehaltvollem, zwischen Fakten und Nicht-Fakten zu unterscheiden. Andererseits verlieren oft unausgesprochene Modelle über Abläufe in der Welt in Anbetracht der technologischen Schnelllebigkeit schneller ihre Gültigkeit als zuvor. Dadurch wird Partikular- und Faktenwissen gegenüber Kohäsionswissen und Abstraktionsvermögen bedeutungsschwach.

Diese und weitere Gründe deuten darauf hin, dass unser bislang prinzipiell positiv konnotiertes Informationszeitalter zumindest noch keinem Verständniszeitalter entspricht – und die Qualität vieler öffentlicher Diskurse legt sogar eher einen negativen Zusammenhang nahe.

Die Förderung von Verständnis, Kohäsionswissen und Abstraktionsvermögen

Um den Nährboden für ein moralisches Miteinander unter uns in der digitalen Ära zu bereiten, braucht es Regeln, wie von der Bertelsmann Stiftung unterbreitet, für den menschlichen Umgang mit KI, also auf absehbare Zeit dumme wie normativ blinde Maschinen oder algorithmische Systeme. Es geht also nicht darum, wild respektive überschlau zu werden drohende KI mit der Peitsche des Moralapostels zu bändigen, sondern „schlicht“ darum, uns selbst, die wir KI anwenden, entwickeln oder anderweitig involviert sind, vernünftige Regeln zu geben. Das hat die Bertelsmann Stiftung mit einem Fokus auf Implementierung geleistet. Um diesen Aspekt der Anwendung weiter hervorzuheben, müssen im nächsten Schritt Pilotprojekte mit Praxispartnern sowie eine Industrie-, Organisations- oder Aufgaben-spezifische Ausbuchstabierung der neun Prinzipien folgen. Ein Vorstoß in diese Richtung wurde etwa auch von diesem Autor mit Dr. Christian Spindler im White Paper „Data logistics and AI in insurance risk management“ für die Versicherungsbranche (Industrie) und Risikomanagement (Aufgabe) unternommen (auf Anfrage beim Autoren erhältlich).

Was würde sich jedoch qualitativ für die Gestaltung des Gesellschaftsrahmens ändern, wenn wir autonome Systeme weiterdenken und nicht nur die Frage nach dem moralischen Miteinander unter uns, sondern auch in Koexistenz mit wirklich intelligenten Maschinen, die nicht mehr als reine Tools gelten können, stellen müssten.

Wer hat Angst vor der künstlichen Intelligenz? Der Mythos von der nahenden Singularität

Wer den Autonomiegrad von algorithmischen Systemen weiter und weiter erhöht, kommt ab einem gewissen Punkt am Konzept der starken KI nicht vorbei. Geschürt durch Statements wie denen von Elon Musk, wonach (starke) KI die grösste Gefahr für die Menschheit und viel gefährlicher als Atomwaffen sei, machen sich in der Öffentlichkeit Auffassungen breit, die alles andere als gerechtfertigt sind. Auch hier ist aufgeklärtes Verständnis über Technologie und ihre Folgen vonnöten.

Die Idee der technologischen Singularität oder der Intelligenzexplosion (wie von Irving John Good 1965 beschrieben) ist fast so alt wie der Terminus KI selbst und wird heutzutage nicht zuletzt von namhaften Wissenschaftlern prominent besetzt (Nick Bostrom oder Ray Kurzweil). Plakativ und auf den Punkt gebracht wurde “Singularität” von dem Informatiker Vernor Vinge beschrieben, der 1993 voraussagte: “Innerhalb von dreißig Jahren werden wir die technischen Mittel haben, eine übermenschliche Intelligenz zu schaffen. Kurze Zeit später wird die Ära der Menschen zu Ende gehen.”

Wenn wir diese Befürchtungen ernst nehmen, dann hätten wir angesichts sich rasant weiterentwickelnder denkender Maschinen vielleicht bald schon keine Zeit mehr (aller Wahrscheinlichkeit nach aber mehr als vier Jahre), um ihren Fortschritt zu überwachen oder zu kontrollieren.

Sollte also auch für ultra- (oder schlicht wirklich) intelligente Maschinen ein Regelwerk mit normativen Regeln geschaffen werden? Nicht unbedingt und schon gleich gar nicht mit gleicher Dringlichkeit wie die Ordnung des Umgangs mit den dummen, uns umgebenden Maschinen. Denn es gibt eine Reihe von leider oft vernachlässigten Gründen, wonach sich eine KI nicht wiederholt verbessern kann.

Zunächst ein Disclaimer, bevor ich Kritik an meiner Position Tür und Tor öffne: Dieser Autor möchte nicht ausschließen, dass KI irgendwann einmal menschliche oder übermenschliche kognitive Fähigkeiten erreichen wird. Er ist lediglich der Überzeugung, dass es kein unkontrolliertes exponentielles Wachstum geben wird. (In diesem Zusammenhang sei auch die mathematische Spitzfindigkeit erlaubt, dass man ungleich der Befürworter einer technologischen Singularität nicht von einem exponentiellen, sondern von einem hyperbolischen Wachstum sprechen sollte, wenn man an Singularität glaubt, da der Anstieg einer Exponentialfunktion relativ langsam und immer endlich ist.) Deutlich wahrscheinlicher ist es, dass wir Menschen den größten Teil der Intelligenz den KIs selbst einprogrammieren müssen. Nun zu den fünf Argumenten:

  1. Die Wissenschaftsgeschichte gibt keinen Anlass zum Anthropozentrismus. Viele Beispiele, etwa die Kopernikanische Wende oder Darwins Evolutionstheorie, zeigen uns, dass wir nicht so besonders sind, wie wir es gerne glauben würden. Insofern ist nicht zu sehen, welcher besondere Meilenstein durch ein Gleichziehen mit menschlicher Intelligenz erreicht wäre, der dann den Untergang der Menschheit einläuten würde. Einen sogenannten tipping point mag es zwar grundsätzlich geben, aber ihn so eindimensional und menschenbezogen zu verorten, ist ungerechtfertigt.
  2. Computer mögen einen Vorteil gegenüber menschlichen Gehirnen haben, wenn es zu Datenspeichern und der Geschwindigkeit der Datenverarbeitung kommt. Aber Speicherkapazität und Schnelligkeit bedeuten nicht erhöhte Intelligenz. Oder frei nach Vernor Vinge: Ein schnell “denkender” Deep Blue Schachcomputer kann noch lange kein Go spielen.
  3. In der analytischen Philosophie unterscheidet man für Betrachtungen zwischen einer Objekt- und Metaebene. Diese Differenzierung erweist sich auch für die Entkräftung der technologischen Singularität als aufschlussreich: Die Intelligenz, die benötigt wird, um eine definierte Aufgabe auszuführen (etwa Schachspielen) ist nicht identisch mit der Fähigkeit, die eigene Intelligenz zu steigern, um jener Aufgabe besser gewachsen zu sein. Denn es sind zwei verschiedene Kompetenzen und es ist nicht zu erkennen, warum dieselbe KI auch imstande sein sollte, den zugrundeliegenden Algorithmus für maschinelles LernenMachine Learning Ein Teilbereich der KI, bei dem Systeme aus Daten lernen und sich verbessern, ohne explizit programmiert zu werden. weiterzuentwickeln. Leider sind von diesem Fehlschluss nicht einmal, ansonsten sehr gescheite Philosophen wie David Chalmers gefeit.
  4. Unsere Erfahrungen mit den meisten KI-Systemen bislang deuten darauf hin, dass der Grenzertrag schnell abfällt und sich häufige Trendwechsel vollziehen, was auch das derzeit viel Aufmerksamkeit erfahrende Deep Learning nicht ausschliessen wird. Wir pflücken erst all die tiefhängenden prallen Früchte (z.B. Textübersetzungen mit Google Translate) und generieren Fortschritte entsprechend rasch, dann geraten wir allerdings in Schwierigkeiten (wie steht es um viele viele weitere use cases?). Womöglich mag sich eine KI zwar unendlich oft verbessern, inwieweit jedoch ihre Intelligenz insgesamt steigt, könnte limitiert sein. Falls beispielsweise jede Generation gegenüber der vorherigen um 50 Prozent zulegt, dann kann sich, gemäss alten Einsichten wie etwa aus Zenons “Paradox” zu Achilles und der Schildkröte, die Anfangsintelligenz maximal verdoppeln, weil sich die unendliche Summe auf höchstens 2 addiert.
  5. Alle von uns jemals gebauten KIs unterliegen den Beschränkungen der physikalischen Welt. Zugegeben sind die Unterschiede hinsichtlich Taktfrequenzen zwischen den biologischen und chemischen Prozessen in unseren Gehirnen einerseits und den elektronischen oder gar quantenphysikalischen Abläufen in Maschinen andererseits frappierend, aber selbst diesen Nachteil machen Gehirne mit massiver Parallelverarbeitung wieder wett. Der springende Punkt hier ist, dass exponentielle oder sonstige Entwicklungen in der realen Welt nicht einfach ins Unendliche fortdauern – es gibt Restriktionen, Überschätzungen und Gegenentwicklungen wie uns die Komplexitätsforschung lehrt. Das hat selbst Intel mit dem für exponentielle Trends gerne zitierten Beispiel des Moore’schen Gesetz festgestellt.

Es ist entscheidend, zunächst einmal die Fakten zu kennen: Was leistet Technologie heute? Wovon können wir gut begründet für die nahe und mittlere Zukunft ausgehen? Diese Fragen benötigen Antworten, bevor wir dem Aktionismus verfallen und moralische Postulate für eine Welt aufstellen, die unserer Ratio folgend nicht eintreten wird. Vielleicht entpuppen wir uns als schlau genug, um eine ultraintelligente KI zu entwerfen, vielleicht aber auch nicht. Statt solcher Spekulation zu frönen, macht es in Anbetracht der heute und morgen bestehenden Probleme (wie dem Klimawandel, sozialer Ungleichheit) Sinn, über ihre Lösungen und moralische Regelungen nachzudenken. Die Gestaltung des normativen Rahmens für den Umgang mit dummer KI fällt klar darunter, mit schlauer KI aber ebenso klar nicht.


Dieser Artikel ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.