Wir müssen über das Verhältnis von Menschen und Maschinen neu nachdenken. Denn der digitale Wandel bedeutet weit mehr als nur schnelles Internet und bequemes Online-Shopping. Entscheidungen über das Leben von Menschen werden zunehmend digitalisiert. Algorithmen bestimmen für und über uns – und genau an dieser Stelle wird Programmierkunst politisch.
In der amerikanischen Justiz schätzen selbstlernende Algorithmen die Rückfallwahrscheinlichkeit von Straftätern ein. Die Richter folgen den Empfehlungen und die Software beeinflusst, wie lange einem Menschen die Freiheit entzogen wird. Sie schafft sicherlich einen einheitlichen Standard für alle und macht die Haftdauer nicht von der Tagesform eines Richters abhängig. Sie sorgt aber auch dafür, dass Einzelne zum Opfer von Wahrscheinlichkeiten werden.
Mittels Algorithmen wollte das französische Bildungsministerium die Studienplatzvergabe erleichtern und effizienter gestalten. Dabei zählte insbesondere die Wohnortsnähe zur Hochschule: Für Kinder aus Pariser Familien war es viel leichter, einen Platz an einer der begehrten Grand-Ecoles zu ergattern, als für einen jungen Menschen aus der Bretagne. Die Software zementierte den französischen Zentralismus und bestehende gesellschaftliche Strukturen. Das führte zwar zu weniger Bürokratie, aber eben auch zu weniger Chancengerechtigkeit.
Unternehmen setzen Software bei der Bewerbervorauswahl ein. Das kann die Personalgewinnung besser und diskriminierungsfreier machen: Kompetenzen werden wichtiger als Zertifikate, das Potenzial für die Zukunft zählt mehr als die persönliche Herkunft. Allerdings dominieren gerade auf dem amerikanischen Markt wenige, ähnliche Systeme. Die Folge: Wer einmal durchs Raster fällt, hat fast nirgendwo mehr eine Chance.
Freiheit, Bildung, Arbeit: Diese Beispiele zeigen die Chancen und Risiken der algorithmischen Gesellschaft. Eines sollte uns bei all dem klar sein: Menschen formulieren die Ziele einer Software, Menschen programmieren und nutzen sie. Software ist menschlichen Interessen und Unzulänglichkeiten unterworfen. Gefährlich wird es immer dann, wenn algorithmische Entscheidungen nicht abgewogen, sondern unreflektiert umgesetzt werden.
Gerade deshalb brauchen wir eine öffentliche Debatte. Nur so lassen sich Standards für die Qualität automatischer Entscheidungsfindung aushandeln. Unser Ziel muss sein, die voranschreitende Digitalisierung in den Dienst der Gesellschaft zu stellen. Wir brauchen eine Ethik der Algorithmen.
Heute bestimmen die Googles und Facebooks der Welt die Spielregeln des digitalen Lebens. Dabei ist der Staat für ein sinnvolles Miteinander zwischen Mensch und Maschinen verantwortlich. Als progressiver Akteur kann er ethisch angemessene Standards setzen und Leitplanken vorgeben. In Deutschland füllt der Staat diese Rolle noch nicht aus. Beim Einsatz algorithmischer Entscheidungsfindung ist das Bild ernüchternd, es herrschen Skepsis und wenig Kreativität. Es gibt hierzulande kaum gelungene Beispiele, die den Bürgern konkreten Nutzen stiften. Dabei könnten Algorithmen durchaus zu einem besseren Leben beitragen – etwa im Gesundheitsbereich. Ein digitaler Abgleich von Patientenakten bei verschiedenen Ärzten würde nicht nur viel Zeit und Geld sparen, sondern auch Leben retten. Arzt und Algorithmus gemeinsam erkennen Krankheiten nachweislich besser als jeder für sich alleine.
Eine solche digitale Dividende ist kein Selbstläufer. Die politische Debatte darüber, wie die Digitalisierung zum gesellschaftlichen Erfolg wird, steht erst am Anfang – hier einige erste Gedanken dazu: Wir brauchen erstens algorithmische Entscheidungen, die durch unabhängige Dritte überprüfbar und nachzuvollziehen sind. Ein Beipackzettel zur Wirkungsweise von Algorithmen würde nicht nur der Transparenz dienen, sondern jeden Einzelnen für mögliche Tücken und Gefahren sensibilisieren – etwa die Richter in der US-Justiz. Zweitens muss der Staat einen wettbewerblichen Rahmen schaffen, der die Vielfalt algorithmischer Systeme sichert. Er muss im Zweifel einschreiten sowie Standards für Algorithmen prüfen und durchsetzen. Hier wäre eine Art TÜV sinnvoll. Drittens brauchen wir eine Professionsethik. Alle an der Entwicklung von gesellschaftlich relevanten Algorithmen Beteiligten müssen die Folgen ihrer Arbeit reflektieren und sich normativen Fragen stellen. Programmierer sollten sich selbst verpflichten, Algorithmen verantwortungsbewusst und fair zu entwickeln. Je nach Tragweite der Entscheidungen braucht es viertens eine frühe öffentliche Diskussion ethischer Aspekte.
Diese Debatten müssen zivilgesellschaftliche Akteure mitgestalten, als Gegengewicht zu staatlichen oder privatwirtschaftlichen Interessen. Dabei geht es auch um die Frage, ob überhaupt in bestimmten Bereichen Algorithmen eingesetzt werden dürfen. Das gilt, wenn die Systeme nur einseitig lernen können, weil eine Falsifikation kaum möglich ist wie bei den Rückfallprognosen in der der US-Justiz. Das gilt auch dort, wo sich die Gesellschaft – wie bei der Krankenversicherung – für vergemeinschaftete Risiken entschieden hat. Technologie darf diese Übereinkunft nicht untergraben. Manchmal müssen wir künstliche Intelligenz auch bewusst verdummen. Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle sollte Leitbild sein, damit maschinelle Entscheidungen den Menschen dienen.
In Frankreich gab das Kultusministerium dem öffentlichen Druck nach: Der Quellcode zur Studienplatzvergabe wurde den Kritikern schlussendlich in Form hunderter bedruckter Seiten per Post überstellt – völlig unbrauchbar für eine Bewertung, völlig destruktiv gegenüber einer zu Recht interessierten Öffentlichkeit. Das sollte in Deutschland anders laufen. Es wird Aufgabe der nächsten Bundesregierung sein, hier Lösungen zu entwickeln. Die Macht von Algorithmen ist keine Science-Fiction mehr, sondern schon heute Realität: Der müssen wir uns stellen.
Dieser Beitrag ist in leicht gekürzter Form am 21. August 2017 im Handelsblatt erschienen.
Kommentar schreiben