Der fünfte Beitrag unserer Reihe über die Effekte von Algorithmen befasst sich mit dem gesellschaftlichen Spannungsverhältnis zwischen effektiver und überbordender staatlicher Kontrolle. Bereits erschienen sind Blogposts zu den Phänomenen Personalisierung, Zugang, Befähigung und Freiraum.
Der Mann, der im November 2015 unter dem Namen David Benjamin Asyl beantragt, wird die deutschen Behörden länger als ein Jahr lang an der Nase herumführen. Er gibt sich als syrischer Christ aus, der nach einem Angriff des Islamischen Staats aus seiner Heimat geflohen sein will. Wie viele der 900.000 Flüchtlinge, die in jenem Jahr in Deutschland Schutz suchen, kann er keine Ausweisdokumente vorlegen. Die Anhörung zu seinem Asylantrag verläuft ungewöhnlich. Arabisch spricht der Mann kaum, trotzdem fallen den zuständigen Mitarbeitern im Bundesamt für Migration und Flüchtlinge (BAMF) keine Ungereimtheiten auf. Deutschland erkennt den Schutzstatus von David Benjamin wegen des Bürgerkriegs in Syrien an.
Erst im Februar 2017 kommt heraus, dass ein David Benjamin aus Aleppo gar nicht existiert. Der angebliche Flüchtling heißt in Wirklichkeit Franco A., ist Oberleutnant bei der Deutsch-Französischen Brigade und wollte vermutlich unter dem Deckmantel der falschen Identität einen Anschlag begehen. Es ist der wohl spektakulärste einer ganzen Reihe von Fällen, die die Überforderung des BAMF zur Hochphase der Flüchtlingsströme dokumentieren. Etwa 1,4 Millionen Asylanträge wurden zwischen 2015 und 2017 in Deutschland gestellt – so viele wie in den vorangegangenen 20 Jahren zusammen. In der zuständigen Nürnberger Behörde herrschte Ausnahmezustand. Statt täglich zwei Fälle zu bearbeiten, mussten die Mitarbeiter bis zu fünf Entscheidungen am Tag treffen. Zur Soforthilfe wurden 6000 neue Kollegen rekrutiert und im Eilverfahren angelernt. Im Nachhinein wurden in einem Viertel aller Asylbescheide jener Zeit Inkonsistenzen und Verfahrensfehler – wie im Fall Franco A. – entdeckt.
Auf der Suche nach der Herkunft
Heute hat das BAMF digital aufgerüstet und kann seiner Kontrollaufgabe besser gerecht werden. Unter anderem setzt es eine Sprachanalysesoftware ein, um anhand einer zweiminütigen Sprechprobe arabische Dialekte zu identifizieren und Herkunftsregionen zuzuordnen. Algorithmen vergleichen dazu die Tonaufnahme des Asylbewerbers mit verschiedenen hinterlegten Sprachmustern. Nach mehrmonatiger Testphase setzt das BAMF die Sprachsoftware mittlerweile zur Erkennung von fünf verschiedenen arabischen Dialekten ein. Die Behörde prüft damit noch vor der Anhörung, wie plausibel die Angaben von Flüchtlingen sind, die keinen Herkunftsnachweis erbringen können. Noch ist die Software nicht frei von Fehlern, auch deshalb hat sie nur beratende und keine entscheidende Funktion.
In der Vergangenheit konnte der Entscheider erst nach der Anhörung ein linguistisches Gutachten anfordern, falls an der Herkunft eines Geflüchteten Zweifel bestanden. Dieses Verfahren war aber nicht für den Masseneinsatz geeignet, sondern teuer und die Anzahl an qualifizierten Gutachtern begrenzt. So überforderte die Vielzahl von Asylanträgen und damit verbunden Herkunftsklärungen die Behörde in jeder Hinsicht: sprachlich, kapazitiv, zeitlich, budgetär. Das hatte Folgen: Schutzberechtigte mussten sehr lange auf Anerkennung warten, was ihre Integration in Ausbildung und Arbeit erschwerte. Nicht-Schutzberechtigte hingegen konnten nicht abgeschoben werden. Algorithmen hätten dem BAMF schon damals helfen können, seine hoheitlichen Aufgaben besser und gerechter zu erfüllen und einen Beitrag zu mehr gesellschaftlicher Stabilität zu leisten.
Auf schmalem Grat
Der Schutz vor Verfolgung ist ein Grundrecht in unserer Gesellschaft. Eine Ablehnung eines Asylantrages muss sorgsam geprüft und begründet werden. Doch auf der anderen Seite kann der Missbrauch dieses Rechtes den gesellschaftlichen Frieden bedrohen. Die funktionierende Kontrolle durch hoheitliche Bewilligungsbehörden ist deswegen elementar für das Vertrauen in die öffentliche Ordnung.
Diese Kontrollfunktion unterstützen Algorithmen höchst effizient. Ihre Ergebnisse hängen nicht von der Kompetenz, Tagesform und Werturteilen einzelner Beamter ab. Einmal entwickelt, können sie unbegrenzt oft und flexibel eingesetzt werden. Die Herkunftsprüfung etwa kann leichter den in der Praxis schwankenden Bedarf erfüllen. Das alles sind große Vorteile, die Algorithmen bieten, und Behörden werden künftig zunehmend in Erklärungsnot geraten, wenn sie darauf verzichten. Andererseits geraten sie in noch größere Erklärungsnot, wenn ihnen dabei schwerwiegende Fehler unterlaufen. Zum Zweck staatlicher Kontrolle eingesetzte Computerprogramme müssen schon vor ihrem Einsatz hinreichend getestet werden, ihre Ergebnisse nachvollziehbar und Widerspruch auf einfache Weise möglich sein.
Mit dem Einzug der Algorithmen in die Behörden wird die staatliche Herausforderung, ein angemessenes Gleichgewicht zwischen Sicherheit und Freiheit zu finden, noch größer. Denn die Technik ist inzwischen in der Lage, deutlich mehr zu kontrollieren, als die Gesellschaften der westlichen Welt zu tolerieren bereit wären. Das weckt Widersprüchlichkeiten: Auf der einen Seite stellt sich Unbehagen ein, wenn digitale Unterstützung lückenlose Kontrolle ermöglicht. Auf der anderen Seite ist die Empörung groß, wenn eine Technik nicht zum Einsatz kam, die ein Unglück oder Verbrechen hätte verhindern oder zumindest aufklären können.
Da Politik nicht selten auf emotionale öffentliche Debatten reagiert, ist die besagte Balance zwischen Sicherheit und Freiheit, zwischen Überwachung und Eigenverantwortung zunehmend einfacher zu verschieben. Es ist schlichtweg zu leicht, einer punktuellen Empörungswelle durch schärfere Kontrollen nachzugeben. Die Technologie ist ja vorhanden, sei es zur Kameraüberwachung öffentlicher Plätze, zur gezielten Auswertung elektronischer Kommunikation oder zur permanenten Erfassung unserer Bewegungsmuster. Doch was technisch zuweilen trivial erscheinen mag, kann gesellschaftlich von enormer Tragweite sein.
Deshalb muss bei jeder behördlichen Anwendung von Kontroll-Algorithmen Verhältnismäßigkeit das oberste Gebot sein. Sie gilt es, in jedem einzelnen Politikfeld zu bestimmen: Die Abwägung konkurrierender Grundrechte kann im Straßenverkehr anders ausfallen als bei der Terrorismusabwehr. Der Einsatz von algorithmischen Kontrollsystemen sollte sich daran orientieren, was eine Gesellschaft will und ihre demokratischen Institutionen als sinnvoll erachten. Entscheidend muss sein, ob überhaupt eine Kontroll-Lücke besteht, die jenseits einer kurz aufflammenden Empörungsdebatte als derart relevant eingestuft wird, dass sie technologisch geschlossen werden sollte.
Kontrolle des Kontrolleurs
Wer die Algorithmen beherrscht, herrscht zunehmend auch über die Gesellschaft. Wenn der Staat in seiner Rolle als Garant der öffentlichen Ordnung vermehrt auf algorithmische Hilfe setzt, verschafft er sich mehr Macht. Aber wer Macht hat, hat auch Verantwortung. Und wer sich mehr Macht nimmt, sollte auch mehr Verantwortung übernehmen. Deshalb muss der Staat transparent machen, wo er automatische Kontrollinstrumente nutzt. Gerade wenn er, der sonst die Regeln für einen angemessenen Gebrauch von Algorithmen setzt, seinerseits als ihr Anwender auftritt, verdient diese spannungsreiche Doppelrolle besondere Aufmerksamkeit. Der Kontrolleur braucht selbst Kontrolle. Sinnvoll wären zu diesem Zweck eingerichtete, unabhängige Wächter-Institutionen, die die Funktionsweise von Algorithmen auch in Behörden vorab prüfen, sie gegebenenfalls genehmigen, ihre Implementierung überwachen und evaluieren.
Jeder mag die Grenze zwischen nötiger allgemeiner und inakzeptabler persönlicher Überwachung anders ziehen. Regierung und Verwaltung sind bei dieser Abwägung an geltende Gesetze gebunden. Unveräußerliche individuelle Grundrechte, wie sie in Verfassungen oder internationalen Vereinbarungen wie der UN-Menschenrechtscharta garantiert sind, müssen stets gewahrt bleiben, staatliche Entscheidungen jederzeit der Überprüfung durch unabhängige Gerichte zugänglich sein. Dieser Rahmen darf auch und gerade im Zeitalter der Algorithmen unter keinen Umständen geschwächt werden. Er ist es, der die Bürger in einer Demokratie anders als in autokratischen Systemen wirksam vor staatlicher Willkür schützt. Und er bestimmt den Raum, innerhalb dessen in üblichen politischen Verfahren über das richtige Maß zwischen ungerechtfertigter Kontrolle und nötigem Eingriff in individuelle Freiheiten abzuwägen ist. In diesem Rahmen darf und sollte aber einem angemessenen und verhältnismäßigen Einsatz von algorithmischen Systemen nichts im Wege stehen. Denn der Verzicht auf deren Unterstützung kann wie beim BAMF ebenso zu gesellschaftlich unerwünschten Konsequenzen führen wie der vorschnelle Einsatz einer fehleranfälligen Software.
Dieser Beitrag basiert auf einem stark gekürzten und adaptierten Auszug des Kapitels „Kontrolle: Die geregelte Gesellschaft“ aus dem Buch „Wir und die intelligenten Maschinen“.
Dieser Artikel ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben