Der siebte von neun Beiträgen über die Effekte von Algorithmen auf einzelne Personen, Gesellschaft sowie das soziale Miteinander behandelt die Möglichkeiten, Präventionsarbeit durch algorithmenbasierte Prognosen zu verbessern. Bereits erschienen sind Blogposts zu den Phänomenen: Personalisierung, Zugang, Befähigung, Freiraum, Kontrolle und Verteilung.
Felix Bode im nordrhein-westfälischen Landeskriminalamt (LKA) erschließt sich die kriminelle Großwetterlage auf einen Klick. Eine Computersimulation zeigt das Stadtgebiet von Köln. Linksrheinisch scheint Chorweiler ein heißes Pflaster zu sein, der Stadtteil verbirgt sich unter einer dunkelorangen Wolke. Im benachbarten Merkenich ist die Lage offensichtlich ruhiger, obwohl die schwefelgelbe Einfärbung des Zentrums auch nicht vertrauenerweckend wirkt. Etwas weiter draußen hingegen, über Auweiler, ist der Himmel ungetrübt. Auf Bodes Bildschirm kann man ablesen, wo in den Tagen zuvor das Verbrechen gewütet hat. Einbrüche in Wohnungen und Gewerberäume sowie Diebstähle aus Autos* – für alle 16 polizeilichen Großbehörden des Bundeslandes werden diese Delikte ins Computerprogramm SKALA eingepflegt**. Das Programm erstellt dann sogenannte Heatmaps, die sofort erkennen lassen: Das Böse ist eben nicht immer und überall, sondern es konzentriert sich auf Hotspots.
Bode wäre allerdings nicht Leiter der wissenschaftliche Begleitung von SKALA in der Kriminalistisch-Kriminologischen Forschungsstelle im LKA***, und das Akronym stünde nicht für „System zur Kriminalitätsauswertung und Lageantizipation“, wenn sein Programm nicht noch mehr leisten könnte. Was die Kriminologen vom LKA wirklich interessiert, ist weniger die Vorwoche, sondern vielmehr die Folgewoche. Der entscheidende Buchstabe in SKALA ist das zweite A, das für Antizipation steht. Felix Bode möchte erfahren, wo in den kommenden Tagen die Wahrscheinlichkeit, dass in Wohnungen eingebrochen wird oder Autos gestohlen werden, höher ist als üblich. Die Einsatzleiter sollen ihre Beamten zu den Tatorten der Zukunft schicken können, damit geplante Gesetzesübertretungen erst gar nicht stattfinden. Predictive Policing heißt das im Englischen, vorausschauende Polizeiarbeit.
Seit 2015 setzt Nordrhein-Westfalen algorithmische Systeme zur Prävention von Wohnungseinbrüchen ein. Zu jener Zeit standen die Ermittlungsbehörden unter Druck. Die Zahl der Wohnungseinbrüche in Nordrhein-Westfalen war erheblich gestiegen, die Aufklärungsquote auf unter 14 Prozent gefallen. Innerhalb von neun Monaten entwickelte man die SKALA-Software, die anhand verschiedener Daten mit verhältnismäßig einfachen statistischen Modellen vorhersagt, wo das Risiko weiterer krimineller Taten besonders hoch ist.
Berücksichtigt werden beispielsweise Bebauung, demografische Struktur, Wetter oder aktuelle Verkehrslage. Handelt es sich um ein Quartier mit mehr Hochhäusern oder mehr Einfamilienhäusern? Sind sie alarmgesichert? Gibt es viele Gärten? Wie hoch sind das durchschnittliche Alter und der Bildungshintergrund der Bewohner? Ist gerade Ferienzeit? Und wird es in den nächsten Tagen viel regnen? All diese Faktoren beeinflussen die Einbruchswahrscheinlichkeit. Natürlich ist das System nicht in der Lage, konkrete Verbrechen vorherzusagen. Aber es kann unter den Wohngebieten solche identifizieren, in denen das Einbruchsrisiko drei- bis viermal höher ist als anderswo.
Einmal wöchentlich gibt das LKA die Prognosedaten an die lokalen Polizeibehörden weiter. Klassischerweise werden die Daten genutzt, um Sondereinsätze wie Verkehrskontrollen zu planen oder um Polizeistreifen stärkere Präsenz zeigen zu lassen. Seit SKALA im Einsatz ist, ist die Zahl der Wohnungseinbrüche in Nordrhein-Westfalen stark zurückgegangen – die neuen Polizeimethoden haben offenbar eingeschlagen, auch wenn der genaue Beitrag von SKALA zu diesem Erfolg nicht exakt zu beziffern ist.
Die Spirale der schlechten Daten
Algorithmen sind immer nur so gut wie die Datensätze, mit denen sie trainiert werden. Diese sind leider häufig lückenhaft oder verzerrt, beispielsweise weil bestimmte Personengruppen dort nicht ausreichend repräsentiert sind. Auch die algorithmisch unterstützte Polizeiarbeit ist anfällig für Verzerrungen. Wo mehr kontrolliert wird, lässt sich meist auch mehr finden. Selbstverstärkende Feedbackschleifen können entstehen.
Ein radikaler Verzicht auf Algorithmen ließe jedoch Präventionspotenziale ungenutzt. Um systemische Diskriminierung zu verhindern, muss vielmehr die Spirale der schlechten Daten aufgehalten werden. In Nordrhein-Westfalen führt das LKA deshalb regelmäßig „Blindtests“ durch und schickt Polizisten in von der Software als unproblematisch eingestufte Gebiete. Dadurch stehen Vergleichsdaten zur Verfügung, die ansonsten fehlen, aber zur Qualitätssicherung benötigt werden.
Ebenso wichtig: Polizisten müssen umfassend zu den Möglichkeiten und Grenzen der neuen Software-Anwendungen geschult werden, damit sie verstehen, wo sie ihnen wirklich helfen und wie ihre Ergebnisse zu interpretieren sind. Kompetenz ist der beste Schlüssel zu erfolgreicher Prävention.
Zur Prävention sind Algorithmen immer nur das Werkzeug. Sie können Probleme vorhersagen, aber nicht lösen. Es braucht Menschen, die ihre Prognosen interpretieren und konkrete Vorsorgemaßnahmen ergreifen. Wenn es im konkreten Beispiel nicht genug Polizisten gibt, dann hilft auch die beste Vorhersage nur wenig. Der Einsatz von Algorithmen entlastet Präventionsprojekte also keineswegs von der Notwendigkeit einer hinreichenden personellen und finanziellen Ausstattung.
Der Skala-Algorithmus kann zu einer sichereren Gesellschaft beitragen. Doch er bekämpft letztlich kaum mehr als Symptome. Prävention sollte früher ansetzen als bei Maßnahmen, die einen Einbruch durch größere Polizeipräsenz verhindern. Noch wichtiger ist es, die strukturellen Ursachen gesellschaftlicher Probleme besser zu verstehen und genau dort aktiv zu werden. Wahre Prävention bedeutet Investitionen in Bildung, in Gesundheitsaufklärung und in den Abbau sozialer Ungleichheit.
Zukünftig schuldig?
Wo ist die Grenze zwischen wirksamer Prävention und verbotenem Eingriff in das Recht auf menschliche Selbstbestimmung? Der amerikanische Wissenschaftler Richard Berk arbeitet in Norwegen an einem algorithmischen System, das schon bei Geburt eines Kindes vorhersagen soll, ob es vor seinem 18. Geburtstag kriminell wird. Grundlage dafür ist die sogenannte Identifikationsdatei der norwegischen Regierung, die darin riesige Mengen an Informationen über ihre Bürger sammelt. Noch können Berks Prognosen nicht überzeugen, doch sollten sie tatsächlich eine hohe Verlässlichkeit erreichen, stellen sich spätestens dann Fragen von hoher ethischer Komplexität im Umgang mit „zukünftig Schuldigen“: Dürfen solche Vorhersagen genutzt werden, um Betroffenen Hilfe anzubieten? Können präventive Maßnahmen greifen, ohne Kind und Familie vorzuverurteilen? Und wie wirkt sich all das auf die Psyche der Eltern und des Kindes aus? Berks Algorithmus opfert, sofern er funktioniert, das individuelle Persönlichkeitsrecht dem gesellschaftlichen Wunsch nach mehr Sicherheit. Das stellt unser bisheriges Rechtsempfinden und Grundrechtesystem, das auf der Unschuldsvermutung basiert, in Frage.
Wachsende Datenmengen und immer ausgefeiltere Algorithmen stellen unser Gemeinwesen vor die Entscheidung, was es mit ihren immer präziseren Vorhersagen anstellen soll. Das Spektrum möglicher Reaktionen reicht vom Verbot bis zur forcierten Umsetzung in präventive Maßnahmen. Wenn wir als Gesellschaft die Chancen algorithmischer Vorsorge nutzen wollen, zwingt uns das dazu, widerstreitende Werte gegeneinander abzuwägen. Im Zentrum steht die Frage, wie wir den zukünftigen Schutz der Gesellschaft gegenüber den Grundrechten des Individuums im Hier und Jetzt bewerten.
Die Abwägung zwischen den Gütern „Schutz der Gemeinschaft“ versus „Selbstbestimmungsrecht und Freiheit des Individuums“ ist eine politische Entscheidung. Dafür gelten bekannte Maßstäbe: Wie schwerwiegend ist der notwendige Eingriff in das einzelne Leben? Wie groß ist das Risiko, dass ein befürchtetes Ereignis eintritt? Und sollte es eintreten, wie weitreichend wären die Auswirkungen auf die Gesellschaft? Die Abwägung, wo Freiheit und Rechte des Individuums zugunsten kollektiver Interessen eingeschränkt werden dürfen, kennt aber kein eindeutig richtiges oder falsches Ergebnis, erst recht nicht auf Dauer. Denn im Laufe der Zeit ändern sich auch unsere Vorstellungen von dem, was wir für ethisch angemessen halten.
Für die algorithmische Prävention bedeutet: Wir müssen immer wieder gesellschaftlich darüber debattieren, streiten und letztlich politisch entscheiden, wie viel wir überhaupt über die Zukunft wissen wollen und wo der prognostische Blick nach vorn ausdrücklich begrenzt werden soll. Vieles, was auf den ersten Blick verheißungsvoll klingen mag, entpuppt sich auf den zweiten Blick als ethische Gratwanderung. Denn Menschen haben auch das Recht, die Zukunft nicht zu kennen. Doch umgekehrt würde ein generelles Verbot prädiktiver Technologien bedeuten, dass anderen so die Chance auf ein sichereres Leben entginge. Menschen wie die SKALA-Entwickler im nordrhein-westfälischen LKA führen uns dieses Spannungsverhältnis mit ihren scheinbar intelligenten Maschinen jeden Tag aufs Neue vor Augen.
Dieser Beitrag basiert auf einem stark gekürzten und adaptierten Auszug des Kapitels „Prävention: Gewisse Zukunft“ aus dem Buch „Wir und die intelligenten Maschinen“.
*= Im Buch und im ursprünglichen Blogbeitrag hatten wir angegeben, dass SKALA auch die Wahrscheinlichkeit von Autodiebstählen vorhersagen kann. Wir wurden durch einen Mitarbeiter des LKA-NRW darauf hingewiesen, dass sich die Vorhersagen auf Diebstähle aus Autos beschränkt und haben den Fehler dementsprechend korrigiert. Wir bedanken uns für den Hinweis!
**= Die Zahl bezieht sich auf den Zeitpunkt des Interviews, welches die Autor:innen mit den Mitarbeiter:innen des LKA-NRW geführt haben (Sommer 2018). Mittlerweile ist die Zahl der Polizeibehörden, die SKALA in NRW nutzen, laut Mitarbveiter:innen des LKA-NRW auf 26 gestiegen. (Stand: Februar 2020)
***= Felix Bode arbeitet mittlerweile als Professor für Polizei und öffentliche Verwaltung NRW.
Dieser Artikel ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben