Auf Hochtouren arbeitet die Politik derzeit an der Regulierung von algorithmischen Systemen. Doch was ist eigentlich aktuell in Deutschland erlaubt und was muss für automatisierte Software-Entscheidungen (ADM) wirklich neu geregelt werden? Eine Autorengruppe um Prof. Dr. Mario Martini, zuletzt Mitglied der Datenethikkommission, findet darauf in unserem neuen Arbeitspapier „Automatisch erlaubt?“ Antworten für fünf prominente Anwendungsfälle von der Studienplatzvergabe über sogenanntes Predictive Policing bis hin zu richterlichen Urteilen.
Was haben der saarländische Ministerpräsident Tobias Hans und der Satiriker Jan Böhmermann gemeinsam? Sie haben es trotz früheren Studienabbruchs in ihrem Beruf weit gebracht. Die beiden Studienabbrecher sind keine Seltenheit. Etwa ein Drittel aller Studierenden beendet ihr Studium vorzeitig. Die häufig knapp ausgestattete hochschuleigene Studienberatung vermag dieses Problem bislang nicht zu lösen. Können Algorithmen hier Abhilfe schaffen? An US-amerikanischen Hochschulen kommen bereits vielerorts automatisierte Studienberatungsprogramme zum Einsatz. Die Software eAdvisor hilft beispielswiese bei der Wahl des Hauptfachs oder passender Studienangebote und kann im Extremfall die Teilnahme an Kursen vorerst verwehren. Kritiker:innen fürchten deshalb, dass durch den Software-Einsatz individuelle Wahlfreiheit und Selbstbestimmung verloren gehen. Wäre es möglich, dass solche automatisierten Anwendungen auch in Deutschland zum Einsatz kommen?
Europäisches und deutsches Recht setzen klare Grenzen
Die Autorengruppe um Prof. Dr. Mario Martini zeigt in unserer Studie „Automatisch erlaubt? Fünf Anwendungsfälle algorithmischer Systeme auf dem juristischen Prüfstand“, dass der bestehende deutsche Rechtsrahmen und übergreifende europäische Regelungen wie die Datenschutz-Grundverordnung (DS-GVO) dem Einsatz von Algorithmen bereits klare Grenzen setzen. Deutlich wird dies auch am Beispiel der algorithmenbasierten Studienberatung: Neben den Landeshochschulgesetzen regelt vor allem die DS-GVO den Umgang mit den personenbezogenen Daten der Studierenden. So verbietet die aktuelle Rechtslage, dass auf Basis einer algorithmischen Entscheidung Betroffene ohne menschliches Zutun beispielsweise vollautomatisiert zu Kursen zugelassen oder sanktioniert werden. Eine Software wie der in den USA genutzte eAdvisor darf in Deutschland somit in dieser Form nicht eingesetzt werden.
Neben Beispielen aus dem Hochschulsektor analysieren die Autoren Fälle aus dem Polizei- und Gerichtswesen sowie zu sozialen Netzwerken und zeigen auf, dass insbesondere jene Anwendungsfälle, die mit personenbezogenen Daten gespeist vollautomatisierte Entscheidungen treffen, nicht ohne Weiteres auf Deutschland übertragen werden können.
Mensch-Maschine Interaktionen näher ausleuchten
Die Studie zeigt jedoch auch, dass für den wichtigen Bereich der maschinellen Entscheidungsunterstützung („teilautomatisierte Prozesse“) kaum Regelungen bestehen. Dieses Zusammenspiel zwischen Mensch und Maschine gilt es, näher auszuleuchten.
Statt über Negativszenarien zu diskutieren, die durch den bestehenden Rechtsrahmen von vorneherein ausgeschlossen sind, sollte sich die Debatte auf die Analyse regulatorischer Lücken konzentrieren. Bei der Schließung dieser Leerstellen gilt es, stets dafür Sorge zu tragen, dass übergreifende Regelungen wie die DSG-VO mit politikfeldspezifischen Maßgaben wie etwa dem jeweiligen Landeshochschulrecht harmonisch ineinandergreifen. Das schließt auch nicht aus, bestehende Gesetze bei Bedarf so anzupassen, dass bislang rechtlich unzugängliche Potenziale algorithmischer Unterstützung, wie etwa bei der in einigen Bundesländern Professoren vorbehaltenden Studienberatung, gehoben werden können.
Dieser Artikel ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben