Algorithmische Systeme treffen in immer mehr Bereichen Entscheidungen für und über uns Menschen, häufig ohne, dass wir es merken. Um bestehende Rechte und Freiheiten auch im algorithmischen Zeitalter durchsetzen zu können, braucht es Regeln für die Gestaltung und den Einsatz der Systeme. Zusammen mit dem iRights.Lab haben wir deshalb in einem breiten Beteiligungsprozess die Algo.Rules entwickelt, mit denen ethische Standards im Programmiercode verankert werden können.
Algorithmen helfen Ärzt:innen bei Krankheitsdiagnosen, suchen geeignete Bewerber:innen für die Personalabteilung oder sagen für Polizist:innen voraus, in welchen Gegenden sich als nächstes Verbrechen ereignen werden. Es wird höchste Zeit, sich damit zu beschäftigen, wie Algorithmen in den Dienst der Gesellschaft gestellt werden können. Die neun Algo.Rules bilden einen Katalog an formalen Kriterien, die eine gesellschaftlich förderliche Gestaltung algorithmischer Systeme ermöglichen – und zwar bereits bei ihrer Entwicklung. Sie beinhalten keine moralischen Normen, sondern legen eine Grundlage für ethische Erwägungen und für die Um- und Durchsetzung rechtlicher Rahmenbedingungen. Dadurch sind sie zu einem gewissen Grad universell und in unterschiedlichen kulturellen Kontexten einsetzbar.
Hier geht es zu den neun Algo.Rules.
Die Wirkung algorithmischer Systeme wird nicht nur durch den Programmiercode beeinflusst, sondern auch durch die Zielvorgaben, die (Trainings-)Daten, den organisatorischen Kontext und die Art und Weise, wie ein algorithmisches Ergebnis präsentiert, interpretiert und umgesetzt wird. Die Algo.Rules richten sich deshalb nicht nur an Programmierer:innen, sondern an alle Personen, die einen wesentlichen Einfluss auf die Entstehung, Entwicklung und Anwendung von algorithmischen Systemen haben. Gleichzeitig gelten die Regeln nicht für jedes algorithmische System gleichermaßen: Das Navigationssystem im Auto und die Rechtschreibkorrektur funktionieren auch dank Algorithmen. Sie müssen jedoch nicht der gleichen Kontrolle unterzogen werden, wie Systeme, die im Bildungs- oder Gesundheitsbereich eingesetzt werden. Entscheidend ist somit nicht die technische Komplexität des Systems, sondern die Teilhaberelevanz des Einsatzfeldes.
Algo.Rules sind in einem umfangreichen Beteiligungsprozess entstanden
Die Kriterien sind das Ergebnis eines umfangreichen Entwicklungs- und Beteiligungsprozesses: In Workshops mit Expertinnen und Experten, Telefoninterviews sowie einer breit angelegten Onlinebefragung wurden die Regeln aufgestellt. Insgesamt haben sich rund 400 Personen aus unterschiedlichsten gesellschaftlichen Bereichen und wissenschaftlichen Disziplinen beteiligt.
Philipp Otto vom unabhängigen Thinktank iRights.Lab: „Der breite Beteiligungsprozess zur Entwicklung der Algo.Rules war inspirierend und anregend. Wir haben sehr schnell erkannt: Der Bedarf nach einem Kriterienkatalog wie wir ihn nun vorlegen, ist riesengroß und wird geradezu händeringend vermisst.“
Helft uns jetzt, die Algo.Rules weiterzuentwicklen!
Die Algo.Rules sind ein erster wichtiger und neuartiger Versuch, algorithmische Systeme gemeinwohlorientiert zu gestalten. Mit der Veröffentlichung der Algo.Rules hören wir aber noch lange nicht auf zu arbeiten, sondern legen erst richtig los! Gemeinsam mit dem iRights.Lab werden wir die Regeln für unterschiedliche Zielgruppen – Programmierer:innen sowie Führungskräfte in Unternehmen – spezifizieren und Implementierungsstrategien erarbeiten. Hier gilt laut Jörg Dräger, Vorstand der Bertelsmann Stiftung: „Die Detaillierung der Algo.Rules können wir nicht alleine angehen. Wir rufen daher Organisationen und Individuen, die algorithmische Systeme entwickeln und einsetzen, zur Beteiligung auf!“
Mehr zu den Algo.Rules finden Sie auch auf der offiziellen Algo.Rules Website und auf Twitter unter dem Hashtag #algorules.
Dieser Artikel ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben