Können Algorithmen uns helfen, Mitarbeiter:innen zu finden und in Unternehmen zu halten? Gleich drei Impulse von #Erlesenes beschäftigen sich mit dem dieswöchigen Fokusthema Robo Recruiting und der Frage, wie Betriebsräte, HR-Abteilungen und Führungskräfte dabei ihre Verantwortung wahrnehmen können. Außerdem: Wie kann Technologie unschuldig Verurteilten helfen? Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?Automatisiertes Personalmanagement und Mitbestimmung

März 2020, AlgorithmWatch

Unternehmen, die für das Personalmanagement Systeme mit Künstlicher Intelligenz (KI) einsetzen, handeln mitunter rechtswidrig. Zu diesem Schluss kommt eine von der Hans-Böckler-Stiftung geförderte Studie von AlgorithmWatch. Entscheidend sei, dass Beschäftigte einzeln und freiwillig zustimmen, wenn sogenannte People-Analytics-Verfahren eingesetzt werden. Häufig läge eine solche Einwilligung aber nicht vor. Das Forschungsprojekt konstatiert zudem, dass Betriebsräte und Unternehmen prüfen müssen, ob der Einsatz von KI-Systemen rechtskonform erfolgt. Hier sehen die Autor:innen das Problem, dass KI-Anbieter:innen die dafür notwendigen Informationen häufig nicht herausgeben. Sie fordern, dass Arbeitgeber:innen auch dann Transparenz über die verwendeten Methoden gewährleisten müssen, wenn die Hersteller:innen der Software keine Auskünfte erteilen wollen. Die Studie betont zudem, dass Betriebsrät:innen ihre Auskunftsrechte gegenüber Arbeitgeber:innen bereits in der Planungsphase von KI-Systemen aktiv durchsetzen sollten. Hinweis in eigener Sache: Über Chancen und Risiken solcher Software diskutieren Carla Hustedt und Tobias Knobloch in ihrem Impulspaper Der maschinelle Weg zum passenden Personal.


?Wie Firmen verhindern können, dass durch Algorithmeneinsatz Menschen mit Behinderungen benachteiligt werden

(How Algorithmic BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht. Hurts People With Disabilities), 6. Februar 2020, Slate

Eine Diskriminierung von Menschen mit Behinderungen durch den Einsatz algorithmischer Rekrutierungssysteme lasse sich unter anderem aufgrund der Heterogenität von Behinderungen und des daraus resultierenden Mangels an statistisch aussagekräftigem Datenmaterial besonders schwer feststellen, schreibt Alexandra Reeve Givens, Direktorin des Georgetown Institute for Technology Law & Policy. Für Unternehmen ergebe sich daraus die Pflicht, ganz genau hinzuschauen: Fokussiert sich ein System zur Evaluation von Bewerber:innen ausschließlich auf Merkmale, die für den Job wichtig sind? Beurteilt es die Personen allein anhand ihrer Leistungen, statt sie von wohlmöglich zu schützenden Merkmalen (z. B. Hautfarbe, Behinderungen) abzuleiten? Flossen die Perspektiven von behinderten Menschen in die Entwicklung des Systems ein? Und nicht zuletzt sollten sich Unternehmen fragen, ob der Einsatz eines Algorithmus bei der Personalauswahl überhaupt der richtige Weg ist, so Givens.


?Künstliche Intelligenz: Algorithmen haben kein Gewissen

4. März 2020, Manager Magazin

In den meisten Unternehmen herrschten datengetriebenes Denken und datenbasiertes Management auf Basis einer einzigen Maxime vor: der maximalen Effizienz. Gleichzeitig fungierten die vermehrt eingesetzten Algorithmen wie ein Katalysator unserer gelebten Werte und Normen. Die Kombination dieser Tendenzen öffne Tür und Tor für Diskriminierung, schreibt Baha Jamous, Marketingchef bei einem Reiseanbieter, in diesem Gastbeitrag im Manager Magazin mit – nicht überraschender – Unternehmensperspektive. Firmen sollten sich die Frage stellen, welche Zwecke sie mit dem Einsatz von Künstlicher Intelligenz (KI) verfolgen – und wie sie datenbasierte Entscheidungen treffen können, die das Beste für die Gesellschaft im Sinn haben. Die Verantwortung für kritische Entscheidungen und die Entwicklung von Normen sowie deren Kopplung mit Moral dürften nach Ansicht von Jamous nicht an Maschinen ausgelagert werden. Technologie solle Menschen und Firmen als Werkzeug dienen, aber nicht zum Götzen werden, dem wir unsere Menschlichkeit opfern, mahnt Jamous. Den Verweis auf das Trolley-Problem sollte man allerdings aus guten Gründen eher ignorieren.


?Ein Algorithmus zur Analyse von DNA-Proben lässt unschuldig Verurteilte hoffen

(Texas man close to exoneration after computer algorithm leads to new suspect), 16. Februar 2020, NBC News

Neun Jahre saß Lydell Grant unschuldig für einen Mord in einem texanischen Gefängnis. Einem neuartigen Algorithmus zur Analyse von DNA-Proben ist es zu verdanken, dass Grant nun gegen Kaution freigekommen ist und gute Chancen auf eine offizielle Entlastung hat. Erik Ortiz berichtet in diesem ausführlichen Artikel bei NBC News über den Fall, den der Anwalt Mike Ware als „historisch” bezeichnet – weil nun Tausende andere wohlmöglich unschuldig Verurteilte eine Aussicht auf Gerechtigkeit hätten. Die verwendete DNA-Analyse-Software sei zuverlässiger als menschliche Expert:innen – genau diese hätten damals während der Ermittlungen einen für Grant folgenreichen Fehler gemacht. Allerdings bringe das Verfahren auch eine Herausforderung mit: Der Hersteller des Algorithmus behandelt dessen Funktionsweise als Geschäftsgeheimnis. Dadurch werde es schwierig, mithilfe dieses Verfahrens produzierte Resultate in eventuellen Gerichtsprozessen kritisch zu hinterfragen.


?Echtzeit-Gesichtserkennung in der U-Bahn von Buenos Aires sucht nach Straftäter:innen

(The U.S. Fears Live Facial Recognition. In Buenos Aires, It’s a Fact of Life), 4. März 2020, OneZero

Seit knapp einem Jahr überwacht ein Gesichtserkennungssystem die Kund:innen der U-Bahn in Buenos Aires. In Echtzeit hält es nach Personen Ausschau, die sich auf einer offiziellen Liste gesuchter mutmaßlicher Straftäter:innen befinden. Dave Gershgorn schildert im Onlinemagazin OneZero die Hintergründe des Systems, über das Politiker:innen und polizeiliche Ermittler:innen jubeln, während Wächterorganisationen große Probleme sehen. Zwar funktioniere die Technologie wie gedacht und habe bereits mehrfach gesuchte Personen aufgespürt. Andererseits geschehe es auch ab und an, dass Unschuldige ins Visier des Algorithmus geraten (siehe Falsch-Positiv-Raten Problematik) – manchmal ausgelöst durch einen vorangegangenen menschlichen Fehler. Darüber hinaus kritisierte im vergangenen Jahr ein UN-Bericht die Straftäter:innen-Datenbank, die das System mit Fotos füttert: Manche der 46.000 enthaltenen Individuen würden für Bagatellen gesucht oder es fehlten gar Informationen zu konkreten Delikten.


?In eigener Sache:

Um der Gleichstellung der Geschlechter näherzukommen, braucht es dringend eine emanzipatorische Perspektive auf algorithmische Systeme, argumentiert Carla Hustedt, Projektleiterin „Ethik der Algorithmen“ bei der Bertelsmann Stiftung, in einem Beitrag für die Fachzeitschrift „Gleichstellung in der Praxis“ (GiP). Ihr Text ist nun auch bei uns im Blog erschienen.


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen “Erlesenes” hier abonnieren