Können wir mit Künstlicher Intelligenz (KI) Corona eindämmen? Welche Erwartungen sind überzogen und wo stoßen wir an moralische Grenzen der Privatsphäre? Auch an algorithmenbasierte Lügendetektoren werden falsche Erwartungen gestellt. Aber wo kann uns Technologie dann wirklich weiterhelfen? Finden Sie die Antworten dazu in der aktuellen Erlesenes-Ausgabe! Diskutieren Sie mit – über Twitter (@algoethik) oder unseren Blog!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.


?Künstliche Intelligenz wird uns nicht vor dem neuen Coronavirus schützen – aber vielleicht vor der nächsten Pandemie

(AI could help with the next pandemic—but not with this one), 12. März 2020, MIT Technology Review

Die von verschiedenen Medienberichten diskutierten Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) für die Vorhersage, Diagnose und Bekämpfung des neuartigen Coronavirus (siehe Erlesenes #97 und Erlesenes #99) sind der Realität um einiges voraus – mit dieser Feststellung beginnt Will Douglas Heaven im MIT Technology Review einen sachlich-kritischen Blick auf das tatsächliche Potenzial von KI im Kontext von Pandemien. Die Technologie werde uns nicht vor dem Coronavirus retten. Die Chancen stünden aber gut, dass sie für künftige Epidemien eine größere Rolle spielen könne. Dafür benötige es unter anderem viel mehr Daten, als in diesem Fall zur Verfügung stehen, woraus sich ein Interessenkonflikt zu wichtigen Werten wie Datenschutz und persönlicher Freiheit ergebe. Doch selbst wenn alle notwendigen Daten vorhanden wären: Eine KI könne Ausbrüche von ansteckenden Krankheiten nur dann vorhersagen, wenn die Entscheider:innen aus Politik, Wirtschaft und Gesundheitswesen die Möglichkeiten dieser Technologie erkennen, so Heaven. Einen Vorschlag, wie unbelastet der Vorbehalte gegen den Verlust und Privatheit Technologie doch bei der aktuellen Bekämpfung von Corona helfen kann, stellt der Autor in einem weiteren Beitrag vor.


?Zum Mangel an Frauen in der KI-Disziplin und wie dieser behoben werden kann

(Exploring Gender Imbalance in AI: Numbers, Trends, and Discussions), 13. März 2020, Synced

Es fehlen Frauen, ihre Perspektiven und Erfahrungen – sowohl im Bereich der Computerwissenschaften im Allgemeinen als auch in der Forschungsfeld der Künstlichen Intelligenz (KI) im Speziellen. Für das Onlinemagazin Synced liefert die Journalistin Yuan Yuan anhand von Zahlen aus verschiedenen jüngeren Studien zum Thema ein Gesamtbild der Tragweite des Problems. Im zweiten Teil des Textes präsentiert sie eine Liste von Vorschlägen profilierter KI-Spezialistinnen, was gegen das Geschlechterungleichgewicht getan werden kann. Zur Sprache kommen unter anderem die Bedeutung von Mentor:innen, die Anpassung der Arbeitsbedingungen an die Alltagsrealitäten vieler Frauen, frühzeitige Interventionen zur gleichberechtigen Förderung von Karrierewegen in Wissenschaft und Forschung sowie eine kluge Sichtbarmachung von Frauen in der Kommunikation nach außen. Weitere Handlungsvorschläge finden sich auch in einem Beitrag von Julia Kloiber, Gründerin des Superrr Lab, und in diesem Plädoyer von Carla Hustedt, Projektleiterin von Ethik der Algorithmen.


?Große Nachfrage nach zweifelhaften KI-Lügendetektoren

(Lie detectors have always been suspect. AI has made the problem worse.), 13. März 2020, MIT Technology Review

Eine wachsende Zahl von Softwarefirmen bietet Anwendungen an, die versprechen, mittels einer Kamera, der Analyse von Mimik sowie Künstlicher Intelligenz (KI) Personen der Lüge überführen zu können. Die Zuverlässigkeit und wissenschaftliche Verankerung derartiger Lösungen sei allerdings noch zweifelhafter als bei tradierten Lügendetektoren, schreibt Jake Bittle bei MIT Technology Review. Es gebe kaum Belege dafür, dass man den Ergebnissen trauen könne. Dennoch sorge der Hype um KI für eine rege Nachfrage in Bereichen, in denen herkömmliche Verfahren der Wahrheitsfindung keine Chance hatten, etwa bei Grenzbehörden, für Vorstellungsgespräche (siehe Erlesenes #96) oder zur Prüfung von Versicherungsschadensmeldungen. Firmen und Regierungen würden verstärkt damit beginnen, KI-Lügendetektoren zur Einschätzung der Vertrauenswürdigkeit von Kund:innen, Mitarbeiter:innen, Bürger:innen sowie Migrant:innen zu nutzen, berichtet Bittle. Die Vertrauenswürdigkeit gegenüber dieser Technologie und ihrem Einsatz bleibe indes weiterhin zweifelhaft.


?Eine ETH-Forscherin erklärt, was KI den Ärzten bringt

12. März 2020, Netzwoche.ch

Personalisierte Medizin, auch Präzisionsmedizin genannt, eröffnet nicht zuletzt dank der Möglichkeiten des Maschinellen Lernens eine bessere, effizientere Behandlung, erklärt die Computerwissenschaftlerin und Professorin an der ETH Zürich, Julia Vogt, im Interview mit dem Netzwoche.ch-Journalisten Joël Orizet. Es gehe darum, medizinische Behandlung an die individuellen Merkmale von Patient:innen anzupassen. Konkret erfolge dies, indem Personen anhand ihrer aus verfügbarem Datenmaterial ablesbaren Eigenschaften in Untergruppen eingeteilt werden. Laut Vogt sind fachübergreifende Kollaborationen dafür essenziell. In ihrer Forschung stütze sie sich auf die Kombination aus nationalen und internationalen Kollaborationen mit klinischen Partnern sowie Open-Access-Daten. Im Gespräch betont sie die Notwendigkeit des gezielten „Entzerrens” von Daten, um aus diesen resultierende verzerrte Ergebnisse zu verhindern: Diese können beispielsweise durch Hinzunahme von weiteren Patient:innendaten aus anderen Krankenhäusern, anderen Ländern oder verschiedenen Altersgruppen geschehen. Mehr zum Thema Personalisierung gibt es in unserem Blogbeitrag von Dr. Jörg Dräger, Vorstandsmitglied der Bertelsmann Stiftung, und Dr. Sarah Fischer.


?Die Stadt New York verbietet diskriminierende Recruiting-Algorithmen

(Bias In Recruitment Software To Be ‘Illegal’ in New York, Vendors Will Need Bias Audit), 12. März 2020, Artificial Lawyer

Ein neues Gesetz verbietet es Softwarefirmen in der Stadt New York, künftig diskriminierende algorithmische Lösungen zur Auswahl von Bewerber:innen anzubieten. Das berichtet der Wirtschaftsrechtler Richard Tromans beim Onlinemagazin Artificial Lawyer. Die neue Regelung soll innerhalb von zwei Jahren in Kraft treten. Sie verpflichte Hersteller von Recruiting-Software, die Kandidat:innen auf Basis statistischer Theorien filtert, sich einem unabhängigen Prüfverfahren zu unterziehen. Sollten die Prüfung verzerrte Ergebnisse zutage fördern, drohen mitunter heftige Strafen. Tromans begrüßt das grundsätzliche Bestreben, von automatischen Systemen abzuverlangen, im Einklang mit geltenden Antidiskriminierungsgesetzen zu stehen. Allerdings wirft er eine Reihe von Fragen zur Umsetzbarkeit auf, beispielsweise, wer die Qualifizierung mitbringe, die teils sehr komplexe Software zu prüfen. Auch sei ihm nicht klar, wie sich der Vorstoß mit vorhandenen subjektiven Auslegungen des Arbeitsrechts in Einklang bringen lasse. Philosophisch gesehen lassen sich Vorurteile generell nicht hundertprozentig entfernen, argumentiert der Wirtschaftsjurist in diesem meinungsstarken Beitrag.


?Bonuslink: Bundestag befragt Bürger:innen zu Künstlicher Intelligenz

10. März 2020, heise.de

Bis zum 5. April 2020 holt die Enquete-Kommission Künstliche Intelligenz (KI) des Parlaments Meinungen der Bürger:innen bspw. zu Vertrauen und Datenschutz bei Algorithmen ein. Nutzen Sie die Chancen und machen Sie mit!


Das war‘s für diese Woche. Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren