Gemeinwohlorientierte Organisationen haben eine klare Mission: Sie setzen sich mit ihrer Arbeit für das Gemeinwohl ein, sei es in der Sozialen Arbeit, im Umweltschutz oder in der Unterstützung marginalisierter Gruppen. Die Paulinenpflege Winnenden betreibt zum Beispiel eine Einrichtung der Jugend- und Behindertenhilfe, das Unternehmen Grüne Erde verkauft ökologisch-nachhaltige Produkte, während der Therapieverbund Ludwigsmühle suchterkrankten Menschen hilft. Die Organisationsstrukturen dieser Organisationen und ihr Handeln sind darauf ausgelegt, gesellschaftliche Ziele in den Mittelpunkt zu stellen. Eine formale Definition dieser Unternehmen besagt, dass ihre Geschäftstätigkeiten auf gemeinwohlorientierten Zielen basieren, sie ihre Gewinne überwiegend in die Erreichung des sozialen Ziels reinvestieren und ihre Strukturen Mitbestimmung oder soziale Gerechtigkeit fördern. Doch was passiert, wenn diese Gemeinwohlorientierung nicht mit den digitalen Werkzeugen übereinstimmt, die sie verwenden?

In den letzten Jahren haben auch gemeinwohlorientierte Organisationen begonnen, große Basismodelle zu nutzen. Immer öfter werden dabei Sprachmodelle wie GPT (Generative Pretrained Transformer) und die darauf aufbauenden Produkte wie ChatGPT oder Co-Pilot verwendet, etwa wie hier im Wissensmanagement einer großen humanitären Organisation. Diese Modelle, die oft von großen Tech-Konzernen entwickelt werden, bringen verschiedene Vorteile mit sich: Etwa können Organisationen durch die Unterstützung bei Routinearbeiten wie der Dokumentation und Berichterstellung ihre Effizienz steigern und auch die Fähigkeit der Modelle, große Datenmengen in kurzer Zeit zu verarbeiten und zu analysieren, ist in vielen Arbeitskontexten hilfreich, zum Beispiel zur Auswertung von Spendenkampagnen oder Klima- und  Patientendaten. Doch sie basieren auf Trainingsdaten, die oft nicht den Werten entsprechen, die für gemeinwohlorientierte Organisationen essenziell sind, wie Fairness, Gleichberechtigung, Diversität und Wahrung der Menschenrechte.

Verzerrte Trainingsdaten und die Auswirkungen auf Basismodelle

Die Trainingsdaten, also die Datenfundamente der Modelle, sind oft eine Ansammlung von riesigen Datenmengen aus dem Internet, die durch automatisierte Prozesse wie Web-Scraping – das automatisierte Auslesen und Sammeln von Daten aus Webseiten – gewonnen werden. Diese Trainingsdaten sind ein wichtiger Grund, warum die Modelle so leistungsfähig sind. Doch die entscheidende Frage ist: leistungsfähig für wen? Unzählige Beispiele zeigen, dass die Modelle bestehende Vorurteile und Stereotypen nicht nur reproduzieren, sondern sogar verstärken: von Fällen geschlechterbasierter Gewalt in generativen KI-Modellen über Geschlechterbias in von Sprachmodellen generierten Empfehlungsschreiben bis hin zu rassistischen Ratschlägen und stereotypen Darstellungen von Ärzt:innen und anderen Berufszweigen. Diese Daten spiegeln nämlich überwiegend westliche und patriarchale Perspektiven und Werte wider. Verzerrungen (Biases) sind also vorprogrammiert: Die einseitige Datenbasis kann dazu führen, dass die Modelle bestimmte Gruppen, Geschlechter oder Standpunkte bevorzugen oder benachteiligen und so die Vielfalt und Komplexität der Gesellschaft nicht angemessen repräsentieren, wie es zahlreiche Beispiele eindrücklich illustrieren.

Ein fehlerhaftes Fundament führt zu mangelhaften Ergebnissen

Basismodelle dienen als Fundament für viele verschiedene KI-Anwendungen, sei es für Chatbots, Übersetzungs- oder Wissensmanagementtools. Wenn das Fundament eines Hauses schief ist, werden auch die darauf gebauten Wände wackeln. So ist es auch bei KI-Modellen: Wenn die Trainingsdaten bereits Verzerrungen und Fehler enthalten, setzen sich diese in den Anwendungen fort, die auf diesen Modellen basieren. Wenn eine gemeinwohlorientierte Organisation beispielsweise ein auf rassistischen Trainingsdaten basierendes Sprachmodell verwendet, um einen Chatbot für die Beratung von Migrant:innen zu nutzen, könnte das problematische Folgen haben.

Die Entscheidungen und Antworten des Modells werden gewiss nicht den ethischen Standards oder den spezifischen Bedürfnissen der Organisationen und betroffenen Menschen gerecht. Die oben genannten Beispiele verdeutlichen nicht zuletzt, wie verletzlich bestimmte – besonders vulnerable – Gruppen und Einzelpersonen dadurch werden können, indem sie durch KI-generierte Vorhersagen oder Bewertungen in Schubladen gesteckt werden. Ein gutes Beispiel ist der Einsatz von KI im Personalwesen, bei dem Algorithmen aufgrund verzerrter Trainingsdaten bestimmte Bewerber:innen – etwa Frauen mit Migrationshintergrund – systematisch benachteiligen können. Dies geschieht etwa, wenn das Modell fälschlicherweise davon ausgeht, dass Menschen aus bestimmten Ländern oder mit bestimmten Namen weniger geeignet für bestimmte Positionen sind. Auch in der Arbeit mit Migrant:innen können Vorurteile, die in den Modellen stecken, dazu führen, dass Menschen aufgrund stereotyper Einschätzungen benachteiligt werden. Beispielsweise können sie bei der Vergabe von Wohnraum übergangen oder falsch eingestuft werden, wenn es um die Zuweisung zu Sprachkursen geht. Solche Entscheidungen basieren oft auf voreingenommenen Daten und zementieren bestehende Ungleichheiten, anstatt sie zu verringern.

Wertebasierte Modelle: Eine bessere Wahl für gemeinwohlorientierte Unternehmen?

Gemeinwohlorientierte Organisationen verlassen sich also auf KI-Basismodelle, ohne die in den zugrunde liegenden Trainingsdaten eingebetteten Wertentscheidungen zu berücksichtigen. Sie sollten darüber nachdenken, KI-Modelle zu wählen, deren Trainingsdaten besser mit ihren eigenen Werten übereinstimmen – bisher ist das nicht möglich. Es ist aber in ihrem Interesse, Technologie zu nutzen, nicht nur effizient, sondern auch ethisch vertretbar, also etwas fair und inklusiv ist.

Zudem sollten alternative Ansätze transparenter gemacht werden. Denn: eine Wahl zu haben, gibt uns als Kund:innen  und Nutzer:innen Macht. Und eine gemeinwohlorientierte Wahl untermauert die Glaubwürdigkeit gemeinwohlorientierter Unternehmen und stärkt ihre Wirkung.

Unsere Studie: Eine genaue Analyse der Trainingsdaten

Um diese Herausforderungen zu adressieren, führen wir bei reframe[Tech] eine Studie durch, die sich intensiv mit den Trainingsdaten von Basismodellen auseinandersetzt. Dafür arbeiten wir mit Professorin Anne L. Washington von der New York University, derzeit Fellow an der Stanford University und Autorin von „Ethical Data Science: Prediction in the Public Interest“, zusammen, um Kriterien zur Bewertung der Datenfundamente von Basismodellen zu entwickeln. Diese Studie wird Anfang 2025 veröffentlicht.

Gemeinwohlorientierte Organisationen haben die Möglichkeit, ihre Werte auch im digitalen Bereich zu vertreten – und wir wollen ihnen dabei helfen, dies verantwortungsvoll zu tun. Denn wie bei einem stabilen Fundament, das die Sicherheit des gesamten Hauses gewährleistet, müssen auch die Datenfundamente von KI-Modellen stabil und wertebasiert sein, damit die darauf aufbauenden Anwendungen den ethischen Ansprüchen der nutzenden Organisationen standhalten.

Bleiben Sie informiert!

Für kontinuierliche Updates und inhaltlichen Austausch zu diesem Thema folgen Sie unserem LinkedIn-Kanal oder kontaktieren Sie mich gerne unter teresa.staiger@bertelsmann-stiftung.de.