Die rasche Verbreitung von Basismodellen wie GPT hat viel Begeisterung ausgelöst, wirft jedoch auch Fragen zu den Werten auf, die in diesen Technologien verankert sind. Dies gilt insbesondere bei den zugrunde liegenden Trainingsdaten, da sie maßgeblich die Art und Weise beeinflussen, wie KI-Modelle funktionieren und welche Ergebnisse sie liefern. Für gemeinwohlorientierte Organisationen sollte sich die Frage stellen, ob sie nicht lieber Modelle wählen, deren Trainingsdaten ihre Werte und Überzeugungen stärker repräsentieren. Dafür gibt es aber bis jetzt zu wenig Evidenz. Daher werden wir eine Studie durchführen, die die Trainingsdaten genauer untersucht, um zum einen Organisationen dafür zu sensibilisieren und zum anderen mehr Transparenz bei der Nutzung von Basismodellen zu schaffen.
Bleiben Sie auf dem Laufenden! Tragen Sie Ihre E-Mail Adresse ein und klicken Sie auf abonnieren.
„Erlesenes“ ist ein zweiwöchentlicher Newsletter von reframe[Tech] und bietet eine kuratierte Auswahl an wissenschaftlichen Studien, journalistischen Artikeln und Debattenbeiträgen sowie Fundstücken mit Augenzwinkern aus sozialen Medien zum Themenkomplex Algorithmen und KI.
Abonnieren Sie hier unseren monatlichen Projektnewsletter. Gerne informieren wir Sie per E-Mail über aktuelle Projektaktivitäten und Neuigkeiten im Blog „reframe[Tech].