Die Empfehlungsalgorithmen großer Plattformen begünstigen oft die Verbreitung polarisierender Inhalte und können gesellschaftliche Spaltungen verstärken. Wie stattdessen wieder produktive Konflikte und gegenseitiges Verständnis gefördert werden können, zeigt ein neu entwickelter Empfehlungsalgorithmus der Organisation Jigsaw.
Die Diskurse in sozialen Medien sind von extremer Polarisierung geprägt, was den politischen Druck erhöht, Maßnahmen gegen die Verbreitung von Hassrede und Desinformation zu ergreifen.
Eine zentrale Rolle spielen in diesem Kontext die Empfehlungsalgorithmen der Plattformen, die entscheiden, welche Inhalte den Nutzer:innen angezeigt werden. Diese Algorithmen sind derzeit hauptsächlich darauf ausgerichtet, Interaktionen zu maximieren, um durch längere Verweildauer der Nutzer:innen auf der Plattform höhere Werbeeinnahmen zu erzielen. Dabei steht nicht die Qualität der Inhalte im Vordergrund, sondern dass Inhalte möglichst viel geklickt, gelikt oder geteilt werden. Dies sind wiederum oft polarisierende und spaltende Inhalte, die aufgrund der Ausrichtung der Empfehlungsalgorithmen große Verbreitung finden.
Alternative Empfehlungssysteme
Eine Alternative zu den bestehenden Empfehlungssystemen der Plattformen sind sogenannte Bridging-Algorithmen. Dazu haben wir im letzten Jahr auch eine Webseite veröffentlicht, die das Thema anschaulich erklärt und Fallbeispiele illustriert. Bridging-Algorithmen sind Empfehlungssysteme, die produktive Konflikte und gegenseitiges Verständnis fördern sollen. Anstatt Inhalte nur auf der Grundlage von Interaktionsmaximierung zu sortieren, bevorzugen Bridging-Algorithmen Inhalte, die ausgleichend wirken und von verschiedenen Meinungsgruppen gleichermaßen positiv aufgenommen werden.
Bekannte Anwendungsbeispiele für Bridging-Algorithmen sind das Umfragetool Polis, das in Taiwan häufig zur Bestimmung von Meinungsbildern in der Bevölkerung eingesetzt wird, und das Inhaltsmoderationsprogramm Community Notes von X (vormals Twitter). Zwar haben auch große Onlineplattformen wie Meta bereits erste Experimente mit Bridging-Algorithmen unternommen, doch gibt es nur wenige öffentliche Informationen darüber. Außerdem wurde bisher noch kein öffentlich zugänglicher Bridging-Algorithmus entwickelt, den interessierte Plattformen nutzen könnten, um Ihre Inhalte zu sortieren.
Bridging-Algorithmen klassifizieren Onlinebeiträge nach anderen Kriterien
Diese Leerstelle wurde jetzt von Jigsaw, dem Technologie-Inkubator von Google, adressiert. So hat Jigsaw Bridging-Algorithmen bzw. Bridging-Klassifikatoren entwickelt und öffentlich zugänglich gemacht, die von sozialen Medien oder Verlagshäusern eingesetzt werden können, um Inhalte oder Kommentare zu sortieren.
Die Entwicklung ist Teil eines größeren Projekts zur Verbesserung der Qualität von Onlinediskursen. Im Jahr 2017 veröffentlichte die Organisation die Perspective API, eine offene Programmierschnittstelle, die von interessierten Organisationen genutzt werden kann, um mithilfe von maschinellem Lernen beleidigende oder unangemessene Kommentare herauszufiltern. Die Anwendung wird bereits von Unternehmen wie der New York Times, Reddit oder dem Economist genutzt.
Während Perspective API beleidigende Kommentare gut erkennen kann, war es jedoch lange nicht möglich, besonders konstruktive Kommentare zu identifizieren. Diese Lücke wurde nun geschlossen und das Produkt wurde um Bridging-Algorithmen erweitert.
Wie die Bridging-Algorithmen von Jigsaw funktionieren
Bei den Bridging-Algorithmen von Jigsaw handelt es sich um Klassifikatoren, die Inhalte und Kommentare mit einem Wert zwischen 0 und 1 bewerten. Die Bewertung basiert auf verschiedenen sogenannten Bridging-Attributen. Die Klassifikatoren identifizieren Attribute wie zum Beispiel, ob ein Beitrag eine persönliche Geschichte, Neugier, Nuancen, Mitgefühl, stringente Argumentation, Affinität oder Respekt enthält.
In der Praxis bedeutet dies, dass zum Beispiel in einer Diskussion um politische Themen wie dem Mindestlohn der Nuancen-Klassifikator Inhalte oder Kommentare danach bewertet, wie gut verschiedene Standpunkte einbezogen wurden, um ein vollständiges Bild zu liefern oder nützliche Details bereitzustellen. Plattformen können auf dieser Grundlage ihre Inhalte neu ordnen und diejenigen Inhalte bevorzugen, die besonders ausgewogen sind. Da die Klassifikatoren immer einen Wert zwischen 0 und 1 abgeben, können sie auch kombiniert werden, um verschiedene Bridging-Attribute gleichzeitig zu berücksichtigen.
Fortschritte dank neuer Sprachmodelle
Das gesamte Projekt wurde erst durch die jüngsten Durchbrüche bei großen Sprachmodellen möglich. Während die Klassifizierung von Sprache mithilfe von Sprachmodellen – das heißt zum Beispiel, ob ein Beitrag beleidigend war – lange sehr fehlerbehaftet war, ist die jüngste Generation von Sprachmodellen deutlich besser geworden, auch komplexere sprachliche Konzepte zu erkennen.
Das zeigt sich auch in der Forschung zur Wirksamkeit von Bridging-Algorithmen, die zwar noch sehr am Anfang steckt, doch bereits erste vielversprechende Ergebnisse liefert.
In einer Studie, die Anfang dieses Monats veröffentlicht wurde, untersuchte Jigsaw, wie Leser:innen auf eine Liste von Kommentaren reagieren, die mithilfe der neuen Bridging-Klassifikatoren bewertet wurden, im Vergleich zu Kommentaren, die nach Aktualität sortiert wurden. Das Ergebnis zeigte, dass Leser:innen die von den Klassifikatoren sortierten Kommentare bevorzugten und sie als informativer, respektvoller, vertrauenswürdiger und interessanter empfanden.
Bridging-Algorithmen helfen nicht überall
Trotz der Fortschritte gibt es noch viele offene Fragen und Herausforderungen im Umgang mit Bridging-Algorithmen. Zwar sind Sprachmodelle viel besser darin geworden, komplexe sprachliche Konzepte zu erkennen, doch gleichzeitig haben diese auch viele BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht., die wiederum bei der Bewertung von Beiträgen reproduziert werden können. Genauso stellt sich die Frage, welches Maß an Polemik in bestimmten Onlinediskursen vielleicht sogar wünschenswert ist und wie eine Trivialisierung der Debatten verhindert werden kann.
Die große politische Frage ist, wie Plattformen dazu gebracht werden können, Bridging-Algorithmen stärker beim Sortieren der Inhalte zu berücksichtigen. Ein interessantes Anwendungsfeld könnte die von Google betriebene Videoplattform YouTube sein. Laut Jigsaw gibt es jedoch bisher keine konkreten Pläne, die Inhalte auf YouTube mithilfe der Bridging-Klassifikatoren zu ordnen.
Einige Plattformen könnten womöglich freiwillig Bridging-Algorithmen nutzen
Es gibt bisher auch keine verabschiedete Regulierung, die Plattformen verpflichtet, ihre Empfehlungsalgorithmen stärker nach Bridging-Attributen auszurichten. Neben möglichen regulativen Eingriffen gibt es womöglich zumindest für einige Plattformen noch ein wirtschaftliches Argument sich dem Thema stärker zu öffnen.
Wissenschaftler:innen an der Universität Berkeley testen derzeit verschiedene Empfehlungsalgorithmen und untersuchen das Verhältnis zwischen Empfehlungsalgorithmen und Nutzerinteraktion. Dabei geht es um die Frage, ob ein Bridging-Algorithmus entwickelt werden kann, der kurzfristig vielleicht weniger Interaktion in Form von Klicks hervorruft, aber langfristig bedeutendere Interaktionen ermöglicht. Nicht für alle Plattformen ist nur die Interaktion gemessen an Klicks wichtig – wie es derzeit besonders stark bei X der Fall ist. Die Art der Interaktion kann ebenfalls entscheidend sein, da weniger, aber engagiertere Nutzer:innen wichtiger sein können als eine größere, aber passive Nutzer:innenschaft.
Der von Jigsaw veröffentlichte Bridging-Klassifikator könnte der erste Schritt zu einer umfassenderen Auseinandersetzung mit den Empfehlungsalgorithmen von Plattformen sein. Die Moderierung von Inhalten verankert zum Beispiel in gesetzlichen Vorgaben wie dem Digital Services Act, bleibt natürlich wichtiger denn je. Gleichzeitig kann ein stärkerer Fokus darauf, wie Inhalte überhaupt erst sortiert werden, jedoch ein weiterer wichtiger Hebel sein, um den digitalen Diskurs nachhaltig zu verbessern.
Dieser Text ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben