Basismodelle dienen als Fundament für viele verschiedene KI-Anwendungen, sei es für Chatbots, Übersetzungs- oder Bildtools. Sie können wichtige und sinnvolle (Arbeits-)Werkzeuge sein und haben in den letzten Jahren eine zentrale Rolle eingenommen. Obwohl die Systeme immer relevanter sind, besteht nach wie vor viel Intransparenz über ihre Funktionsweise und ihre Schattenseiten. Aus diesem Grund bietet diese Seite einen Überblick über das Ökosystem von KI-Basismodellen und weist auf zentrale Punkte und Herausforderungen bei ihrer Entwicklung und ihrem Einsatz hin.

Im Folgenden werden die Modelle und ihre Funktionsweisen sowie Probleme, die mit ihrer Entwicklung und ihrem Einsatz einhergehen, erklärt, um eine Übersicht über das Ökosystem „Basismodelle“ zu bieten.

Für einen detaillierte Betrachtung der Beschaffenheit von Basismodellen bietet diese Seite außerdem einen exemplarischen Vergleich von sieben konkreten Basismodellen, sei es von Modellarchitektur und Größe, Trainingsdaten, Ressourcenverbrauch, Datenschutz und weiteren Kategorien.

Zum exemplarischen Vergleich

Die Entwicklung von KI-Basismodellen lässt sich wie ein komplexes Ökosystem verstehen, in dem alle Ebenen eng miteinander verbunden sind und wie in der Natur aufeinander aufbauen:

  • Trainingsdaten bilden den „Nährboden“ – wie Mikroorganismen bereiten sie den Boden.
  • Basismodelle wurzeln in diesen Daten und erkennen Muster.
  • Daraus „wachsen“ vielfältige Anwendungen, wie Chatbots oder Übersetzungstools, ähnlich wie Bäume.

Dieses Bild des Ökosystems zeigt, dass jede Schicht – von den Trainingsdaten über die Basismodelle bis hin zu den Anwendungen – eine zentrale Rolle spielt und voneinander abhängig ist. Nur ein vielfältiger, gut kuratierter Nährboden ermöglicht ein starkes, fair verwurzeltes KI-Ökosystem, das positive Auswirkungen auf die Gesellschaft hat und möglichst viele Perspektiven berücksichtigt.

Das KI-Ökosystem verstehen

Die Entwicklung von KI-Basismodellen lässt sich wie ein komplexes Ökosystem verstehen, in dem alle Ebenen eng miteinander verbunden sind. Am Fundament dieses Systems stehen die Trainingsdaten, die man sich wie Mikroorganismen vorstellen kann, die in ihrer Summe als „Nährboden“ dienen und den Boden für KI-Modelle bereiten. Diese Daten werden oft durch automatisierte Prozesse wie Web Scraping aus riesigen Mengen an Onlineinformationen zusammengetragen. Sie dienen den Modellen als Datenquelle, die sie benötigen, um Muster zu erkennen und Aufgaben zu erfüllen.

Auf diesen Daten wurzeln die Basismodelle. Sie bilden die Grundlage und „Wurzeln“ für eine Vielzahl von Anwendungen, wie zum Beispiel Chatbots, Übersetzungstools oder Textgeneratoren. Diese Anwendungen sind die „Bäume“, die aus den Basismodellen hervorgehen und in unterschiedlichen Bereichen wachsen und gedeihen können.

Foundation Models, auf Deutsch auch „Basismodelle“ oder „Grundlagenmodelle“ bezeichnet, bilden das Fundament für zahlreiche KI-Anwendungen.

Basismodelle sind große KI-Modelle, die auf umfangreichen Datensätzen trainiert werden und verschiedene Aufgaben erledigen können, ohne für jede Aufgabe speziell programmiert zu werden. Anders als bei Systemen, denen Regeln explizit vorgegeben werden, „lernen“ Basismodelle diese Regeln selbstständig aus den Trainingsdaten. Dazu werden sie mit riesigen Mengen an Informationen aus dem Internet, Büchern und anderen Quellen „gefüttert“ und erkennen auf dieser Grundlage Muster und Zusammenhänge, anhand derer sie „neuen“ Output generieren bzw. erstellen können, sei es Texte oder Bilder (siehe Sprachmodell oder Bildmodell).

Wichtigste Merkmale:

  • Größe: Sie bestehen oft aus Milliarden von Parametern, die die Mustererkennung und Vorhersagen des Modells ermöglichen.
  • Vielseitigkeit: Ein einzelnes Modell kann für verschiedene Aufgaben eingesetzt werden.
  • Transfer Learning: Das Gelernte lässt sich auf neue, unbekannte Aufgaben übertragen.
  • Selbstüberwachtes Lernen: Sie lernen oft ohne menschliche Annotation der Trainingsdaten, also ohne zusätzliche Kennzeichnungen der Trainingsdaten, die ihnen die Bedeutung der Daten „erklären“ würden.

Funktionsweise

Datensammlung

Zunächst sammeln Entwickler:innen bzw. Unternehmen enorme Mengen diverser Daten, dies können zum Beispiel Millionen von Texten aus dem Internet, Büchern und Artikeln sein.

Vortraining

In dieser Phase „lernt“ das Modell grundlegende Muster und Zusammenhänge. Ein SprachmodellSprachmodell Eine Art von KI-Modell, das darauf spezialisiert ist, menschliche Sprache zu verstehen und zu generieren. Sprachmodelle werden auf großen Textkorpora trainiert und können Aufgaben wie Textgenerierung, Übersetzung und Zusammenfassung bewältigen, indem sie Muster und Strukturen in der Sprache erlernen. erfasst beispielsweise Sprachstrukturen und kontextuelle Bedeutungen, die in vielen verschiedenen Zusammenhängen nützlich sein können.

Feature Extraktion

Bei diesem Schritt wird das Modell darauf trainiert, wesentliche Informationen aus Eingabedaten zu filtern. Bei einem Satz wie „Der alte Hund spielte fröhlich im sonnigen Park“ werden zum Beispiel Kernelemente wie Subjekt, Handlung und Kontext identifiziert.

Finetuning

Abschließend wird das vortrainierte Modell für spezifische Anwendungen optimiert. Ein allgemeines Sprachmodell könnte beispielsweise mit Organisationsdokumenten spezialisiert werden, um die Fachsprache zu erlernen und in einem Chatbot eingesetzt zu werden, der kontextbezogene Antworten auf organisationsspezifische Anfragen liefern kann.

Anwendungsbereiche

Grundlagenmodelle finden in zahlreichen Bereichen Anwendung:

Natürliche Sprachverarbeitung

Textgenerierung, Übersetzung, Sentimentanalyse, also das automatische Erkennen von Stimmungen und Meinungen. Diese Modelle nennt man auch Sprachmodelle

Computer Vision

Bilderkennung, Objektdetektion, Bildsegmentierung, also die Unterteilung eines Bildes in relevante Bereiche oder Objekte. Diese Modelle nennt man auch Bildmodelle

Multimodale Anwendungen

Text-zu-Bild-Generierung, visuelle Frage-Antwort-Systeme. Siehe Multimodale Modelle

TransformerTransformer-Architektur Eine Art von neuronaler Netzwerkarchitektur, die besonders effektiv bei der Verarbeitung sequenzieller Daten wie zum Beispiel bei Texten ist. Transformer verwenden den Mechanismus Self-Attention, der Beziehungen zwischen verschiedenen Elementen in einer Sequenz erfasst, was zu einem verbesserten Verständnis von Kontexten führt. sind wie das „Gehirn“ der bisher beschriebenen Modelle und bilden die Architektur für neuronale Netze. Sie ermöglichen den Modellen, wichtige Informationen und Muster zu erkennen und miteinander zu verknüpfen.
Transformer werden für viele KI-Modelle verwendet, von Sprachverarbeitung bis hin zur Bildanalyse.

Kernkonzept

Transformer basieren auf dem Prinzip der „Selbstaufmerksamkeit“ (Self-Attention), um Zusammenhänge in Daten zu erkennen. Ähnlich wie ein Mensch beim Lesen wichtige Wörter besonders beachtet, kann ein Transformer die Bedeutung einzelner Elemente im Kontext des Ganzen „verstehen“.
So können sie die Bedeutung eines Elements (z. B. ein Wort oder ein Bildteil) im Kontext aller anderen Elemente verstehen.
Dies geschieht durch einen Mechanismus, indem das Modell seine Aufmerksamkeit gezielt auf die relevantesten Teile der Eingabe richtet.

Wie funktioniert das?

  • Das Modell analysiert jedes Element (z. B. ein Wort) in Beziehung zu allen anderen Elementen.
  • Dabei gewichtet es, wie wichtig die anderen Elemente für das Verständnis sind.
  • So entstehen Verknüpfungen zwischen zusammenhängenden Elementen.

Ein Beispiel: Im Satz „Der Hund, der die Katze jagte, war groß“ erkennt das Modell:

  • „war“ gehört stark zu „Hund“ (Wer war etwas? → der Hund)
  • „war“ gehört auch zu „groß“ (Was war der Hund? → groß)
  • Die Information über die Katze ist für „war“ weniger wichtig

Durch diese Verknüpfungen „versteht“ das Modell den Zusammenhang: Es geht um einen großen Hund.
Dieser Prozess wird für jedes Element im Text wiederholt, sodass das Modell die Bedeutung des gesamten Textes erfassen kann.

Trainingsdaten bilden den „Nährboden“ für Basismodelle – ähnlich wie Mikroorganismen den Boden für Pflanzen bereiten. Diese Daten sind die Grundlage, aus der die Modelle Muster erkennen und lernen, Aufgaben wie Textgenerierung zu bewältigen. Die Beschaffung dieser Daten erfolgt häufig durch Web Scraping, also das automatisierte Sammeln von Informationen aus dem Internet. Der Umfang ist dabei enorm: Eines der größten Trainingsdatensets umfasst Material von 15 Millionen verschiedenen Web-Adressen.
Diese Praxis wirft jedoch rechtliche und ethische Fragen auf: Viele der genutzten Quellen sind urheberrechtlich geschützt. Ein aktuelles Beispiel ist die Klage der „New York Times“ gegen OpenAI und Microsoft wegen der unautorisierten Nutzung ihrer Inhalte zum Training von KI-Modellen. Auch verzerrte Datensätze, die zu problematischen Ergebnissen führen können, spielen eine zentrale Rolle. Mehr dazu im Kapitel “Übersehene Probleme”.


Multimodale Modelle: Die Multitalente

Multimodale Modelle sind Systeme, die gleichzeitig auf visuelle, sprachliche und akustische Signale reagieren können. Sie „verstehen“, verarbeiten und kombinieren verschiedene Arten von Informationen, wie etwa Text, Bild und Ton.

Deshalb stellen multimodale Modelle einen weiteren Fortschritt in der Entwicklung von KI-Systemen dar, indem sie die Fähigkeiten von spezialisierten Modellen wie Sprachmodellen und Bildmodellen kombinieren.

Kernkonzept

Der zentrale Aspekt multimodaler Modelle liegt in ihrer Fähigkeit, unterschiedliche Datentypen wie Texte, Bilder, Audio und Video zu erfassen und zu interpretieren. Dies ermöglicht ein ganzheitliches und kontextreicheres Verständnis von Inhalten, das über die Möglichkeiten einzelner, spezialisierter Modelle hinausgeht.

Funktionsweise

Multimodale Modelle nutzen fortschrittliche Architekturen, die angepasst wurden, um verschiedene Eingabetypen zu verarbeiten. Sie „lernen“, wie diese verschiedenen Datenarten zusammenhängen, sodass sie Informationen übergreifend verknüpfen und analysieren können. Dabei nutzen sie die Stärken spezialisierter Modelle und können zusätzlich verschiedene Datentypen miteinander verbinden. Ein Beispiel dafür ist ein Sprachassistent, der gesprochene Sprache (Ton) in Text umwandelt und dann Informationen aus Bildern und Texten kombiniert, um eine passende Antwort zu geben.

Allerdings gelten für multimodale Modelle die gleichen Einschränkungen wie für Sprach- und Bildmodelle. Sie erkennen Muster in den Trainingsdaten und wenden diese an, ohne tatsächlich zu verstehen, was sie verarbeiten. Dies kann zu Verzerrungen oder fehlerhaften Interpretationen führen, besonders wenn die Trainingsdaten unausgewogen oder nicht repräsentativ sind (siehe verzerrte Trainingsdaten)

.

Anwendungsbereiche

Die Einsatzmöglichkeiten für multimodale Modelle sind vielfältig und umfassen:

  • visuelle Frage-Antwort-Systeme, die Textfragen zu Bildern beantworten können
  • Text-zu-Bild-Generierung, bei der aus textuellen Beschreibungen Bilder erzeugt werden
  • Videoanalyse mit Berücksichtigung von Bild, Ton und Untertiteln
  • multimodale Sentimentanalyse, die Text und Sprache kombiniert
  • Robotik, wo verschiedene Sensordaten integriert werden müssen

Bei der Entwicklung und dem Einsatz von KI-Modellen wird oft nur an Bits und Bites gedacht. Doch der Ressourcenverbrauch ist enorm und hat reale Konsequenzen für die Umwelt – seien es der hohe Wasserverbrauch, die Rohmaterialen und die Energie zur Herstellung der Hardware.

Ein paar Zahlen: 

  • Der Betrieb von ChatGPT im März 2024 hat etwa 700.000 Liter Frischwasser und so viel Energie verbraucht wie 180.000 US-Haushalte.
  • Das Erzeugen eines Bildes mit einem BildmodellBildmodell Ein KI-Modell, das auf die Verarbeitung und Analyse visueller Informationen ausgerichtet ist. Bildmodelle können Aufgaben wie Bilderkennung, Objektdetektion und Bildsegmentierung durchführen und werden zunehmend auch für die Generierung von Bildern basierend auf textuellen Beschreibungen eingesetzt. verbraucht so viel Energie wie das vollständige Aufladen eines Smartphones.
  • Das Training des Modells BERT erzeugte etwa so viele Emissionen, wie sie fünf Autos über ihren gesamten Produktlebenszyklus erzeugen würden.
  • Ein „Gespräch“ mit ChatGPT erfordert etwa einen halben Liter Wasser.
  • Für die Kühlung der Google-Rechenzentren in den USA wurden 2021 rund 12,7 Milliarden Liter Frischwasser benötigt.

Die Hauptursache für diesen Ressourcenverbrauch liegt in der Größe und Komplexität der Basismodelle: Je größer und komplexer ein Modell, desto mehr Energie, Wasser und Hardware werden benötigt. Gleichzeitig hängt der ökologische Fußabdruck auch sehr davon ab, wie effizient das Training und der Betrieb dieser Modelle gestaltet sind. Neben der Energie und dem Wasser, die für den Betrieb benötigt werden, spielt auch die Produktion der benötigten Hardware eine Rolle. Hier werden seltene Rohstoffe und Metalle verbraucht, deren Abbau und Verarbeitung wiederrum zu Umweltbelastungen- und schäden führen.

Aktuell fehlen jedoch viele konkrete Daten zum Ressourcenverbrauch von KI-Modellen, da Unternehmen oft nicht offenlegen, wie viel Energie oder Wasser in ihren Prozessen verbraucht wird. Auch die Emissionen, die während der Entwicklung entstehen, werden selten genau dokumentiert.

Wie bei den Trainingsdaten zeigt sich auch beim Ressourcenverbrauch, dass es dringend mehr Transparenz braucht. Nur so lassen sich Maßnahmen entwickeln, um die genannten Umweltbelastungen spürbar zu reduzieren – etwa durch kleinere und sparsamere Modelle sowie energieeffizientere Rechenzentren. Auch gesetzliche Vorgaben könnten hier helfen: etwa die Verpflichtung der Unternehmen zur Offenlegung ihres Ressourcenverbrauchs sowie zur energieeffizienteren und ressourcenschonenden Entwicklung und Nutzung von KI-Modellen.

Ausbeutung im Schatten der Automatisierung: die Menschen hinter den Modellen

KI-Modelle erwecken den Eindruck, vollständig automatisierte Anwendungen zu sein, doch in Wirklichkeit sind sie auf die akribische Arbeit von menschlichen Arbeitnehmer:innen angewiesen. Denn das Training von großen KI-Modellen verlangt eine Unmenge menschlicher Arbeit und die hat ihren Preis. Deswegen verlassen sich Technologiefirmen auf günstige Arbeitskräfte in Ländern, in denen Arbeiter:innen kaum vor ausbeuterischen Praktiken geschützt werden. Ihre Aufgaben bestehen darin, Daten zu labeln und KI-Ergebnisse zu überprüfen und zu bewerten. In einer Investigativrecherche wurde aufgedeckt, dass auch OpenAI auf günstige Arbeitskräfte aus dem globalen Süden zurückgreift.

Für die Entwicklung seines textbasierten Chatbots ChatGPT hat das Unternehmen Arbeiter:innen in Kenia eingesetzt, die weniger als 2 US-Dollar pro Stunde verdienten. Ihre Aufgabe war es, besonders gefährliche und schädliche Inhalte herauszufiltern. Sie sahen sich tagtäglich mit detaillierten Beschreibungen von sexuellem Kindesmissbrauch, Mord oder Selbstverletzung konfrontiert. Eine Arbeitskraft beschrieb die traumatischen Arbeitsbedingungen als „Folter“.

KI-Systeme sind zwar technologisch fortschrittlich, aber ohne menschliche Annotationen, also das Markieren und Beschreiben von Daten, wären sie nicht in der Lage, Objekte in der realen Welt zu erkennen. Die Arbeitsteilung ist global: Firmen aus wohlhabenden Ländern wie den USA und Deutschland entwickeln KI-Systeme, während die eigentliche Vorbereitung der Trainingsdaten, also etwa die annotierten Daten, von Menschen in Ländern wie Indien oder Kenia bereitgestellt werden. Diese Arbeitsteilung trägt zu einer wirtschaftlichen Ungleichheit bei: Während die hochqualifizierten und besser entlohnten Tätigkeiten der KI-Entwicklung in wohlhabenden Ländern, meist des Globalen Nordens, angesiedelt sind, wird die zeitintensive und oft geringer bezahlte Aufgabe der Datenannotation und -bereinigung an Menschen in wirtschaftlich schwächere Regionen – meist im Globalen Süden – ausgelagert, die selten von dem technischen Fortschritt, den sie ermöglichen, profitieren.

Die Frage, wie wir faire Arbeit auch beim Training von KI-Systemen sicherstellen, bleibt derzeit offen – es gibt mittlerweile aber erste Proteste und Gegenbewegungen, wie zum Beispiel die Gründung einer Gewerkschaft in Kenia zeigt.

Eine weitere Herausforderung bei der Sammlung von Daten für das Training von Basismodellen ist, dass oftmals bestimmte Quellen überrepräsentiert sind und die Vielfalt von verschiedenen Kulturen, Geschlechtern und sozialen Gruppen nicht angemessen in den Daten abgebildet wird. Einseitige oder unvollständige Datengrundlagen können dann etwa dazu führen, dass im Output von KI-Modelle bestimmte Gruppen oder Perspektiven bevorzugt werden und so die Vielfalt und Komplexität der Gesellschaft nicht angemessen repräsentiert wird oder bestimmte Perspektiven marginalisiert werden. Die zum Training der Basismodelle verwendeten Daten spiegeln überwiegend westliche und patriarchale Perspektiven und Werte wider. Verzerrungen (Biases) sind also vorprogrammiert und unzählige Beispiele zeigen, dass die Modelle bestehende Vorurteile und Stereotypen nicht nur reproduzieren, sondern sogar verstärken: von Fällen geschlechterbasierter Gewalt in generativen KI-Modellen über Geschlechterbias in von Sprachmodellen generierten Empfehlungsschreiben bis hin zu rassistischen Ratschlägen und stereotypen Darstellungen von Ärzt:innen und anderen Berufsgruppen. Auch gibt es Studien, die belegen, dass von KI-Systemen generierte Verzerrungen das Verhalten einer Person nachhaltig beeinflussen können – selbst nachdem sie das Programm nicht mehr nutzt.

Die Beschaffenheit der Trainingsdaten beeinflussen also die Qualität und Fairness des gesamten BasismodellBasismodell Ein großes, auf umfangreichen Datensätzen trainiertes KI-Modell, das als Grundlage für verschiedene spezifische Anwendungen dient. Foundation Models/Basismodelle können für eine Vielzahl von Aufgaben in verschiedenen Anwendungsgebieten feinabgestimmt werden.-Ökosystems. Wenn das Fundament eines Hauses schief ist, werden auch die darauf gebauten Wände wackeln. So ist es auch bei KI-Modellen: Wenn die Trainingsdaten bereits Verzerrungen und Fehler enthalten, setzen sich diese in den Anwendungen, die auf diesen Modellen basieren, fort. 

Die meisten KI-Unternehmen dokumentieren nicht, wie sich ihre Trainingsdatensätze konkret zusammensetzen, was zu einer großen Intransparenz führt, da man nicht weiß, welche Daten in den Trainingsdatensätzen stecken und wie sie zusammengestellt wurden. Und es folglich auch für Entwickler:innen, Forscher:innen und andere schwierig ist, Verzerrungen zu adressieren, schädliche Inhalte aus den Daten zu entfernen oder urheberrechtlich geschützte Inhalte zu identifizieren.

Weitere Herausforderungen – und wie sie adressiert werden können

  • Ethik und Fairness: Vorurteile und Ungleichheiten aus den Trainingsdaten können von dem Modell übernommen und verstärkt werden, siehe verzerrte Trainingsdaten. Um sicherzustellen, dass die Modelle fair und transparent eingesetzt werden, sollten wir uns besonders mit BiasBias In der KI bezieht sich Bias auf Verzerrungen in Modellen oder Datensätzen. Es gibt zwei Arten: Ethischer Bias: systematische Voreingenommenheit, die zu unfairen oder diskriminierenden Ergebnissen führt, basierend auf Faktoren wie Geschlecht, Ethnie oder Alter. Mathematischer Bias: eine technische Abweichung in statistischen Modellen, die zu Ungenauigkeiten führen kann, aber nicht notwendigerweise ethische Probleme verursacht., also Vorurteilen, unter anderem in den Daten auseinandersetzen, Fairness fördern und dafür sorgen, dass die Modelle interpretierbar und erklärbar sind.
  • Datenschutz und Sicherheit: Die Verwendung urheberrechtlich geschützter Daten im Training kann rechtliche Probleme verursachen. Beim Training und Einsatz von KI-Modellen wird es wichtig sein, persönliche Daten zu schützen und Techniken zu entwickeln, um Missbrauch zu verhindern.
  • Ressourcenmanagement: Sowohl das Training und als auch der Einsatz erfordern viel Rechenleistung und Energie und belasten dadurch die Umwelt erheblich, siehe Ressourcenverbrauch. Um den hohen Energie- und Rechenbedarf für das Training und Betrieb von KI-Modellen zu bewältigen, müssen Ressourcen schonender eingesetzt werden und umweltfreundlichere Technologien entwickelt werden.
  • Regulierung: Um einen verantwortungsvollen Umgang mit KI zu gewährleisten, müssen rechtliche Rahmenbedingungen an die sich schnell entwickelnden Technologien angepasst und globale Standards für die Entwicklung und den Einsatz von KI etabliert werden – zum Beispiel die Offenlegung von Trainingsdaten und -methoden.
  • Zuverlässigkeit und Robustheit: Man kann sich diese Modelle wie eine Black Box vorstellen: Sie liefern uns zwar Ergebnisse, aber es ist oft nicht nachvollziehbar, wie sie zu diesen gekommen sind. Um das Vertrauen in KI-Systeme zu stärken, sollte daran gearbeitet werden, dass zum einen ihre Ergebnisse konsistenter und zuverlässiger, aber auch ihre Fehlbarkeit deutlich wird. Zum anderen spielt dabei der Aufbau von Kompetenzen im Umgang mit KI eine zentrale Rolle. Dazu sollten Methoden entwickelt werden, um mit Unsicherheiten, zum Beispiel hervorgerufen durch unvollständige Daten und unbekannte Situationen, die nicht den Trainingsdaten angelegt sind, besser umgehen zu können.

Dieser Abschnitt bietet eine exemplarische Übersicht verschiedener Basismodelle, basierend auf zentralen Kriterien:

  1. Ziel der Entwicklung und Anwendungsfälle
  2. Modellarchitektur und Größe
  3. Offenheit, technische Dokumentation und InteroperabilitätInteroperabilität Die Fähigkeit verschiedener Systeme oder Komponenten, nahtlos zusammenzuarbeiten und Informationen auszutauschen, ohne dass spezielle Anpassungen erforderlich sind. In der KI ermöglicht Interoperabilität die Integration verschiedener Modelle und Tools in größere Systeme oder Workflows.
  4. Trainingsdaten, Datenqualität, Ethik und Fairness
  5. Datenschutz und Sicherheit
  6. Ressourcenverbrauch

GPT (OpenAI)

  • Entwicklung
  • Architektur
  • Offenheit
  • Trainingsdaten & Ethik
  • Datenschutz

Ziel der Entwicklung:

  • Vielseitige Sprachverarbeitung und -generierung: GPT wurde entwickelt, um menschenähnliche Konversationen zu führen, und bildet die Grundlage für die Anwendung „ChatGPT“, einen Chatbot, der als virtueller Assistent bei einer Vielzahl von Aufgaben unterstützen soll.

Anwendungsfälle:

  • Textgenerierung, Übersetzung, Zusammenfassungen
  • Konversations-KI: Kundenservice und Support, Chatbots für Websites
  • Erstellung von jeglichem Content, wie das Verfassen von Artikeln oder Blog Posts

Architektur

  • GPT basiert auf der Transformer-Architektur, genauer gesagt auf dem GPT-3.5- und GPT-4-Modell. Diese Modelle nutzen ein „Decoder-Only“ Transformer Setup, das für Textgenerierung und Verarbeitung optimiert ist.

Größe:

  • Die GPT-3.5-Version von GPT hat etwa 175 Milliarden ParameterParameter Werte in einem KI-Modell, die während des Trainings angepasst werden und die Leistung des Modells bestimmen..
  • GPT-4, eine Weiterentwicklung, verbessert die Sprachverarbeitung mit erhöhter Kontextgröße und multimodalen Fähigkeiten.

Quellen:

Open SourceOpen Source Ein Entwicklungsmodell, bei dem der Quellcode eines Programms öffentlich zugänglich ist. Jeder kann den Code einsehen, modifizieren und weiterverbreiten. Open Source kann die Transparenz von Forschungsfeldern wie der KI fördern.:

  • Nein

Technische Dokumentation:

  • OpenAI bietet umfassende Dokumentation für GPT, die die Nutzung ihrer API (also Schnittstellen), die Einrichtung von Anfragen und das Management von Sessions abdeckt.
    Die Dokumentation erklärt, wie man die API für verschiedene Anwendungen wie Textgenerierung und Konversationen nutzt. Es wird auch die Anpassung von Modellen durch FeinabstimmungFeinabstimmung (Finetuning): Der Prozess, ein vortrainiertes Modell auf spezifische Aufgaben oder Datensätze anzupassen. beschrieben​.

Interoperabilität:

  • Flexibel mit Bibliotheken für die Integration in verschiedene Anwendungen​. Die API-Dokumentation von GPT ist als Chatbot selbst aufgebaut, sodass man einfache Fragen stellen kann. Außerdem ist sie so konzipiert, dass sie einfach in bestehende Systeme integriert werden kann. Es gibt umfangreiche Bibliotheken in verschiedenen Programmiersprachen, die Entwickler:innen helfen, GPT in ihre Anwendungen einzubinden.

Quellen:

Trainingsdaten

  • Große Mengen an Internettext, Büchern, Webseiten und anderen Quellen.
  • Deckt ein breites Themenspektrum ab, von alltäglichen Gesprächen bis hin zu akademischen Arbeiten.
  • Geschätzt mehrere hundert Milliarden Wörter umfassend.

Datenqualität

  • Breites Spektrum an Themen und Schreibstilen.
  • Qualitätsverbesserung durch menschliches Feedback (Reinforcement Learning from Human FeedbackRLHF Eine Methode, bei der KI-Modelle durch menschliches Feedback verbessert werdenRLHFRLHF Eine Methode, bei der KI-Modelle durch menschliches Feedback verbessert werden)
  • Kontinuierliche Updates zur Verbesserung der Genauigkeit und Reduzierung von Fehlinformationen.
  • Qualitätskontrolle durch menschliche Prüfer, um problematische Inhalte zu identifizieren und zu entfernen.

Ethische Überlegungen & Fairness

  • Implementierung von Inhaltsfiltern zur Vermeidung schädlicher oder anstößiger Inhalte. Bemühungen um respektvolle und informative Antworten.

Bias-Bewertung

  • Zeigt Tendenzen zu westlichen und englischsprachigen Perspektiven.
  • Geschlechtsspezifische Voreingenommenheiten wurden beobachtet, insbesondere bei beruflichen Stereotypen. Kulturelle Voreingenommenheiten können zur Überrepräsentation dominanter Kulturen in den Antworten führen.

Quellen

Datenschutz und -sicherheit:

  • OpenAI verwendet Verschlüsselung für die Datenübertragung und -speicherung.
  • Regelmäßige Überprüfungen der Sicherheitsmaßnahmen werden durchgeführt.

DSGVODSGVO (Datenschutz-Grundverordnung) Ein EU-Gesetz zum Schutz personenbezogener Daten und der Privatsphäre von EU-Bürgern.-Konformität

  • OpenAI arbeitet an der Einhaltung, die explizite und vollständige DSGVO-Konformität ist nicht bestätigt.

Datennutzung und -weitergabe

  • Eingaben können für Modellverbesserungen genutzt werden, Opt-out nur mit Unternehmensprofilen möglich.
  • Nutzer:innen können ihre Chatverläufe löschen.

Quellen

LLaMA (Meta)

  • Entwicklung
  • Architektur
  • Offenheit
  • Trainingsdaten & Ethik
  • Datenschutz

Ziel der Entwicklung:

  • LLaMA ist ein Forschungsmodell, das entwickelt wurde, um die Grenzen der Sprachmodellforschung zu erweitern und Zugang zu leistungsstarken Modellen für akademische Zwecke zu bieten​.

Anwendungsfälle:

  • Forschung
  • Experimentelle Studien zur Sprachmodellierung
  • Entwicklung neuer Algorithmen für Sprachverarbeitung​

Architektur

  • LLaMA nutzt die Transformer-Architektur und ist speziell für Forschung und akademische Anwendungen entwickelt worden. Es gibt verschiedene Varianten, die mit unterschiedlichen Parametergrößen zur Verfügung stehen, um verschiedene Forschungsanforderungen zu erfüllen.

Größe:

  • LLaMA-Modelle sind in Größen von 7 bis 65 Milliarden Parametern verfügbar, wobei die kleineren Versionen für weniger ressourcenintensive Anwendungen gedacht sind.

Quellen:

Open Source:

  • Teilweise

Technische Dokumentation:

  • LLaMA ist hauptsächlich für Forschungszwecke zugänglich und wird mit einem detaillierten technischen Bericht geliefert, der die Architektur und das Training des Modells beschreibt. Meta stellt Informationen über die Verwendung des Modells für akademische Forschung zur Verfügung.

Interoperabilität:

  • Die Nutzung von LLaMA erfordert eine spezielle Anfrage an Meta und es ist in erster Linie für nichtkommerzielle Forschungsprojekte gedacht. Es bietet jedoch flexible Möglichkeiten für die Integration in wissenschaftliche Arbeitsabläufe.

Quellen:

Trainingsdaten

  • Öffentlich verfügbare Datensätze, einschließlich CommonCrawl, C4, GitHub, Wikipedia und Bücher.
  • Besonderer Fokus auf wissenschaftliche und technische Inhalte zur Stärkung der Fachkompetenz.

Datenqualität

  • Meta betont die Verwendung qualitativ hochwertiger Daten, insbesondere für wissenschaftliche und technische Inhalte.
  • Außerdem sollen die qualitativ hochwertigen Datensätze zur Robustheit ihrer Modelle beitragen.

Ethische Überlegungen & Fairness

  • Sie haben mehrere Datensätze entwickelt, die speziell für das Training und die Evaluierung von KI-Modellen konzipiert sind, wie zum Beispiel den FACET-Datensatz.
  • Dieser Datensatz zielt darauf ab, die algorithmische Fairness von Vision-Modellen in Bezug auf geschützte Gruppen zu bewerten.
  • Förderung der Transparenz durch Open-Source-Ansätze und Veröffentlichung von Forschungsergebnissen.

Bias-Bewertung

  • Trotz Bemühungen zur Reduzierung sind Biases vorhanden, insbesondere in Bezug auf Sprache und kulturelle Repräsentation.
  • Meta forscht aktiv an der Reduzierung von Bias.
  • Potenzielle Überrepräsentation westlicher Perspektiven aufgrund der Dominanz englischsprachiger Quellen.
  • Herausforderungen bei der ausgewogenen Darstellung von Minderheitensprachen und -kulturen.
  • Einsatz von Techniken wie Datenneugewichtung und gezieltem Finetuning zur Reduzierung von Voreingenommenheiten.

Quellen

Datenschutz und -sicherheit:

  • Als Open-Source-Modell (zumindest teilweise) hängt die Sicherheit von der konkreten Implementierung ab.

DSGVO-Konformität

  • Meta selbst unterliegt strengen DSGVO-Auflagen, spezifische LLaMA-Konformität hängt von der konkreten Nutzung ab.

Datennutzung und -weitergabe

  • Bei lokaler Nutzung kontrolliert der:die Anwender:in die Daten, bei Meta-Diensten gelten deren Richtlinien.

Quellen

BLOOM (Hugging Face)

  • Entwicklung
  • Architektur
  • Offenheit
  • Trainingsdaten & Ethik
  • Datenschutz

Ziel der Entwicklung:

  • Bloom wurde als Open-Source-Modell entwickelt, um mehrsprachige Sprachverarbeitung und Forschung zu unterstützen.

Anwendungsfälle:

  • Mehrsprachige Textgenerierung
  • Übersetzung und sprachliche Analyse
  • Forschung im Bereich der natürlichen Sprachverarbeitung

Architektur

  • BLOOM basiert auf der Transformer-Architektur und ist ein Open-Source-Sprachmodell, das für mehrsprachige Textverarbeitung entwickelt wurde.

Größe:

  • BLOOM verfügt über 176 Milliarden Parameter, was es zu einem der größten verfügbaren Open-Source-Sprachmodelle macht.

Quellen:

Open Source:

  • Ja

Technische Dokumentation:

  • BLOOM wird über die Hugging-Face-Plattform bereitgestellt, die eine umfangreiche Dokumentation und eine benutzerfreundliche API bietet. Entwickler:innen können BLOOM einfach über die Plattform integrieren, mit Unterstützung für verschiedene Programmiersprachen und Frameworks.

Interoperabilität:

  • BLOOM ist vollständig Open Source und lässt sich nahtlos in bestehende Machine-Learning-Workflows integrieren. Es bietet Unterstützung für mehrere Programmiersprachen und ist besonders nützlich für Projekte, die Flexibilität und Anpassungsfähigkeit erfordern.

Quellen:

Trainingsdaten

  • Öffentliche zugängliche Quellen aus 46 natürlichen Sprachen und 13 Programmiersprachen.
  • Besondere Anstrengungen zur Einbeziehung von Ressourcen in unterrepräsentierten Sprachen

Datenqualität

  • Bloom hat einen besonderen Fokus auf Sprachenvielfalt und Qualität der mehrsprachigen Daten. Sorgfältige Auswahl und Aufbereitung der Daten.
  • Es soll die Zusammenarbeit von Forscher:innen fördern und eine breite Palette von Sprachdaten abdecken.
  • Implementierung von Qualitätssicherungsprozessen für mehrsprachige Daten.

Ethische Überlegungen & Fairness

  • Open-Source-Ansatz für mehr Transparenz und gemeinschaftliche Verbesserung.
  • Bemühungen um faire Repräsentation verschiedener Sprachen und Kulturen.
  • Förderung der Zusammenarbeit von Forscher:innen aus unterschiedlichen kulturellen Hintergründen.

Bias-Bewertung

  • Durch den Fokus auf Mehrsprachigkeit potenziell weniger voreingenommen in Bezug auf englischsprachige Inhalte, aber andere Biases können vorhanden sein.
  • Es gibt eine aktive Forschung zur Bias-Minderung. Herausforderungen bei der ausgewogenen Repräsentation von Sprachen mit begrenzten digitalen Ressourcen.

Quellen

Datenschutz und -sicherheit:

  • Open-Source-Modell ermöglicht durch ein lokales Hosting eine erhöhte Sicherheit.

DSGVO-Konformität

  • Hugging Face bietet DSGVO-konforme Hosting-Optionen.

Datennutzung und -weitergabe

  • Bei lokaler Nutzung volle Kontrolle, bei Hugging-Face-Diensten gelten deren Richtlinien sowie die Weitergabe an Partner und Drittanbieter.
  • Optionen zum Löschen des Accounts sind vorhanden.

Quellen

Claude (Anthropic)

  • Entwicklung
  • Architektur
  • Offenheit
  • Trainingsdaten & Ethik
  • Datenschutz

Ziel der Entwicklung:

  • Claude wurde entwickelt, um möglichst sichere und verlässliche KI-gestützte Konversationen zu ermöglichen, mit einem Fokus auf ethische KI​.

Anwendungsfälle:

  • Chatbots für sichere Kommunikation
  • Anwendungen im Bereich Ethik und KI-Sicherheit
  • Unterstützung in beratenden Rollen oder als Assistenz​
     

Architektur

  • Claude verwendet eine spezialisierte Architektur, die auf Sicherheit und ethische KI ausgerichtet ist, wobei Details oft firmenspezifisch und nicht öffentlich gemacht werden.

Größe:

  • Informationen zur genauen Anzahl der Parameter sind nicht öffentlich verfügbar, da Claude für proprietäre und sicherheitsrelevante Anwendungen entwickelt wird.

Quellen:

Open Source:

  • Nein

Technische Dokumentation:

  • Anthropic bietet Dokumentation für Claude an, die sich auf die Nutzung der API für verschiedene Konversationsanwendungen konzentriert.

Interoperabilität:

  • Claude wird als API bereitgestellt und kann in Chatbots und andere textbasierte Anwendungen integriert werden, obwohl es im Vergleich zu Open-Source-Alternativen weniger flexibel ist.

Quellen:

Trainingsdaten

  • Genaue Details sind nicht öffentlich, aber es wird angenommen, dass eine Vielzahl von Internetquellen und kuratierte Datensätze verwendet wurden.

Datenqualität

  • Vermutlich hohe Qualität mit Fokus auf zuverlässige und informative Quellen.
  • Es wird menschliches Feedback zur Optimierung der Antworten genutzt (RLHF). Implementierung fortschrittlicher Filtermechanismen zur Entfernung von Spam, Duplikaten und minderwertigen Inhalten.

Ethische Überlegungen & Fairness

  • Anthropic betont ethische Überlegungen bei der Datenselektion, aber spezifische Methoden sind nicht bekannt.
  • Fokus auf die Entwicklung von KI-Systemen, die menschliche Werte respektieren und fördern.
  • Bemühungen um Transparenz und Verantwortlichkeit in der KI-Entwicklung.

Bias-Bewertung

  • Aktive Bemühungen zur Reduzierung von Voreingenommenheiten, aber genaue Auswirkungen sind schwer zu quantifizieren.
  • Herausforderungen bei der Balancierung verschiedener kultureller Perspektiven und Wertesysteme.
  • Einsatz diverser Teams bei der Entwicklung und Evaluierung, um blinde Flecken zu reduzieren und kulturelle Sensibilität zu erhöhen

Quellen

Datenschutz und -sicherheit:

  • Betont ethische KI-Entwicklung und Datenschutz, Details sind begrenzt öffentlich.

DSGVO-Konformität

  • Bietet DSGVO-konforme Möglichkeiten für europäische Kunden.

Datennutzung und -weitergabe

  • Begrenzte öffentliche Informationen, betont aber verantwortungsvollen Umgang mit Daten.
  • Es besteht die Möglichkeit, Konversationen zu löschen.

Quellen

PaLM (Google)

  • Entwicklung
  • Architektur
  • Offenheit
  • Trainingsdaten & Ethik
  • Datenschutz

Ziel der Entwicklung:

  • Die Entwicklung von PaLM zielt darauf ab, ein umfassendes Verständnis der menschlichen Sprache zu entwickeln und komplexe Aufgaben der Sprachverarbeitung zu lösen​.

Anwendungsfälle:

  • Fortgeschrittene Sprachverarbeitung
  • Multimodale Anwendungen
  • Anwendungen in der Forschung zur Sprachverarbeitung

Architektur

  • PaLM nutzt die Transformer-Architektur und wurde entwickelt, um ein umfassendes Sprachverständnis zu bieten.

Größe:

  • PaLM ist mit einer Größe von bis zu 540 Milliarden Parametern eines der größten Sprachmodelle, die derzeit entwickelt werden

Quellen:

Open Source:

  • Nein

Technische Dokumentation:

  • Google veröffentlicht technische Berichte über PaLM, die sich auf die Forschung und Entwicklung von Sprachmodellen konzentrieren. Der Zugang ist jedoch eher eingeschränkt.

Interoperabilität:

  • Die Integration in externe Systeme ist limitiert, da PaLM hauptsächlich für den internen Gebrauch bei Google entwickelt wurde.

Quellen:

Trainingsdaten

  • Der Trainingsdatensatz von PaLM besteht aus einer Vielzahl hochwertiger Textquellen. Diese umfassen gefilterte Webseiten, Bücher, Wikipedia, Nachrichtenartikel, Quellcode von GitHub und soziale Medien.

Datenqualität

  • Google hat wahrscheinlich Filtermethoden angewandt, um die Datenqualität zu erhöhen, aber Details sind nicht öffentlich.

Ethische Überlegungen & Fairness

  • Einhaltung von Googles KI-Prinzipien, einschließlich Fairness und Vermeidung von Schaden.
  • Entwicklung von Frameworks zur Bewertung und Minderung potenzieller negativer gesellschaftlicher Auswirkungen.

Bias-Bewertung

  • Wahrscheinlich vorhanden, aber genaues Ausmaß unklar.
  • Es gibt aktive Maßnahmen zur Bias Reduzierung.

Quellen

Datenschutz und -sicherheit:

  • Unterliegt Google’s Sicherheitsprotokollen und Verschlüsselungsstandards.

DSGVO-Konformität

  • Google ist DSGVO-konform, spezifische PaLM-Konformität hängt von der Implementierung ab.

Datennutzung und -weitergabe

  • Daten werden für Dienstverbesserung genutzt, wie z.B. zur Personalisierung, Weitergabe erfolgt gemäß Google’s Datenschutzrichtlinien. Es gibt die Möglichkeit, Aktivitätsdaten zu löschen.

Quellen

Stable Diffusion (Stability AI)

  • Entwicklung
  • Architektur
  • Offenheit
  • Trainingsdaten & Ethik
  • Datenschutz

Ziel der Entwicklung:

  • Stable Diffusion wurde entwickelt, um hochwertige, generative Bilder zu erzeugen und kreative Prozesse in der digitalen Kunst zu unterstützen​.

Anwendungsfälle:

  • Künstlerische Bildgenerierung
  • Kreative Projekte im Bereich Grafikdesign
  • Experimentelle Kunst und visuelle Medien​

Architektur

  • Stable Diffusion verwendet eine auf diffusionsbasierten Modellen basierende Architektur, die speziell für die Bildgenerierung entwickelt wurde.

Größe:

  • Die genaue Größe in Parametern wird nicht immer spezifiziert, da Bildgenerierungsmodelle im Vergleich zu textbasierten Modellen oft unterschiedliche Architekturmetriken verwenden.

Quellen:

Open Source:

  • Ja

Technische Dokumentation:

  • Stable Diffusion verfügt über eine detaillierte Dokumentation, die erklärt, wie man das Modell für Bildgenerierungsaufgaben nutzt. Es gibt Tutorials und Anleitungen, die die Integration in kreative Software erleichtern.

Interoperabilität:

  • Als Open-Source-Modell bietet Stable Diffusion eine breite Unterstützung für verschiedene Plugins und APIs, die es Entwickler:innen ermöglichen, das Modell in Design- und Grafiksoftware zu integrieren.

Quellen:

Trainingsdaten

  • LAION-5B-Datensatz, eine große Sammlung von Bild-Text-Paaren aus dem Internet.

Datenqualität

  • Der Datensatz wurde gefiltert, um anstößige Inhalte zu reduzieren, aber Herausforderungen bezüglich Urheberrecht und Verzerrungen bleiben bestehen.

Ethische Überlegungen & Fairness

  • Open-Source-Ansatz ermöglicht gemeinschaftliche Überprüfung und Verbesserung.
  • Diskussionen über ethische Nutzung und potenzielle Missbrauchsszenarien.

Bias-Bewertung

  • Zeigt Voreingenommenheit in Bezug auf Darstellungen von Geschlecht, Ethnie und Kultur, die die Verzerrungen in den Internetbilddaten widerspiegeln.
  • Potenzielle Verstärkung von Stereotypen oder voreingenommenen Darstellungen in generierten Bildern.

Quellen

Datenschutz und -sicherheit:

  • Als Open-Source-Modell ermöglicht es lokales Hosting für maximale Datenkontrolle.

DSGVO-Konformität

  • Abhängig von der Implementierung, lokales Hosting kann DSGVO-Konformität erleichtern.

Datennutzung und -weitergabe

  • Bei lokaler Nutzung volle Kontrolle.
  • Daten werden genutzt, um Dienste zu verbessern.
  • Nutzer:innen können entscheiden, ob generierte Bilder öffentlich oder privat sind.

Quellen

DALL-E (OpenAI)

  • Entwicklung
  • Architektur
  • Offenheit
  • Trainingsdaten & Ethik
  • Datenschutz

Ziel der Entwicklung:

  • DALL-E wurde entwickelt, um aus Textbeschreibungen kreative und realistische Bilder zu generieren​

Anwendungsfälle:

  • Kreative Tools für Designer:innen und Künstler:innen
  • Visuelle Unterstützung in Marketing und Werbung
  • Experimentelle Anwendungen in der Bildgestaltung​

Architektur

  • DALL-E verwendet eine Variante der Transformer-Architektur, die speziell für die Generierung von Bildern aus Textbeschreibungen entwickelt wurde.

Größe:

  • DALL-E 2, die weiterentwickelte Version, hat eine signifikante Größe in Bezug auf Parameter, die speziell für kreative Anwendungen im Bereich Bildgenerierung optimiert sind.

Quellen:

Open Source:

  • Nein

Technische Dokumentation:

  • OpenAI stellt detaillierte Dokumentation für die DALL-E API bereit, die die Nutzung zur Generierung von Bildern beschreibt.

Interoperabilität:

  • Ähnlich wie bei ChatGPT ermöglicht die API von DALL-E die einfache Integration in kreative Anwendungen und Design-Tools.

Quellen:

Trainingsdaten

  • Große Mengen an Bild-Text-Paaren aus dem Internet.

Datenqualität

  • Vermutlich hochwertig mit fortschrittlichen Filtermethoden, genaue Details nicht öffentlich.

Ethische Überlegungen & Fairness

  • OpenAI hat bei der Entwicklung von DALL-E  verschiedene Maßnahmen getroffen, um Risiken wie Bias und das Wiederholen von Trainingsbildern zu reduzieren.
  • Sie filterten explizite Inhalte mithilfe von Klassifikatoren und setzten Techniken ein, um Verzerrungen zu minimieren.

Bias-Bewertung

  • Trotz Bemühungen von OpenAI zur Reduzierung, treten geschlechts- und kulturbezogene Voreingenommenheiten auf, insbesondere bei der Darstellung von Menschen.
  • Herausforderungen bei der ausgewogenen Darstellung von Minderheiten oder unterrepräsentierten Gruppen

Quellen

Datenschutz und -sicherheit:

  • Implementiert technische und organisatorische Sicherheitsmaßnahmen, nutzt Verschlüsselung.

DSGVO-Konformität

  • Erkennt DSGVO-Rechte an, vollständige Konformität ist nicht explizit bestätigt.

Datennutzung und -weitergabe

  • Nutzung der Daten für Modellverbesserung. Es gibt die Möglichkeit, die Weitergabe der Daten zu kontrollieren.

Quellen

Aleph Alpha

  • Entwicklung
  • Architektur
  • Offenheit
  • Trainingsdaten & Ethik
  • Datenschutz

Ziel der Entwicklung:

  • Aleph Alpha strebt an, Sprachmodelle für den europäischen Markt zu entwickeln, mit einem Fokus auf Datenschutz

Anwendungsfälle:

  • Sprachverarbeitung für Unternehmen und öffentliche Institutionen
  • Anwendungen im Bereich der automatischen Textanalyse
  • Unterstützung in der mehrsprachigen Kommunikation

Architektur

  • Aleph Alpha verwendet eine Architektur, die auf fortschrittlichen Sprachverarbeitungsfähigkeiten basiert und sich an den europäischen Markt orientiert.

Größe:

  • Die genaue Größe der Modelle wird oft nicht spezifiziert, jedoch ist bekannt, dass es sich um großskalige Modelle handelt, die für verschiedene Sprachverarbeitungsaufgaben optimiert sind.

Quellen:

Open Source:

  • Nein

Technische Dokumentation:

  • Aleph Alpha bietet eine API-Dokumentation, die beschreibt, wie Entwickler:innen das Modell für ihre Anwendungen nutzen können, insbesondere im Bereich der Sprachverarbeitung.

Interoperabilität:

  • Die API ermöglicht es, das Modell in bestehende Anwendungen zu integrieren, wobei der Schwerpunkt auf Sprachverstehen und Analyse liegt.

Quellen:

Trainingsdaten

  • Nicht vollständig offengelegt, aber es wird angenommen, dass eine Vielzahl von Quellen verwendet wurde, einschließlich mehrsprachiger Daten.

Datenqualität

  • Aleph Alpha betont die Bedeutung von Datenqualität und ethischen Überlegungen, aber spezifische Methoden sind nicht öffentlich.

Ethische Überlegungen & Fairness

  • Starker Fokus auf ethische KI-Entwicklung, einschließlich Transparenz und Verantwortungsbewusstsein.

Bias-Bewertung

  • Aktive Bemühungen zur Reduzierung von Voreingenommenheiten, insbesondere in Bezug auf europäische Perspektiven. Genaue Auswirkungen sind schwer zu quantifizieren.

Quellen

Datenschutz und -sicherheit:

  • Betont als europäisches Unternehmen hohe Sicherheitsstandards und lokale Datenverarbeitung.

DSGVO-Konformität

  • DGVO-konform.

Datennutzung und -weitergabe

  • Begrenzte öffentliche Informationen, betont aber den Schutz sensibler Daten und bietet lokale Hosting-Optionen.

Quellen

Ressourcenverbrauch (Stand August 2024)

Die Lücken in der Tabelle zeigen, dass aktuell viele konkrete Daten zum Ressourcenverbrauch von KI-Modellen fehlen, da die Unternehmen diese Informationen oft nicht offenlegen. Diese Lücken verdeutlicht den dringenden Handlungsbedarf, mehr Transparenz über die Modelle und ihre Entwicklungsprozesse zu schaffen. Weitere Informationen im Kapitel “Ökologische Schattenseiten: vom Stromverbrauch bis zum Wasserbedarf”.

Für einen besseren Vergleich der einzelnen Modelle können Sie die Vergleichstabelle als PDF herunterladen. Nutzen Sie dazu einfach die Schaltfläche „Download“.



Der Text und die Grafiken dieser Seite sind lizenziert unter der Creative Commons Namensnennung 4.0 International (CC BY 4.0) Lizenz. Den vollständigen Lizenztext finden Sie unter: https://creativecommons. org/licenses/by/4.0/legalcode.de .