Können Erdbeben mithilfe Künstlicher Intelligenz (KI) vorhergesagt werden? Nein, noch nicht. Aber wie Methoden maschinellen Lernens nicht nur für die Vorhersage von Erdbeben, sondern auch zum klimafreundlicheren Bauen eingesetzt werden könn(t)en und welche Rolle menschliches Feedback spielt, diskutieren wir in dieser Ausgabe.
Viel Spaß beim Lesen wünschen
Teresa und Michael
P.S. Auch wenn es hier heute vor lauter guten Nachrichten nur so wimmelt, gibt es leider eine weniger erfreuliche: Lieber Michael, da dies die letzte Ausgabe mit dir ist, möchten uns für die tolle Zusammenarbeit bedanken. Es war uns immer eine große Freude mit dir gemeinsam diesen Newsletter Monat für Monat zu erstellen und wir wünschen dir für die Zukunft alles Gute!
Teresa für das reframe[Tech]-Team
P.S. Sie wollen Erlesenes alle zwei Wochen als Newsletter im Postfach haben? Hier geht es zum Abo: https://www.reframetech.de/newsletter/
Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de, bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl oder bei Bluesky unter @reframetech.bsky.social.
Fine-Grained Human Feedback Gives Better Rewards for Language Model Training, Computation and Language, 30.10.2023
Häufig trainiert man große Sprachmodelle mit einer Kombination an maschinellen Lernmethoden: Zunächst werden große Textmengen durch überwachtes Lernen analysiert, um die Analyse und Reproduktion von Sprachmustern und damit Sätzen zu erlauben. Im Anschluss werden Modelle oft mithilfe bestärkenden Lernens – sogenanntem Reinforcement Learning from Human FeedbackRLHF Eine Methode, bei der KI-Modelle durch menschliches Feedback verbessert werden –verfeinert: Menschliche Trainer:innen stellen Anfragen an das Modell und bewerten die gelieferten Antworten. Doktorand:innen der Universität Washington wollen diesen zweiten Schritt verfeinern, da bisher die Trainer:innen nur Feedback zur gesamten Antwort liefern und diese insgesamt beispielsweise als hilfreich oder nicht hilfreich bewerten. Die Forscher:innen haben ihrem Modell dagegen wesentlich detaillierteres Feedback geliefert: Einerseits konnten einzelne Abschnitte einer Antwort separat bewertet werden, sodass genau beschrieben werden kann, welcher Teil einer Antwort etwa falsch ist. Andererseits erlaubten sie unterschiedliches Feedback, wie beispielsweise „fachlich falsch“ oder „irrelevant“. Dieser Detailgrad erlaubt ein besseres FeintuningFeinabstimmung (Finetuning): Der Prozess, ein vortrainiertes Modell auf spezifische Aufgaben oder Datensätze anzupassen.. Es ermöglicht, ein bereits trainiertes Modell weiter zu verbessern und speziell anzupassen, um genauere Ergebnisse für bestimme Aufgaben zu erzielen. Das ist beispielweise für KI-Anwendungen im Bildungsbereich wichtig, wo sehr personalisierte Anwendungen notwendig sind.
Vor Erdbeben warnen, noch bevor die Erde bebt
How machine learningMachine Learning Ein Teilbereich der KI, bei dem Systeme aus Daten lernen und sich verbessern, ohne explizit programmiert zu werden. might unlock earthquake prediction, MIT Technology Review, 29.12.2023
Erdbeben können katastrophale Auswirkungen haben – gerade deshalb sind Frühwarnsysteme so relevant. Sie können es Menschen erlauben, sich in Sicherheit zu bringen, bevor das Beben kommt. Eine Schwäche bisheriger Systeme ist jedoch, dass sie erst Alarm schlagen, wenn Vorbeben bereits begonnen haben. Eine Vorhersage von Erdbeben wie bei Unwettern ist nicht möglich – zumindest noch nicht. Seismolog:innen arbeiten weltweit an Methoden, um Warnungen vor Erbeben noch früher ausgeben zu können, und nutzen dafür auch KI-Systeme. Diese sollen dabei mit großen Mengen an Daten trainiert werden, um später etwa anhand langsamer seismischer Wellen und Bewegungen, Veränderungen im Verhalten von Tieren oder im Erdmagnetfeld ein sich anbahnendes Beben zu erkennen. Erste erfolgreiche Studien gibt es bereits, doch die Forschung ist hier noch am Anfang.
Artificial Intelligence as an Ally in Architectural Decarbonization: From Conception to Building Implementation, Arch Daily, 11.1.2024
Die Bauindustrie in Deutschland ist aktuell nicht dabei, die von der Bundesregierung gesetzten Klimaziele zu erreichen. Vielleicht könnte KI ja dabei helfen? Dieser Artikel fasst zusammen, wo KI-Systeme bereits heute in der Architektur und dem Bauwesen helfen, Gebäude klimafreundlicher zu entwerfen und zu errichten. So können KI-Anwendungen dafür genutzt werden, passive Eigenschaften von Gebäuden zu optimieren. Dazu gehören beispielsweise eine ideale Platzierung von Fenstern, um mithilfe von natürlichem Strom für Beleuchtung einzusparen, oder von Lüftungsschächten, um unnötige Abwärme zu vermeiden. Auch beim Bau von Gebäuden können KI-Systeme Emissionen reduzieren, etwa indem mithilfe derer optimierte Betonmischungen entworfen werden.
OpenAI Quietly Deletes Ban on Using ChatGPT for “Military and Warfare”, The Intercept, 12.1.2024
ChatGPT könnte demnächst noch deutlich schwerwiegendere Auswirkungen haben, als rassistische oder fehlerhafte Antworten zu liefern (Erlesenes berichtete). Der ChatGPT-Betreiber OpenAI hat nämlich vor Kurzem seine Nutzungsbedingungen geändert. Entdeckt hatten diese unangekündigte Änderung Journalist:innen: Während bisher die Nutzung der Dienste von OpenAI für „Militär und Kriegsführung“ verboten war, darf nun „weder einem selbst noch anderen Schaden zugefügt werden“. Während OpenAI angibt, diese Änderung solle Unklarheiten beseitigen und allgemeine Prinzipien wie etwa die Schadensvermeidung verankern, sind in Zukunft gleichzeitig Projekte für die „nationale Sicherheit“ geplant. Das lässt vermuten, dass militärische Einsatzzwecke in Zukunft möglich sein werden. Diese Änderung ist besonders brisant, weil beispielsweise die geplante KI-Verordnung der EU auf das Militär keine Anwendung findet – eine Lücke, die es zu diskutieren gilt.
Das Label für KIs ohne geklaute Daten
AI models that don’t violate copyright are getting a new certification label, The Verge, 17.1.2024
Das Training großer KI-Modelle erfordert eine sehr große Menge an Daten. Einige Unternehmen nehmen es da nicht immer so genau mit dem Urheberrecht und verwenden etwa ungefragt geschützte Texte oder Bilder. Ein Problem, das schon zu Streiks (Erlesenes berichtete) oder Verteidigungsmaßnahmen von Künstler:innen (Erlesenes berichtete) führte. Für uns Nutzer:innen von KI-Systemen ist es dabei nicht immer einsehbar, ob wir gerade ein KI-System nutzen, für dessen Training das Urheberrecht beachtet wurde. Ein Label soll hier Transparenz schaffen und gute Praxis fördern, so die gemeinnützige Organisation Fairly Trained. Sie hat nun eine erste Kennzeichnung für von ihr geprüfte KI-Unternehmen gestartet, die ihre Daten über Lizenzen erworben haben. In einem Blogpost beschreibt die Organisation auch ihre weiteren Pläne: Während dieses erste Label eher einen Prototypen darstellt, soll in Zukunft eine detailliertere Kennzeichnung angeboten werden, die den Ursprung von Trainingsdaten beschreiben wird. Es wird spannend sein zu beobachten, ob solche Kennzeichnungen die Urheberrechtsproblematik tatsächlich lösen werden.
Kave Noori arbeitet als Artificial Intelligence Policy Officer beim European Disability Forum. Er twittert regelmäßig zur KI-Verordnung und Fragen der Barrierefreiheit und Zugänglichkeit.
Verlesenes: Zwei generative KI-Modelle im Wettstreit
Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Kommentar schreiben