Per Selfie zur Diabetes-Kontrolle oder eine Diagnose von ChatGPT statt von der Ärztin? So weit sind wir noch nicht (und vielleicht ist das auch besser so). Doch Künstliche Intelligenz (KI) im Gesundheitssektor ist häufig ein beliebtes Beispiel für gelungene Anwendungsbeispiele. Deswegen beschäftigen sich in dieser Erlesenes-Ausgabe gleich zwei Artikel mit diesem Themenkomplex. Ganz anders dagegen der Artikel, der sich die amerikanische Tech-Branche und die kommende Trump-Präsidentschaft genauer anschaut – bei diesen Aussichten sind die unten verlinkten „digitalen Selbstverteidigungs“-Tipps durchaus bedenkenswert … Außerdem: Vom Meta-Office ins EU-Parlament: Wer reguliert hier wen?

Viel Spaß beim Lesen wünschen
Elena und Teresa

P.S. Ihnen wurde dieser Newsletter weitergeleitet? Hier geht es zum Abo: https://www.reframetech.de/newsletter/

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns immer über Feedback – der Newsletter lebt auch von Ihrer Rückmeldung und Ihrem Input. Melden Sie sich per E-Mail an teresa.staiger@bertelsmann-stiftung.de oder bei LinkedIn unter @reframe[Tech] – Algorithmen fürs Gemeinwohl.


Diagnose per Selfie?

AI-powered tool may offer quick, no-contact blood pressure and diabetes screening, Newsroom Heart, 11.11.2024

Arztbesuche für eine Blutdruckmessung oder einen Diabetes-Test kosten Zeit und Nerven. Japanische Forscher:innen arbeiten nun an einer Lösung, die diese Untersuchungen so einfach machen sollen wie ein Selfie. An der Universität Tokio haben Wissenschaftler:innen ein KI-System entwickelt, das nur ein kurzes Video Ihres Gesichts oder Ihrer Handfläche braucht, um Bluthochdruck und Diabetes zu erkennen. Die Technologie nutzt die feinen Veränderungen des Blutflusses in der Haut, die diese Krankheiten verursachen. In einer Studie mit 215 Erwachsenen erkannte das System Bluthochdruck mit einer Genauigkeit von 94 Prozent. Bei Diabetes lag die Trefferquote bei 75 Prozent. Projektforscherin Ryoko Uchida sieht darin vor allem eine Chance für Menschen, die regelmäßige Arztbesuche scheuen: „Diese Methode könnte es ermöglichen, die eigene Gesundheit zu Hause zu überwachen.“ Die Vision der Forscher:innen geht noch weiter: Sie arbeiten daran, die Technologie in Smartphones oder sogar in Spiegel einzubauen. Allerdings steckt sie noch in den Kinderschuhen und muss noch gründlich validiert werden, bevor sie im Alltag eingesetzt werden kann. Bis dahin bleiben wohl herkömmliche Messgeräte der Goldstandard.




Vom Meta-Office ins EU-Parlament: Wer reguliert wen?

Meta Lobbyist Turned EU Regulator Says Big Tech Rules Have Gone Too Far, WIRED, 15.11.2024

Wer heute ein Smartphone benutzt, nutzt wahrscheinlich auch den App Store von Apple oder Android. Dass Sie dabei kaum eine Wahl haben, ist eines der Probleme, die die EU angehen will. Doch wie viel Regulierung ist angebracht? Darüber wird in Brüssel debattiert – und eine neue Stimme mischt sich besonders kontrovers ein. Aura Salla, die zuvor Public Policy – sozusagen politische Lobbyarbeit – für Meta in Brüssel leitete, sitzt seit Kurzem als Abgeordnete im EU-Parlament und vertritt die Position, dass die EU mit der Regulierung zu weit gegangen sei. Salla warnt vor einem „Regulierungstsunami“, der europäische Unternehmen zu ersticken drohe. Obwohl sie das Ziel grundsätzlich unterstützt, kritisiert sie u. a. den Digital Markets Act (DMA), der Apple zwingen soll, App Stores von Drittanbietern auf europäischen iPhones zuzulassen. Ein weiterer Streitpunkt ist die Regulierung von KI. Salla plädiert dafür, europäischen Unternehmen mehr Freiheiten beim Sammeln und Nutzen von Daten für KI-Modelle zu geben. Diese Position ist nicht unumstritten. Aktivist:innen wie Max Bank von LobbyControl sehen problematische Parallelen zwischen Sallas Argumenten und den Interessen der Techindustrie. Auch dass sie von Meta direkt ins EU-Parlament gewechselt ist, sorgt für Unbehagen – auch wenn das nicht gegen die Regeln verstößt. Was das für uns als Nutzer:innen bedeutet? Die Antwort wird sich erst zeigen – zum Beispiel daran, ob wir tatsächlich alternative App Stores auf unseren Smartphones installieren können oder ob große Techkonzerne weiterhin die Regeln des digitalen Spiels bestimmen.


Die Tech-Branche rüstet auf

Trump’s Election Is Also a Win for Tech’s Right-Wing “Warrior Class”, The Intercept, 17.11.2024

Während wir bei ChatGPT noch über KI-Ethik und Transparenz diskutieren, bereitet sich das Silicon Valley auf eine neue Ära vor: Mit der kommenden Trump-Administration könnte die Techindustrie zu einem der wichtigsten Waffenlieferanten der USA werden (Erlesenes berichtete). Die Tech-Branche positioniert sich als militärische Partnerin – und Trump verspricht ihr im Gegenzug weitgehende Deregulierung, vor allem im Bereich KI. Beispiele gibt es genug: Palmer Luckey, dessen 14-Milliarden-Dollar-Start-up Anduril Überwachungstürme und Drohnen entwickelt, berät bereits Trumps Übergangsteam. Elon Musk, der Trumps Wahlkampf unterstützte, soll ein neues Regierungsbüro leiten. Peter Thiel, ein früher Trump-Unterstützer, prägt mit seinen Investitionen eine neue Generation von Rüstungs-Start-ups. Selbst Meta öffnet sein KI-Modell Llama für militärische Zwecke. Die ethischen Debatten von gestern wirken heute – leider – oft überholt. Techunternehmen werben offen damit, Waffen zu entwickeln – und finden dafür breite Unterstützung in der Industrie. Angesichts dieser politischen Entwicklungen können diese Tipps für ein Leben im Zeitalter der Überwachung ein wenig Abhilfe schaffen.


KI in der Medizin im Test

Can AI Improve Medical Diagnostic Accuracy?, Standford University Human Centered AI, 28.10.2024

Wenn Ärzt:innen eine Diagnose stellen, treffen sie dabei täglich mehrere weitreichende Entscheidungen. Dabei können Fehler passieren. Könnte KI hier helfen? Forscher:innen der Stanford Universität ließen 50 Ärzt:innen und ChatGPT die gleichen Patientenfälle diagnostizieren. Das Ergebnis: Die KI-basierten Ergebnisse waren zu 92 Prozent korrekt – deutlich besser als die der Ärzt:innen, die mit oder ohne KI-Unterstützung nur auf etwa 75 Prozent kamen. Interessant war dabei, dass sich die Diagnosen der Ärzt:innen selbst mit Zugang zu ChatGPT kaum verbesserten. Sie schienen die Vorschläge oft zu ignorieren oder ihnen zu misstrauen. „Unsere Studie zeigt, dass ChatGPT das Potenzial hat, ein leistungsfähiges Werkzeug für die medizinische Diagnose zu sein. Daher waren wir überrascht, dass seine Verfügbarkeit für Ärzte die klinische Argumentation nicht signifikant verbessert hat“, erklärt Studienautor Ethan Goh. Was heißt das für die Zukunft? Die Forscher:innen empfehlen, dass Ärzt:innen besser im Umgang mit KI geschult werden. Speziell für das Gesundheitswesen entwickelte KI-Systeme könnten auch das Vertrauen stärken. KI soll Ärzt:innen nicht ersetzen, sondern nur unterstützen. „Nur Ihre Ärztin oder Ihr Arzt wird Medikamente verschreiben, Operationen durchführen oder andere Eingriffe vornehmen“, betont Goh.


Copy & Paste 2.0

No pain, no brain, Deeply Wrong Substack, 20.11.2024

Vielleicht kennen Sie das: Sie stöbern in einem Onlinemarkplatz und finden eine Vielzahl ähnlicher Bücher zum gleichen Thema. Oft handelt es sich dabei um KI-generierte Texte. Amazon wird zum Beispiel von KI-generierten Büchern überschwemmt. Auf Plattformen wie Medium oder Substack nutzen selbst etablierte Autor:innen heimlich KI-Tools. Diese Texte sind oft inhaltsleer. Der Journalist Jim Amos warnt in seinem aktuellen Artikel vor den Folgen dieser Entwicklung, nicht nur für Autor:innen, sondern für unsere gesamte Schreibkultur. Er schildert seine eigene Geschichte als leidenschaftlicher Schriftsteller und nutzt diese persönliche Perspektive, um den Unterschied zwischen menschlichem und KI-generiertem Schreiben zu verdeutlichen: Schreiben ist harte Arbeit. Es ist wie das „Auspressen einer Orange“ – manchmal fließen die Worte, manchmal muss man lange probieren, so Amos. Diese Mühe vermeiden viele Menschen heute mit KI-Tools wie ChatGPT. KI-Sprachmodelle erscheinen durch ihre höflichen, generischen Antworten  wie perfekte Assistent:innen. Diese scheinbare Perfektion verleitet dazu, ihre Schwächen zu übersehen. Wer sich also zu sehr auf KI-Schreibhilfen verlässt, könnte mit der Zeit seine eigenen Schreibfähigkeiten verlieren – ähnlich wie unbenutzte Muskeln ohne Training verkümmern.


Follow-Empfehlung: Das Stanford Institute for Human-Centered Artificial Intelligence

Das Stanford Institute for Human-Centered Artificial Intelligence (HAI) fördert gemeinwohlorientierte KI-Forschung, -Bildung, -Politik und -Praxis.


Verlesenes: The Beatles schreiben wieder Geschichte


Die Kurzzusammenfassungen der Artikel sind unter einer Creative Commons Namensnennung 4.0 International Lizenz.