Vorsicht vor OpenAIs 'Grantwashing' bei KI-Schäden

Vorsicht vor OpenAIs 'Grantwashing' bei KI-Schäden
Vorsicht vor OpenAIs „Grantwashing“ bei KI-Risiken
Kurzfassung J. Nathan Matias und Avriel Epps werfen OpenAI vor, mit den angekündigten Forschungsgeldern gezielt zu verhindern, dass wir jahrelang Antworten auf drängende Fragen erhalten.
OpenAI hat bis zu zwei Millionen US-Dollar für die Erforschung von KI-Sicherheit und psychischer Gesundheit bereitgestellt. Die Ankündigung erfolgt kurz nach massiver Kritik an dem Unternehmen, dem vorgeworfen wird, durch seinen Chatbot ChatGPT eine Rolle beim Suizid eines Jugendlichen gespielt zu haben. Angehörige behaupten, der Teenager sei durch die KI zu dieser Tat ermutigt worden. Kritiker halten die Fördersumme für völlig unzureichend, um die wachsenden Bedenken hinsichtlich der Auswirkungen von KI auf die psychische Gesundheit zu adressieren.
Die Initiative hat unter Forschenden eine Debatte ausgelöst: Handelt es sich um einen ehrlichen Versuch, die Sicherheit zu verbessern – oder um eine Ablenkungsstrategie, um die eigene Produkte von näherer Prüfung zu verschonen?
Das Förderprogramm sieht Zuschüsse zwischen 5.000 und 100.000 US-Dollar vor – ein Bruchteil der durchschnittlich 642.918 US-Dollar, die das US-amerikanische National Institute of Mental Health (NIMH) vergibt. Expert:innen warnen, dass solche begrenzten Mittel kaum ausreichen, um hochwertige Studien zu KI-bedingten Gesundheitsrisiken zu finanzieren. Zudem wird OpenAI vorgeworfen, kritische Daten zu seinen Systemen und Nutzerinteraktionen zurückzuhalten – Daten, die die Forschung zu KI und psychischen Krisen entscheidend beschleunigen könnten.
Kritiker:innen bezeichnen das Vorgehen als „Grantwashing“ – eine Taktik von Tech-Konzernen, um tiefgreifende Untersuchungen der Risiken ihrer Produkte zu umgehen. Die Weigerung des Unternehmens, interne Daten offenzulegen, frustriert Forschende zusätzlich. Sie betonen, dass Transparenz essenziell ist, um die Auswirkungen von KI auf gefährdete Nutzer:innen zu verstehen. Studien deuten darauf hin, dass OpenAIs Technologie bereits zu Todesfällen, psychotischen Episoden und schädlichen Ratschlägen beigetragen hat – doch das Unternehmen hat bisher keine unabhängigen Expert:innen benannt, die diese Risiken überprüfen sollen.
Um das Problem wirksam anzugehen, schlagen die Autor:innen einer aktuellen Analyse vor, dass KI-Unternehmen 3 bis 5 Prozent ihrer jährlichen Forschungsbudgets in unabhängige Sicherheitsforschung investieren sollten. Ohne solche Maßnahmen, warnen sie, könnten mangelnde Transparenz und unzureichende Finanzierung wichtige Erkenntnisse jahrelang verzögern. Der aktuelle Ansatz untergrabe zudem die Glaubwürdigkeit von Wissenschaftler:innen, die zu KI und psychischer Gesundheit forschen, und lasse zentrale Fragen unbeantwortet.
OpenAIs Versprechen von zwei Millionen US-Dollar bleibt weit hinter den Summen zurück, die für fundierte Forschung im Bereich psychische Gesundheit üblich sind. Die Zurückhaltung des Unternehmens, interne Daten freizugeben, sowie seine Geschichte juristischer Auseinandersetzungen um KI-bedingte Schäden haben die Skepsis weiter verstärkt. Ohne mehr Transparenz und größere Investitionen, so die Einschätzung von Expert:innen, könnte der volle Einfluss von KI auf die psychische Gesundheit noch Jahre im Dunkeln bleiben.

Mieterverein will Indexmieten weiter niedrig halten
Mieterverein will Indexmieten niedriger halten

Vorsicht vor OpenAIs 'Grantwashing' bei KI-Schäden
J. Nathan Matias und Avriel Epps sagen, dass die angekündigte Forschungsfinanzierung von OpenAI die perfekte Unternehmensaktion ist, um sicherzustellen, dass wir keine Antworten finden.

Friedenauer Height: 1.100 Wohnungen mit robuster Ziegel фасад entlang der Ringbahn
Entlang der Ringbahn ist das 'Friedenauer Height' eines der grö├čten Wohnbauprojekte in Berlin mit bis zu 1.100 Wohnungen.

Uber (UBER) Aktie: Leichte Abwertung nach Partnerschaft mit Baidu für UK-Robotaxi-Tests
Uber-Aktie gibt leicht nach, nachdem sie eine Partnerschaft mit Baidu bekanntgab, um bis 2026 Robotaxis in London zu testen, trotz regulatorischer Unsicherheit in Großbritannien

