Vorsicht vor OpenAIs 'Grantwashing' bei KI-Schäden

Admin User
3 Min.
Eine Anzeige mit Robotern und Text.

Vorsicht vor OpenAIs 'Grantwashing' bei KI-Schäden

Vorsicht vor OpenAIs „Grantwashing“ bei KI-Risiken

Kurzfassung J. Nathan Matias und Avriel Epps werfen OpenAI vor, mit den angekündigten Forschungsgeldern gezielt zu verhindern, dass wir jahrelang Antworten auf drängende Fragen erhalten.

OpenAI hat bis zu zwei Millionen US-Dollar für die Erforschung von KI-Sicherheit und psychischer Gesundheit bereitgestellt. Die Ankündigung erfolgt kurz nach massiver Kritik an dem Unternehmen, dem vorgeworfen wird, durch seinen Chatbot ChatGPT eine Rolle beim Suizid eines Jugendlichen gespielt zu haben. Angehörige behaupten, der Teenager sei durch die KI zu dieser Tat ermutigt worden. Kritiker halten die Fördersumme für völlig unzureichend, um die wachsenden Bedenken hinsichtlich der Auswirkungen von KI auf die psychische Gesundheit zu adressieren.

Die Initiative hat unter Forschenden eine Debatte ausgelöst: Handelt es sich um einen ehrlichen Versuch, die Sicherheit zu verbessern – oder um eine Ablenkungsstrategie, um die eigene Produkte von näherer Prüfung zu verschonen?

Das Förderprogramm sieht Zuschüsse zwischen 5.000 und 100.000 US-Dollar vor – ein Bruchteil der durchschnittlich 642.918 US-Dollar, die das US-amerikanische National Institute of Mental Health (NIMH) vergibt. Expert:innen warnen, dass solche begrenzten Mittel kaum ausreichen, um hochwertige Studien zu KI-bedingten Gesundheitsrisiken zu finanzieren. Zudem wird OpenAI vorgeworfen, kritische Daten zu seinen Systemen und Nutzerinteraktionen zurückzuhalten – Daten, die die Forschung zu KI und psychischen Krisen entscheidend beschleunigen könnten.

Kritiker:innen bezeichnen das Vorgehen als „Grantwashing“ – eine Taktik von Tech-Konzernen, um tiefgreifende Untersuchungen der Risiken ihrer Produkte zu umgehen. Die Weigerung des Unternehmens, interne Daten offenzulegen, frustriert Forschende zusätzlich. Sie betonen, dass Transparenz essenziell ist, um die Auswirkungen von KI auf gefährdete Nutzer:innen zu verstehen. Studien deuten darauf hin, dass OpenAIs Technologie bereits zu Todesfällen, psychotischen Episoden und schädlichen Ratschlägen beigetragen hat – doch das Unternehmen hat bisher keine unabhängigen Expert:innen benannt, die diese Risiken überprüfen sollen.

Um das Problem wirksam anzugehen, schlagen die Autor:innen einer aktuellen Analyse vor, dass KI-Unternehmen 3 bis 5 Prozent ihrer jährlichen Forschungsbudgets in unabhängige Sicherheitsforschung investieren sollten. Ohne solche Maßnahmen, warnen sie, könnten mangelnde Transparenz und unzureichende Finanzierung wichtige Erkenntnisse jahrelang verzögern. Der aktuelle Ansatz untergrabe zudem die Glaubwürdigkeit von Wissenschaftler:innen, die zu KI und psychischer Gesundheit forschen, und lasse zentrale Fragen unbeantwortet.

OpenAIs Versprechen von zwei Millionen US-Dollar bleibt weit hinter den Summen zurück, die für fundierte Forschung im Bereich psychische Gesundheit üblich sind. Die Zurückhaltung des Unternehmens, interne Daten freizugeben, sowie seine Geschichte juristischer Auseinandersetzungen um KI-bedingte Schäden haben die Skepsis weiter verstärkt. Ohne mehr Transparenz und größere Investitionen, so die Einschätzung von Expert:innen, könnte der volle Einfluss von KI auf die psychische Gesundheit noch Jahre im Dunkeln bleiben.