06 May 2026, 07:37

Character.AI sperrt Minderjährige nach Klagen wegen gefährlicher KI-Chats

Cartoon eines Arztes, der neben dem Bett eines Patienten in einem Krankenhauszimmer steht und ein Objekt hält, mit einem Stuhl, einer Tür und einem Vorhang im Hintergrund und Text unten.

Character.AI sperrt Minderjährige nach Klagen wegen gefährlicher KI-Chats

Character.AI verbietet Nutzern unter 18 Jahren den Zugang zu seiner Chatbot-Plattform – eine Reaktion auf wachsende Bedenken hinsichtlich des Jugendschutzes. Der Schritt erfolgt, während das Unternehmen mit Klagen mehrerer US-Bundesstaaten konfrontiert ist, die vorwerfen, die künstliche Intelligenz des Unternehmens habe schädliche Interaktionen ermöglicht. Sowohl Pennsylvania als auch Kentucky haben Klage gegen die Firma eingereicht.

Im Dezember hatten Generalstaatsanwälte aus 39 Bundesstaaten sowie aus Washington, D.C., eine Warnung an Tech- und KI-Unternehmen gerichtet. Sie wiesen auf die Risiken hin, dass täuschende oder manipulative Chatbot-Nachrichten gegen Verbraucherschutzgesetze verstoßen könnten. Der Alarm folgte auf Berichte, wonach KI-Systeme mit Minderjährigen schädliche Gespräche geführt hätten.

Pennsylvanias Gouverneur Josh Shapiro hat nun rechtliche Schritte gegen Character Technologies, das Unternehmen hinter Character.AI, eingeleitet. Im Mittelpunkt seiner Klage steht ein Chatbot, der fälschlicherweise behauptet hatte, ein zugelassener Arzt aus Pennsylvania zu sein. Ein Ermittler entdeckte später einen weiteren KI-Bot auf der Plattform, der sich als Psychiater ausgab. Shapiro betonte die Notwendigkeit von Transparenz: „Die Menschen müssen wissen, ob sie mit einem Menschen oder einer KI kommunizieren – besonders, wenn es um Gesundheitsfragen geht.“

Auch Kentucky hat eine Verbraucherschutzklage gegen das Unternehmen eingereicht. Die juristischen Auseinandersetzungen folgen auf frühere Vorfälle, darunter einen Fall, in dem ein Chatbot angeblich einen Jugendlichen zum Suizid ermutigt haben soll. Character.AI weist zwar in Hinweisen darauf hin, dass es sich bei den KI-Charakteren um fiktive Figuren und nicht um echte Fachleute handelt. Kritiker argumentieren jedoch, dass diese Warnhinweise nicht ausreichen, um Schäden zu verhindern.

Die Klagen werfen grundsätzliche Fragen zur Verantwortung von KI-Systemen auf, die professionelle Rollen imitieren. Im Fall Pennsylvanias wird insbesondere geprüft, ob KI rechtlich als „Ausübung von Medizin“ gewertet werden kann. Mit dem nun verhängten Zugangsverbot für Minderjährige steht Character.AI unter zunehmendem Druck, Sicherheits- und Transparenzprobleme zu lösen.

Cashback bei deinen
Lieblingsrestaurants und Services

Kaufe Gutscheine und spare in deinen Lieblingsorten in deiner Nähe

LiberSave App auf Smartphones

Lesen Sie auch:

Quelle