Direkt zum Inhalt
Eltern eines 16-Jährigen werfen ChatGPT vor, ihren Sohn beim Suizid unterstützt zu haben.
Eltern eines 16-Jährigen werfen ChatGPT vor, ihren Sohn beim Suizid unterstützt zu haben.
Eltern eines 16-Jährigen werfen ChatGPT vor, ihren Sohn beim Suizid unterstützt zu haben.
Claudia Nass / ChromOrange / picturedesk.com

Teenager tot: Familie klagt gegen OpenAI

27.08.2025 um 09:02, Yunus Emre Kurt
min read
Nach dem Suizid ihres Sohnes verklagen Eltern OpenAI. Sie werfen ChatGPT vor, ihn unterstützt zu haben. OpenAI kündigt strengere Schutzmaßnahmen an.

Inhalt

In den USA sorgt ein tragischer Fall für Aufsehen: Die Eltern eines 16-jährigen Teenagers, der im April Suizid beging, haben Klage gegen die Entwicklerfirma des KI-Chatbots ChatGPT eingereicht. Sie machen OpenAI dafür verantwortlich, dass die Software ihren Sohn in seiner Entscheidung unterstützt habe.

Chatbot ermutigte Teenager

Laut den Eltern fanden sie auf dem Smartphone des Jugendlichen Unterhaltungen mit ChatGPT, die ihn in seiner Absicht bestärkt haben sollen. Sie sehen darin eine direkte Mitverantwortung des Unternehmens. In der Klageschrift heißt es, der Chatbot habe Antworten geliefert, die ihren Sohn auf seinem fatalen Weg nicht gestoppt, sondern vielmehr begleitet hätten. 

OpenAI äußerte nach Bekanntwerden des Falls „tiefstes Mitgefühl“ mit der Familie. Zugleich kündigte das Unternehmen an, die bestehenden Sicherheitsmaßnahmen auszuweiten und zu verbessern.

Lücken im Schutzsystem

Bislang verwies ChatGPT Nutzer mit Suizidgedanken an Beratungsstellen oder Hotlines. Diese Schutzmaßnahmen funktionieren jedoch nach Angaben des Unternehmens nicht zuverlässig bei längeren Unterhaltungen. In solchen Fällen könne es zu „unerwünschten Antworten“ kommen. 

Man arbeite intensiv daran, dass Sicherheitsmechanismen auch bei komplexen Dialogen greifen, hieß es in einem Blogeintrag. Zudem prüft OpenAI die Möglichkeit, dass ChatGPT in Krisensituationen eine von Nutzern hinterlegte Kontaktperson informiert.

Stärkere Leitplanken für Jugendliche

Für Minderjährige sollen künftig zusätzliche Sicherheitsvorkehrungen eingeführt werden. Vorgesehen sind „stärkere Leitplanken bei sensiblen Inhalten und riskantem Verhalten“, wie das Unternehmen erklärte. Eltern sollen zudem mehr Einblick in die Nutzung durch ihre Kinder erhalten. 

OpenAI betonte, dass Unterhaltungen, in denen Nutzer androhen, anderen Schaden zuzufügen, schon jetzt automatisch an ein Spezialteam weitergeleitet werden. Sollte dabei eine konkrete Bedrohung erkennbar sein, würden auch Sicherheitsbehörden eingeschaltet.

Debatte über Verantwortung von KI

Experten mahnen seit Langem, dass Sprachmodelle bei sensiblen Themen wie psychischer Gesundheit besonders sorgfältig reguliert werden müssten. Gleichzeitig stellt sich die Frage, wie Eltern, Schulen und Gesellschaft Jugendliche im Umgang mit neuen Technologien begleiten können. OpenAI kündigte an, auch hier stärker auf Aufklärung und Transparenz setzen zu wollen.

more