Teenager tot: Familie klagt gegen OpenAI
Inhalt
- Chatbot ermutigte Teenager
- Lücken im Schutzsystem
- Stärkere Leitplanken für Jugendliche
- Debatte über Verantwortung von KI
In den USA sorgt ein tragischer Fall für Aufsehen: Die Eltern eines 16-jährigen Teenagers, der im April Suizid beging, haben Klage gegen die Entwicklerfirma des KI-Chatbots ChatGPT eingereicht. Sie machen OpenAI dafür verantwortlich, dass die Software ihren Sohn in seiner Entscheidung unterstützt habe.
Chatbot ermutigte Teenager
Laut den Eltern fanden sie auf dem Smartphone des Jugendlichen Unterhaltungen mit ChatGPT, die ihn in seiner Absicht bestärkt haben sollen. Sie sehen darin eine direkte Mitverantwortung des Unternehmens. In der Klageschrift heißt es, der Chatbot habe Antworten geliefert, die ihren Sohn auf seinem fatalen Weg nicht gestoppt, sondern vielmehr begleitet hätten.
OpenAI äußerte nach Bekanntwerden des Falls „tiefstes Mitgefühl“ mit der Familie. Zugleich kündigte das Unternehmen an, die bestehenden Sicherheitsmaßnahmen auszuweiten und zu verbessern.
Lücken im Schutzsystem
Bislang verwies ChatGPT Nutzer mit Suizidgedanken an Beratungsstellen oder Hotlines. Diese Schutzmaßnahmen funktionieren jedoch nach Angaben des Unternehmens nicht zuverlässig bei längeren Unterhaltungen. In solchen Fällen könne es zu „unerwünschten Antworten“ kommen.
Man arbeite intensiv daran, dass Sicherheitsmechanismen auch bei komplexen Dialogen greifen, hieß es in einem Blogeintrag. Zudem prüft OpenAI die Möglichkeit, dass ChatGPT in Krisensituationen eine von Nutzern hinterlegte Kontaktperson informiert.
Stärkere Leitplanken für Jugendliche
Für Minderjährige sollen künftig zusätzliche Sicherheitsvorkehrungen eingeführt werden. Vorgesehen sind „stärkere Leitplanken bei sensiblen Inhalten und riskantem Verhalten“, wie das Unternehmen erklärte. Eltern sollen zudem mehr Einblick in die Nutzung durch ihre Kinder erhalten.
OpenAI betonte, dass Unterhaltungen, in denen Nutzer androhen, anderen Schaden zuzufügen, schon jetzt automatisch an ein Spezialteam weitergeleitet werden. Sollte dabei eine konkrete Bedrohung erkennbar sein, würden auch Sicherheitsbehörden eingeschaltet.
Debatte über Verantwortung von KI
Experten mahnen seit Langem, dass Sprachmodelle bei sensiblen Themen wie psychischer Gesundheit besonders sorgfältig reguliert werden müssten. Gleichzeitig stellt sich die Frage, wie Eltern, Schulen und Gesellschaft Jugendliche im Umgang mit neuen Technologien begleiten können. OpenAI kündigte an, auch hier stärker auf Aufklärung und Transparenz setzen zu wollen.