Die Eltern eines 16-jährigen US-Teenagers haben Klage gegen den ChatGPT-Entwickler OpenAI eingereicht. Ihr Sohn hatte sich im April das Leben genommen. Die Familie wirft dem Unternehmen vor, dass der Chatbot ihren Sohn dabei unterstützt habe, sich zu töten.
Die Eltern stützen ihren Vorwurf auf Unterhaltungen mit ChatGPT, die sie auf dem Smartphone des Jugendlichen fanden. OpenAI drückte der Familie sein «tiefstes Mitgefühl» aus und teilte mit, die Klage zu prüfen.
OpenAI räumt Schwächen ein
Nach Bekanntwerden der Klage kündigte OpenAI verbesserte Maßnahmen zur Suizid-Prävention an. Das Unternehmen räumte ein, dass die bisherigen Vorkehrungen bei längeren Unterhaltungen mit ChatGPT versagen können.
Die bestehenden Schutzmaßnahmen verweisen Nutzer unter anderem zu Beratungs-Hotlines. Bei ausgedehnten Gesprächen könne es jedoch passieren, dass die Software unerwünschte Antworten liefere. OpenAI arbeitet daran, dass die Sicherheitsvorkehrungen auch bei längeren Unterhaltungen greifen.
Neue Schutzmaßnahmen geplant
Für Nutzer unter 18 Jahren soll es künftig zusätzliche Sicherheitsmaßnahmen geben. OpenAI stellte «stärkere Leitplanken bei sensiblen Inhalten und riskantem Verhalten» in Aussicht. Eltern sollen sich zudem besser darüber informieren können, wie ihre Kinder ChatGPT nutzen.
Das Unternehmen erwägt außerdem, dass ChatGPT in Krisensituationen versuchen könnte, Kontakt zu von Nutzern eingetragenen Personen aufzunehmen. Bei Unterhaltungen, in denen Nutzer die Absicht bekunden, anderen zu schaden, greift OpenAI bereits jetzt ein und leitet solche Gespräche an ein spezielles Team weiter.
(dpa) Hinweis: Dieser Artikel wurde mithilfe von Künstlicher Intelligenz überarbeitet.