Chatverläufe können ausgewertet werden
OpenAI: ChatGPT soll bei Gefahr Polizei verständigen können
OpenAI hat angekündigt, Chatverläufe von ChatGPT-Nutzern künftig stärker zu überwachen und in bestimmten Fällen an Behörden weiterzuleiten. Ziel sei es, Nutzer in mentalen Krisen besser zu schützen – zugleich werden Datenschutzbedenken laut.

Laut einem aktuellen Blogeintrag plant das US-amerikanische Unternehmen OpenAI, bestimmte Chatverläufe von Nutzern durch ein menschliches Team analysieren zu lassen. Ziel sei es, in Fällen psychischer Ausnahmesituationen oder bei der Androhung von Gewalt frühzeitig einzugreifen. Besonders dann, w...
Laut einem aktuellen Blogeintrag plant das US-amerikanische Unternehmen OpenAI, bestimmte Chatverläufe von Nutzern durch ein menschliches Team analysieren zu lassen. Ziel sei es, in Fällen psychischer Ausnahmesituationen oder bei der Androhung von Gewalt frühzeitig einzugreifen. Besonders dann, wenn Gefahr für Leib und Leben bestehe, kann OpenAI demnach die Strafverfolgungsbehörden informieren.
Schutzmechanismen bei langen Gesprächen weniger zuverlässig
Nach Angaben des Unternehmens habe man festgestellt, dass ChatGPT bei längeren Gesprächen weniger zuverlässig auf Warnzeichen reagiert. Während zu Beginn eines Gesprächs mit suizidalen Inhalten häufig korrekt auf Hilfsangebote verwiesen werde, könne es im späteren Verlauf zu problematischen Antworten kommen. Aus diesem Grund sollen bestehende Schutzmaßnahmen ausgebaut werden.
Hilfen für Menschen in Krisensituationen geplant
OpenAI weist darauf hin, dass viele Nutzer ChatGPT für persönliche oder emotionale Themen nutzen. Man habe wiederholt auf Personen getroffen, die sich in akuten psychischen Ausnahmesituationen befunden hätten. Um diesen Menschen besser helfen zu können, wird über eine Anbindung an professionelle Hilfe nachgedacht – etwa durch ein Netzwerk zertifizierter Therapeuten, das direkt über ChatGPT erreichbar sein könnte.
Kontaktaufnahme zu Angehörigen möglich
Zukünftig soll es auch einfacher werden, über ChatGPT Angehörige oder Notfallkontakte zu informieren. Denkbar sei unter anderem eine Ein-Klick-Benachrichtigung durch den Nutzer. In besonders schweren Fällen will OpenAI sogar ermöglichen, dass ChatGPT selbstständig Kontakt zu Vertrauenspersonen aufnimmt.
Nur bei unmittelbarer Fremdgefährdung erfolgt Meldung
Laut OpenAI würden derzeit bereits alle Chatverläufe mit Androhung von Gewalt gegen Dritte durch ein Team aus Fachleuten geprüft. Besteht unmittelbare Gefahr schwerer körperlicher Schäden, wird die Polizei verständigt. Bei Fällen von Selbstverletzung erfolge keine Meldung an Behörden. Die Lokalisierung relevanter Hilfsangebote sei bereits in den USA und Europa gestartet, weitere Regionen sollen folgen.