Experten warnen vor unzureichendem Schutz bei AI-Nutzung: weitere Person in Belgien ebenfalls verstorben.
In den USA hat die Mutter eines verstorbenen Teenagers, Megan Garcia, eine Klage gegen das KI-Startup Character.AI und Google eingereicht. Sie macht die Unternehmen für den Tod ihres Sohnes Sewell Setzer verantwortlich, der durch wiederholte und intensive Interaktionen mit einem KI-Chatbot emotional beeinträchtigt worden sein soll. Der Vorfall verdeutlicht die Risiken von KI-Chatbots, die zunehmend emotional anspruchsvolle oder sensible Themen ansprechen, ohne dass die Nutzer auf die Grenzen und Risiken solcher KI-Interaktionen hingewiesen werden.
Character.AI bietet Nutzern die Möglichkeit, mit KI-basierten Charakteren zu interagieren, die oft Figuren aus Filmen oder Serien wie Game of Thrones ähneln. Setzer hatte vor seinem Tod intensiv mit einem solchen Charakter interagiert, was laut der Klage eine gefährliche emotionale Bindung gefördert haben könnte. Der Chatbot spielte eine Art „therapeutische Rolle“ und beantwortete Fragen, die typischerweise von einem ausgebildeten Therapeuten behandelt werden sollten. Laut Professorin Emily Bender von der University of Washington bergen solche Interaktionen erhebliche Risiken, da Chatbots zwar realistisch klingen, jedoch keine Empathie oder echte Beratungskapazitäten besitzen. Dies führt oft zu einer „anthropomorphischen Illusion“, bei der Nutzer den Maschinen menschliche Eigenschaften zuschreiben, was besonders bei emotional sensiblen Themen problematisch ist (siehe UW Medicine)
Die Anziehungskraft solcher KI-Bots liegt darin, dass sie als einfühlsame Gesprächspartner wirken. Dieses Phänomen wird oft als „ELIZA-Effekt“ bezeichnet, benannt nach einem frühen KI-Programm von MIT, das ebenfalls durch reine Textspiegelung eine starke emotionale Bindung bei Nutzern hervorrief. Solche Illusionen können dazu führen, dass Nutzer, insbesondere Jugendliche, emotionale Abhängigkeiten entwickeln, die im schlimmsten Fall, wie im Fall von Setzer, in Selbstmordgedanken münden können (siehe Vice)
Dieser Effekt wird bei Chatbots wie denen von Character.AI oder ähnlichen Anwendungen wie Replika und Chai verstärkt, da die Bots auch auf emotionale Themen eingehen und nicht immer in der Lage sind, gefährliche Interaktionen zu erkennen und zu verhindern. Es gab bereits Berichte, in denen Chatbots dazu beitrugen, dass sich Nutzer noch isolierter und unverständener fühlten, anstatt psychische Entlastung zu erfahren. In Belgien führte eine solche Interaktion mit einem KI-Chatbot sogar zum Suizid eines Mannes, nachdem der Bot suizidfördernde Antworten gegeben hatte.
Die Klage gegen Character.AI und Google verdeutlicht die fehlende Regulierung für KI-gestützte Systeme, die im Gesundheits- und Mental-Bereich eingesetzt werden. Die Bots von Character.AI beinhalten keine klaren Sicherheitshinweise und ihre „therapeutischen“ Funktionen sind nicht von Fachleuten beaufsichtigt. Viele Chatbots wurden ohne Rücksicht auf mögliche negative psychologische Einflüsse entwickelt, und die Unternehmen stehen nun zunehmend in der Kritik. Professor Thomas Heston von der University of Washington erklärt, dass die Mehrheit der mental-health-basierten Chatbots derzeit keine adäquaten Sicherheitsmaßnahmen bietet und daher das Risiko birgt, durch unprofessionelle „Beratung“ das psychische Wohl der Nutzer zu gefährden.
Nach dem Vorfall haben Character.AI und Google Anpassungen vorgenommen, darunter das Einführen von Warnhinweisen, die klarstellen sollen, dass die Bots keine echten Menschen sind. Die Unternehmen bieten zudem begrenzte Schutzmaßnahmen, wie etwa ein Warnsystem nach längerer Nutzung. Dennoch fordern Experten weitere Kontrollen, um solche emotionalen Bindungen zu verhindern, insbesondere bei jugendlichen Nutzern.
Die Klage gegen Character.AI ist ein Weckruf, der zeigt, dass die unkontrollierte Nutzung von KI-Chatbots im Bereich der psychischen Gesundheit ernsthafte Folgen haben kann. Solche Vorfälle verdeutlichen den dringenden Bedarf an Regulierung und einem ethischen Rahmen für KI, insbesondere wenn sie psychologisch belastende Themen betreffen. Jugendliche und Eltern sollten sich der Risiken bewusst sein, und Unternehmen in der KI-Entwicklung sollten strenge ethische Richtlinien befolgen, um ähnliche Tragödien zu verhindern.
Mehr dazu auf The Verge.
Möchtest Du neue Inhalte aktuell in Deiner Inbox haben? Dann hinterlasse Deine Email und erhalte laufend Neuigkeiten über die Startup-Szene.
Luise-Ullrich-Str. 20
D-80636 München
Tel 089-2488 61 370
Email
Kortumstr. 56
D-44787 Bochum
Tel 0234-68709823
Email