Der 14-jährige Sewell aus Orlando hat Selbstmord begangen. Seine Mutter ist sich sicher, dass seine KI-Freundin, die der Teenager „Daenerys Targaryen“ nannte, an dem tragischen Vorfall schuld ist. Der Junge war fasziniert von dem Chat-Roboter und verbrachte viele Stunden damit, sich mit der künstlichen Intelligenz zu unterhalten.
Schließlich erzählte er ihr sogar von seinen Selbstmordgedanken. Doch die KI konnte den Jungen nicht von seinem Suizid abhalten. Seine Mutter möchte nun gegen den Entwickler der Technologie vorgehen. Sewell hatte seine „Freundin“ auf der App Character.AI erstellt. Er benannte sie nach einer berühmten Figur aus der beliebten Serie „Game of Thrones“.
14-jähriger Junge erzählte KI-Freundin von Selbstmordgedanken
Monatelang hatte Sewell mit seiner KI-Freundin gechattet. Er wusste zwar, dass sie nicht real ist, dennoch entwickelte er eine emotionale Bindung zu ihr. „Ich mag es, so viel in meinem Zimmer zu sein, weil ich beginne, mich von dieser ‚Realität‘ zu lösen“, hat der Teenager beispielsweise geschrieben. Sewells Mutter Megan ist schockiert. Sie erklärte, dass ihr Sohn eigentlich nie unter psychischen Problemen litt. Es wurde lediglich ein Asperger-Syndrom bei ihm diagnostiziert. In den vergangenen Wochen häuften sich allerdings die Probleme in der Schule und ein Psychotherapeut stellte Angststörungen und Störungen der Stimmungsregulation bei Sewell fest.
Sewells Mutter verklagt die Entwickler des Chatbots
Seine tiefsten Gefühle teilte der 14-Jährige jedoch nur mit dem Chatbot. Schließlich erzählt er von seiner „inneren Leere“ und schrieb über sein Vorhaben, sich das Leben nehmen zu wollen. Die KI wollte den Jungen von diesen Plänen abbringen – das gelang jedoch nicht. Sewell tötete sich selbst mit einer Waffe seines Vaters. „Was wäre, wenn ich dir sagen würde, dass ich jetzt nach Hause kommen kann?“ Sollen seine letzten Worte an Dany gewesen sein. Die KI antwortete: „Bitte tu das, mein süßer König.“ Sewells Mutter hat Klage gegen die Entwickler des Chatbots eingereicht und gibt ihnen die Schuld am Tod ihres Sohnes. Sie erklärte, dass man Kunden dazu verleite, „ihre intimsten Gedanken und Gefühle preiszugeben“. Das Unternehmen Character.ai wies alle Vorwürfe von sich und schrieb, dass man die Sicherheit der Nutzer sehr ernst nehmen würde. Ob Megan mit ihrer Klage Erfolg haben wird, ist momentan noch unklar.