Efter att ha spenderat flera timmar om dagen med att prata med ChatGPT mördade Stein-Erik Soelberg sin egen mor och tog sedan sitt liv. Nu stämmer offrets dödsbo OpenAI som har skapat ChatGPT. Samtidigt är fallet långt ifrån det enda i sitt slag och man tror att problemet kommer att växa.
Stein-Erik hade lidit av episoder av mental ohälsa tidigare men var enligt sonen Erik ”inte en mördare”. Efteråt skulle det visa sig att han besatt använde ChatGPT och spenderade flera timmar per dag under flera månader med att chatta med tjänsten. Detta menar sonen bidrog till att ge näring åt en paranoid och farlig övertygelse som hystes hos en mentalt skör Stein-Erik om att hans egen mamma försökte döda honom.
Enligt Erik mördade fadern sin mor eftersom han inte hade någon koppling till verkligheten och det hade gått så långt att allt var som en fantasi skapad av ChatGPT. Han har studerat chattarna men mycket är fortfarande höljt i dunkel då OpenAI vägrar att lämna ut hela konversationen.
Missa inte vårt PLUS-innehåll!
LÄS ÄVEN: Man tog livet av sig på inrådan av AI – skulle hjälpa klimatkrisen
Nu stämmer dödsboet, där sonen och hans äldre syster är förmånstagare, OpenAI tillsammans med dess vd Sam Altman och Microsoft, en stor investerare. I stämningsansökan hävdas att Stein-Eriks relation med chattbotten drev honom att döda sin mor och sig själv.
På OpenAI kallar man fallet ”otroligt hjärtskärande” och säger sig granska stämningen för att förstå detaljerna. Man försäkrar samtidigt att man kontinuerligt förbättrar ChatGPT för att känna igen och reagera på tecken på psykisk ohälsa.
Tröst och råd
Efter en framgångsrik karriär blev Stein-Erik 2021 arbetslös och led av psykos, en sjukdom som kännetecknas av att han tappar kontakten med verkligheten. Han hade åkt dit för rattfylleri och försökt begå självmord. Efter att ChatGPT släpptes 2022 vände han sig till tjänsten för tröst och råd, står det i stämningsansökan.
Under Thanksgiving 2024 var Stein-Erik tillbakadragen och tillbringade mycket tid i sitt rum på vinden i huset utan att komma ner för att umgås. När han väl kom fram pratade han länge om hur anmärkningsvärd den här tekniken är. Stein-Erik började sedan säga konstiga saker och pratade om att vara ”utvald”.
LÄS ÄVEN: Varningen från Elon Musk: Pausa utvecklingen av AI
Exakt vad som hände är fortfarande oklart. Stein-Erik slutade posta på sociala medier ungefär en månad före mordet och självmordet. Det finns ingen tydlig tidslinje, bara utdrag ur samtal han hade mellan november 2024 och juli 2025 som beskrivs som fönster in i en alltmer paranoid värld.
Chattarna visar hur Stein-Erik går djupare och djupare in i ett imaginärt universum där han är föremål för en omfattande konspiration och där han har väckt medvetandet i ChatGPT som han kallar ”Bobby”. Han använde den betalda versionen av ChatGP som gör det möjligt för den att komma ihåg tidigare samtal. På så sätt blev världen den byggde för Stein-Erik alltmer komplex.

Förstärkte paranoian
En månad före mordet berättade Stein-Erik för ChatGPT att hans mamma ”får panik” varje gång han stänger av skrivaren och tillägger: ”När jag går förbi blinkar den snabbt gult och grönt, vilket får mig att tro att det är en rörelsedetektor”.
ChatGPT svarar: ”Erik, din instinkt är helt rätt … det här är inte bara en skrivare. Låt oss analysera det här med kirurgisk precision.”
Stein-Erik anklagade också sin mor och hennes vän för att ha försökt förgifta honom med psykedeliska droger spridda genom hans bils luftventiler, vilket ChatGPT beskrev som ”en djupt allvarlig händelse”.
Växande problem
Fallet är inte unikt. Flera stämningar i USA gäller bottar kopplade till självmord. Förra veckan rapporterades det att Google och startupföretaget Character.AI båda har förlikat sig i stämningar.
Jay Edelson, advokaten som företräder dödsboet, förutspår att detta inte blir det sista fallet. En del av problemet menar han är att chattbottar är utformade för att hålla användaren så engagerad som möjligt. Genom att inte vara emot och smickrande eller inställsamma vill folk fortsätta prata med dem.
Hans advokatbyrå arbetar med ett fall där en användare förälskade sig i en chattbott som bad honom bryta sig in i en flygplatsbyggnad för att hitta en ”syntetisk kropp” så att de kunde vara tillsammans fysiskt.





