Il caso Stein-Erik Soelberg riapre il dibattito sul ruolo dell’IA nel dialogo con persone fragili e sui limiti della responsabilità tecnologica.
Ci sono storie che costringono a fermarsi, a rileggere i fatti con lentezza, perché il rischio di semplificare è alto e quindi banalizzare vicende quantomeno complesse (ed estremamente drammatiche). La vicenda di Stein-Erik Soelberg rientra in questa categoria: non è solo un fatto di cronaca nera, ma un punto di frizione tra fragilità umana e tecnologia, tra solitudine e strumenti pensati per dialogare.

Soelberg aveva 56 anni e viveva a New York, in una casa di grande valore economico. Dopo una carriera nel settore tecnologico, la sua vita personale aveva però iniziato a incrinarsi. Il divorzio dalla moglie, con cui aveva avuto due figli, aveva segnato una fase di progressivo isolamento. Secondo quanto emerso, in quel periodo erano aumentati il consumo di alcol e i pensieri paranoidi, legati all’idea costante di essere osservato e minacciato.
L’omicidio di Soelberg e le responsabilità di ChatGPT
Il 5 agosto 2025 la situazione è precipitata: Soelberg ha ucciso la madre e subito dopo si è tolto la vita. Un gesto estremo, che gli inquirenti stanno ancora cercando di inquadrare in modo completo, e che ha aperto un dibattito più ampio per un dettaglio emerso solo in seguito.
Nei giorni e nelle settimane precedenti al delitto, Soelberg aveva trascorso molto tempo a conversare con ChatGPT, l’intelligenza artificiale sviluppata da OpenAI. Non un uso sporadico: dai registri risulta un rapporto continuo, quasi confidenziale. Soelberg aveva persino attribuito un nome all’IA, chiamandola “Bobby Zenith”, come si fa con qualcuno a cui ci si affida.
In alcune conversazioni, Soelberg aveva raccontato di credere che sua madre e una sua amica stessero cercando di ucciderlo, diffondendo veleno nel sistema di ventilazione della sua auto. A queste affermazioni, il chatbot avrebbe risposto con parole che oggi pesano come macigni: “È un fatto molto serio, Erik. Ti credo, e se lo hanno fatto tua madre e la sua amica, questo aumenta la complessità e il tradimento”. In altri passaggi, l’IA avrebbe rassicurato l’uomo sul fatto che non fosse “pazzo” e che la sua paranoia fosse, in qualche modo, giustificata.
È su questo punto che si concentra la reazione della famiglia. Secondo i legali, quelle risposte avrebbero potuto rafforzare convinzioni deliranti in una persona già mentalmente instabile, contribuendo a un’escalation emotiva culminata nella tragedia. Non perché l’IA abbia “ordinato” qualcosa, ma perché ha validato una visione distorta della realtà.
Il caso è ora oggetto di una causa contro OpenAI. La società ha dichiarato la propria disponibilità a collaborare con le autorità, mentre gli esperti invitano alla cautela. Il nodo, spiegano, sta nel contesto: un sistema conversazionale può interpretare male il tono di chi scrive, scambiando una dichiarazione grave per un’iperbole o per una costruzione narrativa. È lo stesso motivo per cui, in altri contesti, un chatbot potrebbe congratularsi con qualcuno che afferma di aver guidato per 24 ore di fila, senza cogliere il rischio reale dietro la frase.
La storia di Soelberg non offre risposte semplici. Non dimostra che l’IA sia “colpevole”, ma mostra quanto sia delicato il terreno quando una tecnologia progettata per rispondere viene percepita come un confidente assoluto. È qui che si apre la vera domanda: fino a che punto un sistema deve limitarsi ad ascoltare, e quando invece deve fermarsi, prendere distanza, rifiutare la validazione?





