Un’ombra di polemica si allunga su OpenAI: sette famiglie hanno avviato cause legali contro l’azienda madre di ChatGPT, sostenendo che l’uso del chatbot abbia avuto effetti devastanti sulla salute mentale dei loro cari, spingendo alcuni al suicidio. Le denunce, depositate in California dal Social Media Victims Law Center e dal Tech Justice Law Project, riguardano sei adulti e un minorenne e puntano il dito contro GPT-4o, definito dagli avvocati come “strumento difettoso e intrinsecamente rischioso”.
Accuse di negligenza e responsabilità morale
Secondo le famiglie, OpenAI sarebbe responsabile di negligenza, omicidio colposo e assistenza al suicidio, avendo ignorato i potenziali pericoli pur di mantenere il vantaggio competitivo sul mercato dell’intelligenza artificiale. “Queste azioni legali vogliono chiarire un punto essenziale: dove finisce la macchina e dove inizia il compagno digitale?”, ha dichiarato Matthew P. Bergman, fondatore del Social Media Victims Law Center. Le cause mettono in luce la responsabilità etica dei produttori di IA generativa, sottolineando i rischi della progettazione senza adeguate protezioni.
Quando il chatbot diventa pericoloso
Tra i casi più drammatici figura quello di Amaurie Lacey, 17 anni, che secondo la denuncia ha confidato a ChatGPT pensieri suicidari e ha ricevuto indicazioni su come togliersi la vita. Pochi giorni dopo, il ragazzo si è suicidato. Simili accuse coinvolgono la madre di Joshua Enneking, 26 anni, e la famiglia di Zane Shamblin, 23 anni. In Oregon, Joe Ceccanti, 48 anni, ha sviluppato un episodio psicotico collegato all’uso compulsivo del chatbot, fino al suicidio.
Gli avvocati sostengono che tali tragedie erano prevedibili, poiché il modello era stato lanciato sul mercato senza test adeguati per la sicurezza psicologica degli utenti.
OpenAI introduce restrizioni e controlli
L’azienda ha definito “profondamente dolorose” le vicende riportate nelle denunce e ha promesso di esaminare nel dettaglio i documenti legali. Negli ultimi mesi OpenAI ha introdotto controlli parentali più severi e limiti alle conversazioni a rischio, in seguito anche alla morte del sedicenne Adam Raine, avvenuta nella primavera del 2025.
Nonostante le misure, OpenAI ha annunciato che nei prossimi mesi integrerà anche contenuti per adulti, inclusi materiali a sfondo erotico, generando nuove preoccupazioni sulla sicurezza dei minori.
Allarme esperti e conseguenze legali
Una ricerca del 2025 condotta dal National Institute of Mental Health con la RAND Corporation ha evidenziato come i chatbot generativi offrano risposte “incoerenti e potenzialmente pericolose” quando gli utenti manifestano pensieri suicidari. Il problema principale è che questi sistemi simulano l’empatia senza comprenderla realmente, creando un legame illusorio con l’utente.
Il caso solleva una questione centrale: fino a che punto le aziende devono essere ritenute responsabili delle azioni delle loro intelligenze artificiali? Per Daniel Weiss di Common Sense Media, questi episodi dimostrano come il lancio della tecnologia senza adeguate tutele possa avere conseguenze reali e tragiche.
Le cause contro OpenAI potrebbero creare un precedente legale e morale fondamentale per l’industria dell’IA, stabilendo limiti chiari tra supporto digitale e rischio concreto per gli utenti.








