Stando ad alcune indiscrezioni, da prendere sempre con la dovuta cautela, OpenAI avrebbe chiesto alla famiglia Raine di fornire l'elenco completo dei partecipanti alla cerimonia funebre di Adam. L'obiettivo sarebbe quello, eventualmente, di citare in giudizio amici e familiari. Per chi non conoscesse la vicenda, OpenAI è stata citata in giudizio dopo che un ragazzo di 16 anni si è suicidato. Secondo i genitori e i legali, l'adolescente avrebbe intrattenuto per diversi mesi delle conversazioni con ChatGPT che avrebbero convalidato intenzioni suicidarie, con tanto di indicazioni su come procurarsi alcolici di nascosto o scrivere una lettera d'addio. Facciamo il punto della situazione.
Una molestia intenzionale, secondo gli avvocati
Queste informazioni derivano da un documento ottenuto dal Financial Times. Come vi abbiamo anticipato, OpenAI ha richiesto "tutti i documenti relativi alle cerimonie commemorative o agli eventi in onore del defunto, inclusi, a titolo esemplificativo ma non esaustivo, eventuali video o fotografie scattate o elogi funebri pronunciati". Una richiesta che, secondo i legali della famiglia Raine, corrisponde a una sorta di molestia intenzionale.
La causa è stata aggiornata lo scorso mercoledì. Inizialmente la famiglia aveva intentato una causa per omicidio colposo (agosto). Con la causa aggiornata si sostiene che OpenAI abbia affrettato il rilascio di GPT-4o, riducendo quindi i test di sicurezza per riuscire a competere in fretta con altri modelli IA. In pratica avrebbe reso disponibile quel modello consapevole dei rischi, privilegiando quindi la crescita economica rispetto alla protezione dei più fragili.

Si sostiene, inoltre, che nel febbraio 2025 OpenAI abbia indebolito le protezioni limitandosi ad addestrare l'IA a prestare attenzione alle situazioni rischiose, piuttosto che aggiungere contenuti potenzialmente pericolosi nella lista degli argomenti non consentiti. Secondo la famiglia, queste modifiche hanno portato Adam ad aumentare durata e quantità delle chat, con l'1,6% delle conversazioni contenente argomenti autolesionistici a gennaio, fino ad arrivare a 300 chat giornaliere ad aprile, mese della sua morte.
Nuovi sistemi di sicurezza e controlli parentali
OpenAI, lo ricordiamo, ha recentemente introdotto nuove misure di sicurezza e controlli parentali. Il nuovo sistema di instradamento indirizza le conversazioni più sensibili al modello GPT-5, più preciso e - soprattutto - sicuro.
Inoltre, in caso di argomenti molto delicati, adesso il chatbot suggerisce linee telefoniche di emergenza affinché l'utente possa cercare aiuto concretamente. Ad ogni modo, al momento non è chiaro perché OpenAI abbia presentato quella richiesta e occorrono ulteriori chiarimenti.