La diffusione globale di ChatGPT ha rivelato un utilizzo inaspettato della tecnologia: gli utenti non la interrogano solo per codificare o scrivere, ma anche per cercare coaching, consigli sulla vita e persino sostegno emotivo in momenti di grave difficoltà. Di fronte a questo scenario, e in seguito a recenti "episodi drammatici", OpenAI ha sentito la profonda responsabilità di fare chiarezza e rafforzare le proprie misure di sicurezza.
Il sistema è progettato per riconoscere i segnali di disagio mentale e risponde con empatia, non fornendo mai istruzioni relative all'autolesionismo. Per i casi di potenziale danno fisico a terzi, la conversazione viene invece inoltrata a un team umano per l'analisi e l'eventuale segnalazione alle forze dell'ordine.
ChatGPT: un sistema non infallibile
Nonostante questi protocolli, l'azienda ammette che il sistema non è infallibile. Qui sta il potenziale problema: sebbene le difese funzionino bene negli scambi brevi, tendono a indebolirsi nelle conversazioni lunghe. Un utente in crisi che dialoga per molto tempo può vedere il modello scivolare in risposte che contraddicono l'addestramento di sicurezza.
OpenAI sta lavorando intensamente per rafforzare le mitigazioni in questi contesti prolungati e per perfezionare il meccanismo di blocco dei contenuti, talvolta troppo permissivo a causa di una sottovalutazione della gravità. L'aggiornamento a GPT-5, che vanta miglioramenti del 25% nella prevenzione della dipendenza emotiva e nella gestione delle emergenze, rappresenta un passo avanti, ma la sfida è costante.
ChatGPT: uno sguardo al futuro
Guardando al futuro, OpenAI intende espandere gli interventi a un maggior numero di crisi, localizzare le risorse di emergenza a livello globale e, in un progetto a lungo termine, creare una rete di terapeuti certificati contattabili direttamente tramite ChatGPT. Particolare attenzione è rivolta agli adolescenti, con l'implementazione di protezioni mirate e l'introduzione del controllo parentale e la possibilità di designare contatti di emergenza fidati.
La tecnologia si ritrova così a navigare un delicato equilibrio tra supporto emotivo e responsabilità medica, un terreno che richiede costante cautela e supervisione esperta. Allo stesso tempo, però, permane, soprattutto fra gli utenti, la sensazione di vedere la propria privacy violata o comunque una diffusione di informazioni, in teoria riservate a quella conversazione, non volontaria o non consapevole. Il tema è molto complesso e delicato, che cosa ne pensate?