20

I chatbot di intelligenza artificiale assecondano gli utenti, anche quando sbagliano: può essere pericoloso

Una ricerca di Stanford avverte: i chatbot di intelligenza artificiale rafforzano le convinzioni degli utenti e legittimano comportamenti dannosi.

NOTIZIA di Raffaele Staccini   —   27/10/2025
Intelligenza artificiale

L'uso dei chatbot basati su intelligenza artificiale come fonte di consigli personali è in forte crescita, ma i rischi potrebbero essere più sottili di quanto si pensi. Uno studio condotto da un gruppo di ricercatori della Stanford University ha evidenziato che questi sistemi tendono ad assecondare sistematicamente le opinioni e le azioni degli utenti, anche quando risultano problematiche o dannose.

Secondo gli autori, questo fenomeno - definito "piaggeria sociale" - potrebbe alterare la percezione di sé e degli altri, influenzando il modo in cui le persone interpretano le proprie relazioni e affrontano i conflitti. Con la diffusione dei chatbot come strumenti di supporto emotivo e decisionale, la questione assume una rilevanza crescente.

I pericoli della "piaggeria"

Il team guidato da Myra Cheng, informatica presso la Stanford University, ha analizzato il comportamento di undici chatbot pubblicamente accessibili, tra cui ChatGPT, Gemini di Google, Claude di Anthropic, Llama di Meta e DeepSeek. L'obiettivo era valutare la loro risposta a situazioni morali o interpersonali complesse.

La nostra percezione delle IA è un problema crescente
La nostra percezione delle IA è un problema crescente

I risultati mostrano che i chatbot approvano le azioni degli utenti con una frequenza circa del 50% superiore rispetto agli esseri umani. In un esperimento, i ricercatori hanno confrontato le risposte dei chatbot con i giudizi espressi dagli utenti di Reddit nella sezione Am I the Asshole?, dove le persone chiedono alla comunità di valutare i propri comportamenti. Mentre la maggior parte dei votanti condannava atteggiamenti scorretti - come legare un sacchetto di rifiuti a un albero in assenza di un cestino - alcuni chatbot, tra cui ChatGPT-4o, hanno invece espresso approvazione, definendo "ammirevole" l'intenzione di non sporcare.

MSI Katana 15 HX: la recensione del laptop con GeForce RTX 5060 ad un prezzo accessibile MSI Katana 15 HX: la recensione del laptop con GeForce RTX 5060 ad un prezzo accessibile

Il problema, spiegano gli autori, non si limita ai casi banali. Anche di fronte a situazioni che implicavano irresponsabilità, menzogne o riferimenti all'autolesionismo, i chatbot tendevano a convalidare le intenzioni dell'utente, raramente incoraggiandolo a considerare il punto di vista altrui.

In un secondo esperimento, oltre mille volontari hanno discusso con chatbot pubblici o con una versione modificata, progettata per ridurre la piaggeria. Gli utenti che ricevevano risposte compiacenti si sentivano più giustificati nei propri comportamenti - ad esempio nell'andare a un evento dell'ex partner senza dirlo all'attuale compagno - e risultavano meno propensi a riconciliarsi dopo un litigio.

Gli effetti non si esaurivano nel breve periodo: le persone che ricevevano risposte approvanti valutavano i chatbot come più affidabili e dichiaravano di volerli consultare nuovamente per ottenere consigli in futuro. Questo meccanismo, osservano i ricercatori, crea un "incentivo perverso" che rafforza sia la dipendenza degli utenti sia la tendenza dei modelli a fornire risposte rassicuranti, anche quando fuorvianti.

Il gruppo di Stanford ha sottolineato che lo studio, non ancora sottoposto a revisione paritaria, mira a stimolare un dibattito sul ruolo sociale di questi strumenti. Cheng ha precisato che gli utenti dovrebbero essere consapevoli del fatto che le risposte dei chatbot non sono oggettive e non possono sostituire il confronto umano: "È importante cercare altre prospettive, provenienti da persone reali che comprendano meglio il contesto della propria situazione."

Anche Alexander Laffer, ricercatore in tecnologie emergenti presso l'Università di Winchester, ha definito lo studio "particolarmente interessante". Secondo Laffer, la piaggeria dei chatbot deriva in parte dal modo in cui vengono addestrati e dal fatto che il loro successo commerciale è spesso legato alla capacità di mantenere alta l'attenzione degli utenti. Questo meccanismo, ha aggiunto, può influenzare non solo le persone vulnerabili ma chiunque interagisca regolarmente con l'intelligenza artificiale.

Intanto Microsoft dichiara di volere un'IA a prova di bambino (non come ChatGPT).