Grok, il chatbot di xAI, continua a commettere errori e a diffondere informazioni errate. Non è la prima volta, ma il nuovo episodio riguarda la recente sparatoria a Bondi Beach, in Australia. Il chatbot ha identificato erroneamente alcune persone e ricostruito la vicenda in modo inesatto. Errori di questo tipo possono essere pericolosi e compromettere l'affidabilità dei chatbot, soprattutto quando si tratta di argomenti sensibili. Vediamo tutti i dettagli.
La disinformazione del chatbot sulla sparatoria
Secondo quanto segnalato da diversi utenti e da Gizmodo, Grok ha identificato in modo errato il passante nella foto che ha disarmato uno dei tiratori (ovvero il 43enne Ahmed Al Ahmed). L'uomo, secondo il chatbot, sarebbe un ostaggio israeliano, mentre in un altro post avrebbe riportato informazioni fuori contesto sul trattamento riservato dai militari israeliani ai palestinesi.
In un'altra chat, invece, Ahmed Al Ahmed sarebbe stato identificato come Edward Crabtree, "professionista IT e Senior Solutions Architect", ma in realtà è una persona inesistente. Alla fine Grok ha cercato di correggere alcuni errori, riconoscendo poi l'identità di Al Ahmed. Il chatbot potrebbe aver raccolto le informazioni provenienti da un sito del tutto inaffidabile e generato dall'intelligenza artificiale, probabile causa dell'errore.
Tuttavia, in contesti delicati, generare confusione può essere molto rischioso: è sempre meglio consultare siti giornalistici ufficiali e affidabili, oppure confrontare le informazioni.
Gli errori di Grok
Come vi abbiamo detto, sono state diverse le informazioni controverse e inesatte del chatbot. Dalla propagazione di teorie infondate a contenuti con frasi estremiste, fino a vere e proprie allucinazioni o dati storici errati, Grok ha mostrato in più occasioni limiti evidenti nella gestione di temi sensibili e notizie recenti.
Nel frattempo, lo scorso mese è stato annunciato Grok 4.1, nuova versione del modello IA che avrebbe ridotto le allucinazioni, secondo i dati interni diffusi da xAI. Tuttavia, c'è ancora da fare.