21

Google blocca per la prima volta un attacco zero-day sviluppato con l’aiuto dell’IA destinato a colpire sistemi con autenticazione a due fattori

Google ha dichiarato di aver bloccato il primo exploit zero-day sviluppato con il supporto dell'intelligenza artificiale. L'attacco avrebbe consentito di aggirare l'autenticazione a due fattori.

NOTIZIA di Francesco Messina   —   12/05/2026
IA

Google afferma di aver individuato e neutralizzato per la prima volta un attacco zero-day realizzato con l'assistenza dell'intelligenza artificiale. La scoperta arriva da un rapporto del Google Threat Intelligence Group, che descrive un'operazione preparata da noti gruppi criminali informatici.

Secondo gli analisti, i responsabili stavano organizzando una campagna di sfruttamento su vasta scala. L'obiettivo era una piattaforma open source basata sul web e utilizzata per attività di amministrazione dei sistemi. La vulnerabilità avrebbe permesso di superare i meccanismi di autenticazione a due fattori.

Ulteriori dettagli su questo attacco zero day

Nel codice Python impiegato per l'exploit, i ricercatori hanno rilevato diversi segnali compatibili con l'uso di modelli linguistici. Tra questi compare un punteggio CVSS inesatto, interpretato come una possibile "allucinazione" dell'intelligenza artificiale, oltre a una struttura particolarmente ordinata e didattica.

Google conferma violazione dati su Salesforce: colpiti potenziali clienti Ads Google conferma violazione dati su Salesforce: colpiti potenziali clienti Ads

La falla sfruttava un errore logico nella progettazione del sistema di sicurezza. In pratica, uno sviluppatore aveva incorporato un presupposto di fiducia nel funzionamento della verifica a due passaggi, aprendo la strada a un aggiramento del controllo.

L'IA viene sempre di più utilizzata per effettuare attacchi zero-day

Google precisa di non ritenere che sia stato utilizzato Gemini, ma sottolinea che i criminali ricorrono sempre più spesso all'IA per scoprire debolezze e costruire strumenti di attacco. Le minacce, inoltre, prendono di mira anche componenti chiave dei sistemi di intelligenza artificiale, come connettori esterni e capacità autonome.

Istockphoto 1979406539 612X612

Il rapporto descrive anche nuove tecniche per manipolare i modelli, come il cosiddetto "persona-driven jailbreaking", che induce l'IA a comportarsi come un esperto di sicurezza. Gli aggressori alimentano inoltre i modelli con grandi archivi di vulnerabilità e utilizzano strumenti come OpenClaw per affinare i payload generati e aumentarne l'affidabilità prima del loro utilizzo reale.

Che cosa ne pensate di questo episodio? Ritenete che questa possa rappresentare una forma di evoluzione della sicurezza informatica? Fatecelo sapere nei commenti.

Questo contenuto potrebbe includere link affiliati che generano commissioni.
Per conoscere i dettagli della nostra policy editoriale, è disponibile la pagina etica.