4

Gemini su Pixel 10 e Galaxy S26 ordina Uber e cibo, quello che aveva promesso Apple con Siri

Google e Samsung lanciano le automazioni multi-step delle app: debutto negli USA e in Corea, non ancora disponibile in Italia.

NOTIZIA di Simone Lelli   —   26/02/2026
Gemini

Google e Samsung hanno annunciato una delle evoluzioni più concrete di Google Gemini: la possibilità di eseguire attività multi-step direttamente all'interno delle app. La novità debutta su Google Pixel 10, Google Pixel 10 Pro, Google Pixel 10 Pro XL e sulla serie Samsung Galaxy S26.

L'idea è semplice ma ambiziosa: invece di limitarsi a fornire suggerimenti o risposte testuali, Gemini può aprire applicazioni come Uber o Grubhub e completare l'intero processo operativo. È un approccio che ricorda da vicino le funzionalità avanzate di Siri annunciate da Apple alla WWDC 2024 e poi rinviate nel 2025, senza che siano mai arrivate agli utenti.

Come funziona l’automazione

La funzione si chiama task automation e parte da un semplice comando, ad esempio chiedendo un'auto verso una destinazione specifica oppure ordinando la cena per un gruppo. A quel punto Gemini apre l'app coinvolta in una finestra virtuale sul dispositivo e procede passo dopo passo, navigando l'interfaccia come farebbe un utente reale.

Ancora ritardi per la nuova Siri: debutto rimandato a iOS 26.5 o 27 Ancora ritardi per la nuova Siri: debutto rimandato a iOS 26.5 o 27

L'assistente analizza il contesto, seleziona le opzioni corrette, valuta eventuali alternative e prepara l'ordine o la corsa. L'utente può osservare tutto ciò che accade, interrompere l'operazione in qualsiasi momento oppure lasciare che Gemini lavori in background. Se serve una decisione - ad esempio scegliere tra due varianti o confermare un dettaglio - l'assistente chiede esplicitamente l'intervento. La conferma finale resta comunque nelle mani dell'utente, che deve approvare l'ordine prima dell'invio.

Secondo Sameer Samat, presidente dell'ecosistema Android, questa è una tappa verso una visione in cui Android non è più soltanto un sistema operativo ma un vero "intelligence system".

La tecnologia dietro le quinte

Le dimostrazioni si basano su Gemini 3, che utilizza capacità di ragionamento per interpretare le schermate delle app e interagire con pulsanti e menu. Quando possibile, Gemini sfrutta integrazioni ufficiali tramite framework Android dedicati alle funzioni delle app o protocolli specifici come MCP. In assenza di integrazioni dirette, l'assistente può comunque navigare l'interfaccia autonomamente, simulando le azioni dell'utente.

La funzione in azione
La funzione in azione

L'obiettivo è rendere invisibile la complessità tecnica. Per l'utente finale non dovrebbe avere importanza se l'automazione avviene tramite API ufficiali o interazione diretta con l'interfaccia: ciò che conta è che il compito venga portato a termine.

È disponibile in Italia?

Al momento no: la funzione di task automation è disponibile in anteprima limitata negli Stati Uniti e in Corea del Sud. Non è stata annunciata alcuna disponibilità per l'Italia o per altri mercati europei. Google ha indicato che l'integrazione delle automazioni IA sarà parte della prossima grande versione del sistema operativo, presumibilmente Android 17, ma non sono stati comunicati tempi per un rilascio nel nostro Paese.

Per ora, quindi, gli utenti italiani di Pixel e Galaxy dovranno attendere. Ma il segnale è chiaro: l'IA su smartphone sta passando dalla fase sperimentale a quella operativa, e Gemini è il primo assistente a compiere concretamente questo passo.