Prenota, ordina da mangiare e organizza: Gemini diventa il tuo assistente personale
Gemini su Android passa da chatbot ad assistente operativo: può ordinare la cena o riempire il carrello nelle app compatibili. Funzione beta, per ora fuori dall’Italia.

Con le nuove automazioni su Android, Gemini comincia a muoversi all’interno delle app, a compiere azioni concrete e a farsi carico di interi compiti, dall’ordinare la cena al riempire il carrello della spesa partendo da una chat o da una ricetta.
È una funzione ancora in beta e confinata a scenari circoscritti, ma il cambio di paradigma è evidente. Non più soltanto un chatbot che risponde a richieste testuali, bensì un assistente che interviene direttamente sullo smartphone e, almeno in parte, agisce al posto dell’utente.
Dalle chat al carrello: come funzionano le nuove automazioni di Gemini?
Le dimostrazioni ufficiali si concentrano su situazioni quotidiane. Sameer Samat, presidente dell’ecosistema Android di Google, ha mostrato come Gemini possa analizzare una caotica chat di famiglia sul tema “pizza per cena”, interpretarne i contenuti, ricostruire le preferenze di ciascuno e preparare l’ordine all’interno di un’app di delivery. All’utente resta il controllo finale: verificare il riepilogo e confermare l’invio.
Un altro esempio riguarda la lista ingredienti di una ricetta. Gemini è in grado di elaborare un elenco lungo e poco strutturato e trasferire i prodotti nel carrello dell’app di spesa a domicilio preferita. Il modello Gemini 3 sfrutta capacità di ragionamento e comprensione multimodale per leggere ciò che appare sullo schermo, individuare ciò che serve e navigare l’interfaccia fino alla fase di checkout.
Queste automazioni debuttano come funzione beta nell’app Gemini su Pixel 10, Pixel 10 Pro e sulla serie Samsung Galaxy S26. In una prima fase coinvolgono solo alcune categorie, in particolare food delivery, spesa a domicilio e ride sharing, con partner selezionati. La disponibilità è limitata agli Stati Uniti e alla Corea del Sud.
Un assistente che vive dentro Android
Per descrivere questa evoluzione, Samat parla di un Android che passa da semplice sistema operativo a “sistema intelligente”, capace di comprendere il contesto e agire di conseguenza. Le automazioni di Gemini non si basano esclusivamente sulla ricerca web, ma su un’infrastruttura più profonda che include AppFunctions e un framework dedicato all’automazione dell’interfaccia.
Con AppFunctions, le applicazioni possono esporre funzioni specifiche attraverso una libreria Jetpack, consentendo ad agenti come Gemini di richiamarle direttamente. Google cita l’esempio della Galleria Samsung: invece di scorrere manualmente gli album, l’utente può chiedere di visualizzare “le foto del mio gatto” e ottenere il risultato all’interno dell’app Gemini.
Parallelamente, è in fase di test un framework di automazione grafica che permette all’assistente di compiere azioni generiche nelle app installate, simulando tocchi e scroll.
Sicurezza, limiti e prossimi passi
Un assistente che si muove autonomamente tra applicazioni sensibili solleva inevitabili questioni legate a privacy e sicurezza. Google sottolinea alcuni vincoli precisi: le automazioni si attivano solo su comando esplicito del proprietario del dispositivo, vengono eseguite in una finestra virtuale sicura e accedono esclusivamente all’app necessaria per completare l’operazione, senza estendersi al resto del telefono. L’utente può monitorare l’avanzamento tramite notifiche in tempo reale e intervenire in qualunque momento.
È disponibile in Italia?
Le nuove automazioni di Gemini su Android sono state annunciate come funzione beta e, allo stato attuale, risultano limitate agli Stati Uniti e alla Corea del Sud, su dispositivi selezionati come Pixel 10, Pixel 10 Pro e la serie Samsung Galaxy S26. Google non ha comunicato tempistiche o modalità di rilascio per altri mercati e non esistono indicazioni ufficiali sull’eventuale arrivo in Italia.


















