Google ha appena alzato il sipario su quella che potrebbe essere la svolta più significativa nell’evoluzione degli assistenti conversazionali. Si chiama Personal Intelligence ed è la nuova funzione beta di Gemini che trasforma radicalmente il modo in cui l’intelligenza artificiale può conoscerci, comprenderci e servirci. Non si tratta di un semplice aggiornamento: è un cambio di paradigma che solo un colosso come Google può permettersi di operare, grazie all’ecosistema sconfinato di servizi e dati che gestisce. Fino a ieri, Gemini poteva già interagire con Gmail, Calendar, Drive e altri servizi Workspace, recuperando informazioni su nostra esplicita richiesta. Ma Personal Intelligence va oltre: le app Google non sono più semplici archivi da interrogare, ma diventano elementi attivi nella costruzione delle risposte. L’assistente non si limita a pescare un dato, ma ragiona su fonti eterogenee, combina testi con foto e video, collega eventi del passato con esigenze del presente, suggerisce azioni contestualizzate.
Per capire la portata dell’innovazione basta considerare un esempio concreto fornito da Google. Immagina di essere in coda dal gommista e di chiedere a Gemini la misura degli pneumatici del tuo minivan Honda del 2019. L’assistente non solo recupera i dati tecnici del veicolo, ma suggerisce opzioni diverse in base all’uso quotidiano o a viaggi in tutte le stagioni. Come fa? Collega le informazioni a viaggi familiari che ha individuato analizzando le tue foto in Google Photos, integra valutazioni e prezzi dei prodotti, e può persino recuperare il numero di targa da una foto salvata, cercando poi nelle email di Gmail per identificare l’allestimento specifico del tuo veicolo. Questo livello di personalizzazione pone però una sfida tecnica non banale. Anche con una finestra di contesto da un milione di token come quella dei modelli Gemini più avanzati, l’intero storico informativo di un utente risulta ingestibile. Email accumulate negli anni, migliaia di foto con relativi metadati, cronologia di ricerche, visualizzazioni su YouTube: tutto questo supera facilmente, di ordini di grandezza, ciò che può essere caricato integralmente nel contesto di un singolo prompt.

La soluzione di Google si chiama context packing, ovvero la selezione dinamica delle porzioni rilevanti di dati personali da utilizzare in tempo reale. Il motore di Personal Intelligence funziona come un sistema di filtraggio e sintesi che recupera solo frammenti mirati di informazione, li aggrega e li rende disponibili al modello linguistico nel momento opportuno. Non si tratta quindi di allargare indefinitamente la finestra di contesto, ma di costruire un livello intermedio capace di decidere cosa è rilevante in funzione della richiesta specifica. Le fonti supportate al momento includono l’intera suite Google Workspace (Gmail, Calendar, Drive, Docs, Keep), Google Photos, la cronologia di visualizzazione di YouTube e numerosi servizi di ricerca come Search, Shopping, News, Maps, Flights e Hotels. Personal Intelligence eccelle particolarmente nelle raccomandazioni di libri, serie TV, abbigliamento e viaggi, contesti in cui il pregresso personale fa davvero la differenza tra un suggerimento generico e uno azzeccato.
Per aumentare la trasparenza, Gemini mostrerà il proprio processo decisionale attraverso un pulsante Answer now che sostituisce l’attuale Skip, spiegando o citando le informazioni utilizzate dalle fonti collegate. Sulla homepage di Gemini compare inoltre il nuovo chip For you, che propone suggerimenti personalizzati basati sul profilo dell’utente. Ma qui entra in gioco il tema più delicato: la privacy. Google è consapevole della sensibilità dell’argomento e ha costruito Personal Intelligence con alcune garanzie precise. La funzione è disattivata di default e funziona solo previa autorizzazione esplicita. L’utente può scegliere quali app collegare a Gemini, attivandole o disattivandole individualmente in qualsiasi momento. Gmail, Google Foto, YouTube e Search non vengono trattate come un’unica fonte indistinta, ma come servizi separati, ciascuno gestibile autonomamente.

Google sottolinea che i contenuti personali non vengono usati direttamente per addestrare i modelli. Email e foto servono solo a rispondere alle richieste specifiche dell’utente, mentre l’addestramento avviene su segnali più astratti, come prompt e risposte, dopo processi di filtraggio e offuscamento dei dati personali. In altre parole, il sistema non impara la targa della tua auto, ma può imparare come rispondere meglio a richieste che riguardano le targhe delle auto in generale. Per la protezione dei dati in transito, Google fa riferimento ad Application Layer Transport Security (ALTS), un sistema di cifratura sviluppato internamente nel 2017 per le comunicazioni tra servizi all’interno dei propri data center. È anche possibile avviare chat temporanee o rigenerare una risposta senza personalizzazione, riducendo ulteriormente il perimetro di utilizzo del contesto personale. Come misura di sicurezza aggiuntiva, Gemini eviterà di fare assunzioni proattive su dati sensibili come la salute, pur potendone discutere su richiesta esplicita dell’utente.
Accanto agli aspetti tecnologici, Google riconosce apertamente alcuni rischi strutturali. Tra questi c’è l’iper-personalizzazione, che può portare l’assistente a fare inferenze errate o a restringere eccessivamente il campo delle risposte. Se compri il biglietto di un concerto per conto di un amico, Gemini potrebbe credere che ti piace quel determinato tipo di musica e iniziare a proporti contenuti correlati. Un assistente troppo allineato ai gusti passati rischia di cristallizzare le preferenze, escludendo sistematicamente esperienze che, pur fuori dal profilo storico, potrebbero rivelarsi rilevanti o persino trasformativi. Questo problema richiama esperienze passate come Graph Search di Facebook, che oltre dieci anni fa provava a filtrare i contenuti in base agli interessi dell’utente, per poi spegnersi nel 2019. In contesti come i viaggi, un eccesso di personalizzazione può tradursi nell’esclusione di luoghi, percorsi o esperienze che meriterebbero considerazione proprio perché diversi dal solito. Google dichiara di essere consapevole di questo limite, ma la sua gestione concreta sarà uno degli aspetti più delicati da valutare con l’uso reale della funzione.

L’azienda avverte inoltre che, nonostante i test approfonditi, la versione beta può generare risposte inaccurate o casi di iper-personalizzazione, soprattutto in situazioni complesse. Si tratta di un passaggio obbligato per un sistema che deve imparare a bilanciare conoscenza approfondita dell’utente e capacità di sorprenderlo, utilità immediata e apertura a nuove esperienze. Personal Intelligence è disponibile in beta da metà gennaio 2025 per gli abbonati Google AI Pro e AI Ultra con account personali, al momento soltanto negli Stati Uniti. È accessibile su Android, iOS e web con tutti i modelli Gemini selezionabili, incluso Fast. Google ha dichiarato l’intenzione di estenderla in futuro ad altri Paesi, al piano gratuito e presto anche in AI Mode. Al momento è esclusa dagli account Workspace aziendali.
Quello che Google sta costruendo con Personal Intelligence non è solo un assistente più intelligente, ma un sistema capace di trasformare l’enorme quantità di dati personali che già risiede nei suoi server in un vantaggio competitivo difficilmente replicabile. Solo Google, con il suo ecosistema integrato di servizi, può operare una personalizzazione di questa portata. La domanda che resta aperta è se gli utenti saranno disposti ad abbracciare questa visione, accettando che un’intelligenza artificiale conosca davvero tutto di loro in cambio di un’assistenza su misura. La risposta arriverà nei prossimi mesi, quando la funzione si diffonderà oltre i confini americani e raggiungerà milioni di utenti nel mondo.



