L’intelligenza artificiale non serve solo a scrivere testi o riassumere email: oggi può anche “vedere” quello che guardi e aiutarti a capire il mondo in tempo reale. Apple chiama questa tecnologia Visual Intelligence ed è già una delle funzioni più usate sui nuovi iPhone. Basta inquadrare qualcosa o fare uno screenshot e il telefono traduce, cerca informazioni o trasforma ciò che vedi in azioni concrete. Ma non è solo una novità software: secondo Apple è il primo passo verso dispositivi che osservano l’ambiente e assistono l’utente senza schermo. Per questo Tim Cook l’ha definita una delle capacità più popolari e strategiche dell’ecosistema Apple Intelligence.
Visual Intelligence nasce come funzione integrata nella serie iPhone 16 e nel sistema Apple Intelligence. Si attiva tramite il nuovo pulsante Controllo Fotocamera oppure con un comando dal Centro di Controllo o dalla schermata di blocco. Una volta attivata, la fotocamera non serve solo a scattare foto ma diventa un sensore intelligente capace di interpretare ciò che vede. Puoi puntare il telefono su un cartello stradale e ottenere la traduzione immediata nella tua lingua, scansionare un volantino e aggiungere automaticamente un evento al calendario, oppure inquadrare un ristorante per visualizzare recensioni, foto e informazioni utili senza aprire manualmente le app.
Con iOS 26 Apple ha ampliato molto le possibilità, spostando l’intelligenza visiva oltre la fotocamera. Ora qualsiasi contenuto visualizzato sullo schermo può essere analizzato dall’AI attraverso gli screenshot. Il nuovo visualizzatore consente di attivare funzioni intelligenti direttamente sulle immagini salvate, per esempio trasformare un URL scritto in un video in un link cliccabile o estrarre informazioni utili da una schermata. L’idea è rendere ogni elemento visivo una porta d’accesso ad azioni rapide, ricerche e risposte automatiche tra le diverse applicazioni.

Tim Cook ha citato esplicitamente questa funzione durante una conferenza finanziaria, definendola una delle più popolari tra gli utenti Apple perché consente di imparare e fare di più con i contenuti presenti sullo schermo. Secondo le sue parole, l’intelligenza visiva rende più veloce cercare informazioni, prendere decisioni e completare attività quotidiane senza passaggi complessi. L’attenzione data a questa tecnologia suggerisce che Apple la considera una base fondamentale per i prodotti futuri. Le indiscrezioni indicano infatti che Visual Intelligence non resterà limitata allo smartphone.
Apple starebbe lavorando a una nuova generazione di AirPods Pro dotati di micro-camere integrate, pensate per analizzare l’ambiente circostante e fornire suggerimenti all’utente senza dover guardare il telefono. In parallelo, si parla di Apple Glasses progettati come dispositivi Apple Intelligence sempre attivi: gli occhiali osservano ciò che l’utente vede e trasmettono informazioni pertinenti in tempo reale. L’obiettivo è trasformare l’intelligenza artificiale in un assistente invisibile, capace di accompagnare le azioni quotidiane senza interrompere l’esperienza reale.
Questa evoluzione rappresenta un cambiamento culturale oltre che tecnologico. L’AI non si limita più a elaborare testi o dati ma interpreta immagini e contesti, rendendo il mondo fisico navigabile come un’interfaccia digitale. Apple sembra voler abituare gradualmente gli utenti a usare l’intelligenza visiva sugli iPhone per preparare il terreno a dispositivi indossabili che “vedono” e suggeriscono automaticamente informazioni.



