Apple ha appena firmato una delle acquisizioni più significative degli ultimi anni, comprando la start-up israeliana Q.ai per una cifra stimata intorno ai due miliardi di dollari. Non si tratta di un semplice investimento tecnologico, ma di un segnale chiaro sulla direzione futura dell’interazione uomo-macchina. Al centro dell’operazione c’è una tecnologia che promette di leggere micro-espressioni del volto e micro-movimenti della pelle per trasformarli in comandi digitali. Un passo che va oltre la voce e i gesti tradizionali, e che apre scenari tanto affascinanti quanto delicati.
Q.ai è una start-up fondata a Tel Aviv nel 2022 che ha lavorato finora lontano dai riflettori, concentrandosi sullo sviluppo di sistemi di intelligenza artificiale capaci di interpretare il cosiddetto “silent speech”, ovvero una forma di comunicazione non verbale basata su micro-movimenti quasi impercettibili del volto. Secondo i brevetti depositati dall’azienda, la tecnologia analizza movimenti di labbra, mascella e muscoli facciali, ma anche variazioni minime della pelle, per comprendere intenzioni e comandi senza bisogno di parlare ad alta voce. A questo si affianca un forte lavoro sull’elaborazione audio, in particolare sul linguaggio sussurrato e sul miglioramento della qualità sonora in ambienti complessi.
Il valore strategico di Q.ai per Apple risiede nella possibilità di superare uno dei limiti principali degli assistenti vocali: la dipendenza dalla voce. Parlare con un’AI non è sempre possibile né desiderabile, soprattutto in luoghi pubblici, rumorosi o in contesti che richiedono riservatezza. La tecnologia di Q.ai, invece, punta a un’interazione continua, discreta e potenzialmente elaborata direttamente sul dispositivo, riducendo latenza e problemi legati alla trasmissione dei dati. Questo significa risposte più rapide e, almeno in teoria, una maggiore tutela della privacy rispetto a sistemi che inviano informazioni costantemente al cloud.

Secondo indiscrezioni e documenti brevettuali, le tecnologie di Q.ai potrebbero essere integrate in molti dei prodotti chiave di Apple, dagli AirPods agli iPhone, passando per Vision Pro, Mac e futuri occhiali intelligenti. Il cuore del progetto sarebbe una nuova generazione di Siri potenziata dall’IA generativa e capace di “capire” l’utente anche senza comandi vocali espliciti. In un momento in cui Apple cerca di recuperare terreno rispetto a competitor come Meta, Google e OpenAI nel campo dei dispositivi smart e indossabili, questa acquisizione rappresenta una mossa per rafforzare la propria posizione nel mercato dell’AI del futuro.
Non a caso, Johny Srouji, vicepresidente senior di Apple per le tecnologie hardware, ha definito Q.ai “un’azienda straordinaria che sta aprendo nuove strade nell’uso dell’imaging e del machine learning”. Le implicazioni non sono solo tecnologiche, ma anche sociali. Dal punto di vista dell’inclusione, interfacce che non richiedono voce, mani libere o gesti evidenti possono rappresentare un enorme passo avanti per persone con disabilità motorie, sensoriali o del linguaggio. Allo stesso tempo, però, emerge un tema cruciale: quello della sorveglianza invisibile. Un sistema capace di leggere micro-espressioni, battiti di ciglia o variazioni del respiro entra in una sfera estremamente intima dell’esperienza umana.



