Immagina di addormentarti con i tuoi AirPods e svegliarti con un report completo delle tue fasi del sonno, delle onde cerebrali e persino degli episodi anomali durante la notte. Non è fantascienza, è esattamente la direzione che Apple sembra voler prendere secondo un nuovo studio pubblicato dai suoi ricercatori. E stavolta non parliamo di semplici sensori per il battito cardiaco, ma di qualcosa di molto più ambizioso: leggere l’attività elettrica del cervello direttamente dall’orecchio. Il documento scientifico introduce un metodo chiamato PARS, acronimo di PAirwise Relative Shift. Ma cosa significa in parole semplici? Attualmente, i modelli di intelligenza artificiale che analizzano l’attività cerebrale hanno bisogno di enormi quantità di dati annotati manualmente da esperti. Qualcuno deve indicare alla macchina: “Questo segmento corrisponde al sonno REM, questo al Non-REM, questo è l’inizio di una crisi epilettica“. Un processo lungo, costoso e che richiede competenze mediche specialistiche.

Apple ha deciso di ribaltare il tavolo. Invece di nutrire il modello con dati etichettati, i ricercatori di Cupertino hanno insegnato all’intelligenza artificiale a imparare da sola la struttura dell’attività cerebrale. Come? Facendole predire quanto sono distanti nel tempo diversi segmenti di segnale elettroencefalografico. In pratica, il modello impara a riconoscere pattern e sequenze temporali nelle onde cerebrali senza che nessuno gli dica cosa sta guardando. I metodi esistenti si concentrano principalmente sul riempire piccoli vuoti nel segnale, come un puzzle a cui mancano alcuni pezzi. PARS invece spinge il modello a comprendere la struttura complessiva, le dipendenze a lungo raggio, il modo in cui diverse parti del segnale cerebrale si relazionano nel tempo. È come la differenza tra memorizzare singole parole e capire la grammatica di un’intera lingua.

I risultati sono stati promettenti. Il modello addestrato con PARS ha superato o eguagliato i metodi precedenti in tre dei quattro benchmark testati, dimostrando la sua efficacia in compiti che vanno dal riconoscimento delle fasi del sonno alla rilevazione di convulsioni, fino alla classificazione di immagini motorie. Ma c’è un dettaglio particolare che collega questa ricerca agli AirPods: uno dei quattro dataset utilizzati si chiama EESM17, ovvero Ear-EEG Sleep Monitoring 2017. Questo dataset contiene registrazioni notturne di nove soggetti monitorati sia con un sistema tradizionale di elettrodi posizionati sul cuoio capelluto, sia con un sistema innovativo di 12 canali collocato nell’orecchio. Sì, hai letto bene: elettrodi nell’orecchio. Il sistema ear-EEG, pur utilizzando elettrodi diversi da quelli tradizionali, è in grado di rilevare molti segnali cerebrali clinicamente rilevanti, come le fasi del sonno e determinati pattern associati alle convulsioni.

Quando e se vedremo AirPods con sensori cerebrali sugli scaffali rimane una domanda aperta. Apple è notoriamente cauta nel lanciare funzionalità sanitarie, sottoponendole a rigorosi studi clinici prima della commercializzazione. Ma la combinazione di ricerca scientifica pubblicata e brevetti dettagliati suggerisce che l’idea non è semplicemente un esperimento di laboratorio. È una direzione strategica su cui l’azienda sta investendo risorse significative. La prossima volta che indossi i tuoi AirPods, forse ti chiederai: quanto manca prima che questi piccoli dispositivi non si limitino a riprodurre musica, ma comincino ad ascoltare ciò che succede nella tua testa? Se dipende da Apple, forse non manca poi così tanto.

Condividi.

Nato il 19 Dicembre 1992, ha capito subito che il cinema era la sua strada. Dopo essersi laureato in filosofia all'università di Palermo e aver seguito esami, laboratori e corsi sulla critica, la storia del cinema e la scrittura creativa, si è focalizzato sulle sue più grandi passioni: scrivere e la settima arte. Ha scritto per L'occhio del cineasta ed è stato redattore per Cinesblog fino alla sua chiusura. Ora si occupa di news e articoli per ScreenWorld.it, per CinemaSerieTv.it e CultWeb.it