Libero
APPLE

Apple sta studiando AirPods che leggono i segnali cerebrali?

Apple esplora tecniche avanzate per interpretare segnali cerebrali tramite AI e sistemi ear-EEG. Indizi tra studi, brevetti e possibili AirPods biometrici evoluti

Pubblicato:

airpods apple Framesira / Shutterstock.com

In sintesi

  • Le ricerche Apple puntano verso modelli AI che interpretano la struttura temporale dei segnali EEG senza grandi quantità di dati etichettati.
  • Brevetti e studi indicano un possibile interesse per auricolari capaci di rilevare biosegnali, anche se per ora non esiste alcun riferimento diretto a futuri AirPods neuro-sensoriali.

Ogni volta che una tecnologia diventa parte della quotidianità, i colossi del settore sono già impegnati a immaginare la prossima trasformazione. Alcune idee rimarranno esperimenti confinati nei laboratori, altre richiederanno anni prima di emergere come prodotti reali. Quando però qualche dettaglio trapela, permette di intravedere (o, almeno, di immaginare) la direzione verso cui si muovono ricerca e sviluppo. L’indiscrezione più recente riguarda Apple e la possibilità, che per ora è assolutamente ipotetica, che stia valutando di lavorare a futuri AirPods in grado di interpretare i segnali cerebrali.

Cosa sappiamo degli studi sulla lettura dei segnali cerebrali

Non è la prima volta che Apple approfondisce lo studio dei segnali cerebrali e delle tecniche per interpretarli. Un recente lavoro accademico intitolato “Learning the relative composition of EEG signals using pairwise relative shift pretraining” presenta un metodo chiamato PARS.

Questo metodo, il cui nome è l’acronimo di PAirwise Relative Shift, ha alla base l’idea di comprendere come due porzioni di attività elettrica cerebrale si posizionino l’una rispetto all’altra nel tempo. La ricerca non verte tanto sulla necessità di avere ampi volumi di dati EEG già etichettati, dunque, quanto sulla capacità di un modello di apprendere direttamente dalla struttura temporale del segnale stesso.

Questo approccio di auto-apprendimento permette di evitare il ricorso a immense raccolte di tracciati annotati da esperti e, in questo modo, rimuove uno dei principali ostacoli nello sviluppo di algoritmi affidabili per l’analisi elettroencefalografica. Liberare i sistemi da questa dipendenza, in teoria faciliterebbe lo sviluppo di tecnologie più agili e potenzialmente più accurate.

In che modo gli AirPods potrebbero leggere i segnali cerebrali

Per capire il contributo del metodo PARS, si può pensare alla differenza rispetto alle più comuni tecniche di autoencoder mascherati, che si concentrano su piccole sezioni mancanti del segnale. PARS invece invita l’algoritmo a cogliere la struttura più ampia e il modo in cui le parti del tracciato EEG si collegano nel tempo.

I test condotti su quattro differenti dataset mostrano che questa tecnica riesce a eguagliare o superare le prestazioni dei modelli più affermati, soprattutto nelle situazioni in cui le etichette sono poche o del tutto assenti.

Tra i dataset impiegati compare EESM17, una raccolta di registrazioni realizzate tramite sistemi ear-EEG, cioè dispositivi che utilizzano elettrodi posti dentro o attorno al padiglione auricolare. Proprio questo elemento ha acceso l’immaginazione di molti osservatori, poiché suggerisce un possibile collegamento tra ricerca teorica e dispositivi indossabili come gli auricolari.

Apple farà davvero AirPods che leggono i segnali cerebrali?

Nel lavoro accademico non viene mai menzionato alcun prodotto Apple, né tantomeno gli AirPods. La stampa specializzata ha però iniziato a collegare tra loro indizi e segnali, trasformando una ricerca indipendente in un possibile scenario di sviluppo futuro.

È un salto interpretativo, insomma, ma non del tutto irrealistico. Nel 2023 Apple ha infatti depositato un brevetto dedicato a un dispositivo capace di raccogliere biosegnali provenienti dall’orecchio.

Il progetto descritto fa uso di numerosi elettrodi distribuiti all’interno della scocca. Il design è pensato per adattarsi a differenze anatomiche anche marcate tra gli utenti, sfruttando un numero di elettrodi superiore al necessario e un algoritmo che valuta ogni contatto, e seleziona in automatico il migliore, in base a parametri come rumore e stabilità. Le potenziali applicazioni citate nel brevetto spaziano dal monitoraggio del sonno all’individuazione di attività irregolari come le crisi epilettiche.

Vale la pena ribadire che per ora non esiste alcun collegamento esplicito e formale tra il brevetto e lo studio su PARS. È possibile però che Apple stia esplorando in parallelo l’hardware e il software necessari a trasformare i futuri auricolari in strumenti biometrici avanzati.

Che ciò porti davvero a AirPods capaci di leggere i segnali cerebrali è un’ipotesi ancora lontana dal diventare certezza, ma gli indizi mostrano che questa potrebbe essere una delle direzioni in cui l’azienda sta guardando.

NH Collection Paris Ponthieu Champs-Élysées