Libero
WEARABLE

Ora gli occhiali AI di Meta aiutano anche a sentire meglio

Meta aggiorna i suoi occhiali AI per migliorare l’audio delle conversazioni in ambienti rumorosi e aggiunge una funzione Spotify che riproduce musica in base a ciò che osservi

Pubblicato:

ray-ban-meta Ray Ban

In sintesi

  • L’aggiornamento degli occhiali AI di Meta migliora l’ascolto delle conversazioni in luoghi rumorosi grazie a una nuova funzione di amplificazione vocale.
  • La seconda novità introduce un’integrazione con Spotify che suggerisce e riproduce musica coerente con ciò che l’utente sta guardando.

Gli occhiali smart AI di Meta rappresentano uno dei tentativi più avanzati di integrare intelligenza artificiale e vita quotidiana, ma finora avevano almeno un elemento migliorabile: l’audio. In ambienti affollati o rumorosi, infatti, seguire una conversazione può risultare complicato. L’ultimo aggiornamento annunciato da Meta interviene proprio su questo aspetto, con l’obiettivo di rendere più chiaro l’ascolto delle voci e migliorare l’esperienza d’uso complessiva.

Come sentire meglio le conversazioni con gli occhiali AI di Meta

La novità dedicata all’audio è stata annunciata per la prima volta durante la conferenza Meta Connect all’inizio del 2025, ma ora è in fase di distribuzione. L’aggiornamento sostanzialmente consente di mettere meglio “a fuoco” la voce della persona con cui si sta parlando, anche quando ci si trova in contesti rumorosi come bar o mezzi pubblici.

La funzione arriva con l’aggiornamento software v21 ed è inizialmente disponibile sugli smart glasses Ray-Ban Meta e Oakley Meta HSTN. Al momento il rilascio riguarda solo Stati Uniti e Canada, ma ci si aspetta una distribuzione graduale nei prossimi mesi.

Come funziona l’audio degli occhiali smart di Meta

Il miglioramento dell’audio appena annunciato si basa sugli altoparlanti open-ear integrati negli occhiali AI di Meta, che vengono utilizzati per amplificare in modo selettivo la voce dell’interlocutore.

L’intelligenza artificiale aiuta a distinguere il parlato dai rumori di fondo, rendendo la conversazione più chiara. L’utente può inoltre regolare manualmente il livello di amplificazione, sia toccando l’asta destra degli occhiali sia attraverso le impostazioni del dispositivo, adattando così più facilmente l’audio all’ambiente in cui si trova.

Cos’è la musica Spotify proposta dagli smart glasses Meta

Oltre al miglioramento dell’audio, l’aggiornamento introduce una funzione più orientata all’intrattenimento: l’integrazione con Spotify. Gli occhiali AI di Meta potranno infatti suggerire e riprodurre musica in base a ciò che l’utente sta guardando.

Se, ad esempio, si osserva la copertina di un album, gli occhiali potrebbero avviare un brano dello stesso artista. Guardando un albero di Natale e dei regali, invece, potrebbero avviare automaticamente canzoni a tema natalizio.

Questa funzione, più che una reale utilità pratica, mostra soprattutto come Meta stia sperimentando nuove forme di collegamento tra visione, contesto e azioni digitali.

Da quando sono disponibili le novità audio per gli smart glasses Meta

L’aggiornamento v21 è già disponibile per gli utenti iscritti al programma Early Access di Meta, che prevede l’accesso anticipato tramite lista d’attesa e approvazione. In seguito, il rilascio sarà esteso a un pubblico più ampio.

La funzione di miglioramento delle conversazioni, come già detto, è per ora limitata a Stati Uniti e Canada. L’integrazione con Spotify è invece disponibile in inglese in numerosi altri Paesi, tra cui Italia, Regno Unito, Francia, Germania e Australia.