Meta ha annunciato che ha iniziato a distribuire l’aggiornamento software v11 che renderà gli occhiali Ray-Ban Meta Smart Glasses più utili e pratici da utilizzare. Ecco una panoramica delle nuove funzionalità in arrivo.

La prima è l’intelligenza artificiale in tempo reale di Meta AI che tramite gli occhiali può vedere quello che si sta guardando, con la possibilità di conversare in modo naturale a mani libere, utile ad esempio in cucina, nel giardinaggio, o mentre si cammina per le vie della città.

Gli occhiali Ray-Ban Meta Smart Glasses diventano più utili

Ora è possibile fare domande senza dire “Ehi Meta”, fare riferimento a discorsi fatti in precedenza e interrompere in qualsiasi momento l’intelligenza artificiale per fare domande di follow-up o cambiare argomento. L’azienda di Mark Zuckerberg afferma che col tempo Meta AI fornirà suggerimenti utili anche prima che l’utente chieda.

La seconda novità è la traduzione in tempo reale attraverso la quale gli occhiali Ray-Ban Meta saranno in grado di tradurre il parlato in tempo reale dall’inglese allo spagnolo, al francese o all’italiano, attraverso gli altoparlanti open-ear integrati negli occhiali, oppure visualizzando le trascrizioni sullo smartphone.

La terza novità riguarda il riconoscimento dei brani musicali tramite Shazam pronunciando “Hey Meta, che canzone è questa?”.

Queste funzionalità sono riservate ai membri del programma Early Access attualmente disponibile per gli utenti negli Stati Uniti e in Canada e forse arriveranno anche da noi, DMA permettendo.