Spectacles, gli occhiali che vogliono portare la realtà aumentata nella vita quotidiana

Spectacles, gli occhiali che vogliono portare la realtà aumentata nella vita quotidiana


La presentazione alla stampa Spectacles si tiene in un appartamento luminoso e spazioso nel centro di Milano. L’atmosfera è intima: niente folla, solo piccoli slot distribuiti durante la giornata per provare gli occhiali in realtà aumentata (AR). Io ho un’oretta con Tristan Quil, Production Manager dell’AR Studio di Snapchat, che mi mostra una serie di applicazioni pensate per alzare l’asticella dell’esperienza in realtà aumentata. Tristan racconta che il prossimo anno segnerà il debutto ufficiale sul mercatodopo un lungo periodo in cui gli occhiali sono rimasti nelle mani degli sviluppatori. Una scelta strategica, che ha permesso di ampliare enormemente gli orizzonti di ciò che si può fare con questi buffi occhiali dal look a metà tra il cyberpunk e Balenciaga.

Gli Spectacles, in sé, non sono una novità: erano stati presentati nel 2024. L’incontro di oggi serve però a mostrare la seconda generazione del sistema operativo proprietario, Snap OS 2.0un assaggio concreto delle nuove potenzialità dell’interfaccia. E anche l’occasione per annunciare che, nel corso del prossimo anno, arriverà la sesta generazione degli Spectacles: più leggeri, più immersivi e pronti a sostituire il modello che stiamo indossando ora.

Il peso della tecnologia

Gli Spectacles quinta generazione pesano 226 grammi. Per intenderci, sono meno della metà di un visore VR tipico, ma abbastanza da farvi sentire la pressione sulle orecchie e sul naso dopo un po’. Peso giustificato dalla tecnologia dentro: quattro fotocamere per il tracciamento delle mani e dell’ambiente, micro-proiettori LCoS (cristalli liquidi su silicio) per immagini nitide, e guide d’onda avanzate con “miliardi di nanostrutture” che dirigono la luce nel campo visivo. Il tutto alimentato da una doppia architettura con due processori Snapdragon di Qualcomm, che distribuisce il carico di lavoro per ridurre il consumo energetico. Ci sono persino camere di raffreddamento in titanio per la dissipazione del calore.

Il nostro test

Una volta indossati, con lenti correttive nel mio caso, lo schermo sembra letteralmente materializzarsi davanti ai nostri occhi. Niente menù complicati o controller: si usano le mani. Il menu principale appare nel palmo della mano quando lo guardi, come in un film sci-fi fatto bene. Il merito è dello Snap Spatial Engine, il cervello che interpreta l’ambiente e permette alle “Lens” , così Snap chiama le sue app AR, di apparire nello spazio in modo credibile e tridimensionale. La latenza del movimento, mi spiegano, è di appena 13 millisecondi: quando muovi la testa, le immagini AR ti seguono con una fluidità sorprendente. Peccato per il campo visivo piuttosto ristretto di 46 gradi. Promettono però che nella prossima generazione sarà ampliato (gli Orion di Meta arrivano a 70 gradi) e sinceramente è una buona notizia, perché questo limite si percepisce.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top