Des prototypes des lunettes AR de Google débarquent dans les rues
Les lunettes AR de Google qui permettent de traduire, transcrire et naviguer dans les rues ont été testées début Août dans la vraie vie.
Les lunettes seront visibles dans les rues aux États-Unis
Les lunettes AR de Google avaient été annoncées pour la première fois il y a quelques mois seulement. Elles étaient encore en phase de conception mais nous savions qu’elles allaient permettre de traduire et transcrire des dialogues entre des personnes grâce à la réalité augmentée.
Le mardi 19 juillet, le groupe américain a enfin annoncé que le projet appelé Iris sera en phase de test dans les rues aux États-Unis. Google veut identifier les progrès et problèmes que rencontreront les utilisateurs dans leur vie de tous les jours. « Et à mesure que nous développons des expériences telles que la navigation AR, cela nous aidera à prendre en compte des facteurs tels que la météo et les intersections très fréquentées – qui peuvent être difficiles, parfois impossibles, à recréer entièrement en intérieur. » explique Juston Payne dans un article de blog.
Contact
Un test grandeur nature des lunettes AR réglementée
Pour rassurer, Google a expliqué que les lunettes ressemblent à des lunettes ordinaires mais auront un écran interne ainsi que des capteurs visuels et audio mais qu’un voyant lumineux s’allumera dès lors que des images seront enregistrées. De plus, toutes les données des images ne sont enregistrées qu’à des fins d’analyse et pourront être supprimées sur demande.
Une page d’assistance Google explique aussi que les zones de test sont sélectionnées au préalable et strictement délimitées et les activités que les testeurs peuvent faire sont totalement réglementées. Enfin les testeurs devront suivre une formation sur l’utilisation des lunettes AR, les protocoles à suivre ainsi que sur la confidentialité et la sécurité.
3 fonctionnalités au coeur du test des prototypes
Le géant américain veut analyser le fonctionnement et les performances de 3 grandes fonctionnalités.
Les deux premières sont la traduction et transcription d’un dialogue entre deux personnes de langues différentes. En effet, c’était les deux objectifs premier de ces lunettes AR. Grâce à l’écran interne, les lunettes pourront projeter du texte traduit ou non en réalité augmentée dans l’environnement de l’utilisateur des paires de lunettes. Ainsi, il pourra suivre et échanger avec une personne qui ne parle pas sa langue.
La dernière fonctionnalité est le GPS en réalité augmentée. En effet, les lunettes pourront projeter les indications de navigation pour se rendre à une destination. Les utilisateurs n’auront plus besoin de regarder leur téléphone pour se déplacer et auront juste à suivre les indications précises. Les lunettes seront en capacité de reconnaître les changements et croisements de rue.
Les tests dans les rues permettront ainsi à Google d’améliorer les différentes fonctionnalités plus facilement puisqu’ils pourront voir les bogues et les problèmes survenir grâce à l’enregistrement des données des images.