Ces lunettes connectées sont un assistant IA omniscient et sécurisé


Les lunettes connectées avec microphones, haut-parleurs et même caméras intégrés sont de plus en plus discrètes. Des fabricants comme Ray-Ban et TCL montrent que la technologie peut désormais être intégrée de manière presque transparente dans des lunettes relativement fines. Avec l'évolution actuelle de l'intelligence artificielle, les lunettes offrent un potentiel gigantesque en tant qu'assistants numériques, toujours là pour nous- et capables de voir quasiment à travers nos yeux. Mais bien sûr, cela soulève aussi des questions gigantesques de protection des données.
TCL Rayneo X3 Pro: Un assistant omniscient
On a déjà pu les voir au CES, mais TCL a de nouveau présenté ses Rayneo X3 Pro au MWC. Ces lunettes connectées sont équipées de microphones, de haut-parleurs, d'une caméra et même d'un écran couleur dans les verres. Mais même si le matériel intégré dans le boîtier étonnamment léger est impressionnant, il s'agit ici de parler d'autre chose. Si les lunettes voient le monde à travers nos yeux et que les informations sont traitées par un modèle d'IA, celui-ci aura inévitablement accès à nos vies les plus privées.
La question est de savoir comment nous pouvons continuer à contrôler ces données.
La plate-forme matérielle des Rayneo X3 Pro est le Snapdragon AR1 Gen 1 de Qualcomm- la puce est d'ailleurs également utilisée dans les Ray-Ban Meta Glasses. La puissance de calcul est bien sûr fortement limitée, car il n'y a pas beaucoup de place dans les lunettes ni suffisamment de capacité de batterie pour alimenter un processeur puissant. Mais Qualcomm a d'autres puces et les utilisateurs les emportent avec eux sous la forme de leur smartphone. Concrètement, la solution est donc la suivante: le modèle d'IA fonctionne sur le processeur Qualcomm du téléphone.

Qualcomm et TCL décrivent le scénario suivant au MWC: l'utilisateur regarde son gymnase à domicile et demande à l'assistant: "Recommande-moi une séance d'entraînement physique que je peux faire ici".- et le système d'IA se met en marche.
- Dans un premier temps, les lunettes prennent une photo et analysent l'équipement disponible
- Ensuite, le modèle d'IA obtient des données individuelles sur ma condition physique et ma santé à l'aide de RAG (Retrieval-Augmented Generation) et sait donc ce qu'il peut me demander
- En option, le RAG permet d'entrer d'autres informations, par exemple une philosophie d'entraînement particulière que je suis
- Enfin, une recommandation d'entraînement est générée localement sur le smartphone et les lunettes me renvoient le résultat
Dans ce cas, l'interaction fonctionne parce que le fabricant de puces Qualcomm a créé une plate-forme multi-appareils. Les lunettes deviennent ainsi une interface pour l'utilisateur, le smartphone s'occupe de la puissance de calcul- et les données ne vont jamais dans le cloud.
Les possibilités d'application sont quasiment infinies. Avec les lunettes, je dispose en effet d'un assistant presque omniscient qui peut voir et entendre tout ce qui se passe autour de moi- qu'il s'agisse de recettes de cuisine, de navigation dans la rue, de traductions et de notes de conversation ou d'informations complémentaires sur tout ce que je vois.