Google, Meta et Snap pensent que cette technologie est la prochaine grande nouveauté

Le dernier exemple en date : Snap a annoncé la semaine dernière qu'il construisait des lunettes équipées d'IA qui seront commercialisées en 2026.
Le regain d’intérêt pour les lunettes intelligentes est probablement la combinaison de deux tendances : la prise de conscience que les smartphones ne sont plus assez intéressants pour inciter les utilisateurs à les mettre à niveau souvent et le désir de capitaliser sur l’IA en construisant de nouveaux matériels autour d’elle.
C'est pourquoi, bien que les lunettes connectées ne soient pas entièrement nouvelles, les avancées de l'IA pourraient les rendre bien plus utiles qu'auparavant. Les nouveaux modèles d'IA peuvent traiter simultanément des images, des vidéos et des conversations, répondre à des demandes complexes et dialoguer.
Et cela pourrait enfin rendre les lunettes intelligentes utiles à porter.
« L'IA rend ces appareils beaucoup plus faciles à utiliser et introduit également de nouvelles façons dont les gens peuvent les utiliser », a déclaré Jitesh Ubrani, responsable de recherche couvrant les appareils portables pour la société d'études de marché The International Data Corporation.
Mais les Google Glass d'il y a dix ans n'ont jamais eu de succès. L'écran était minuscule, l'autonomie de la batterie était courte et les « lunettes » elles-mêmes étaient chères et démodées. Des lunettes plus modernes, comme les Echo Frames d'Amazon, les Ray-Ban Stories originales de Meta et les premières versions des Spectacles de Snap, ont facilité l'écoute de musique ou la prise de photos en mains libres. Pourtant, elles ne proposaient toujours rien de ce que l'on ne pouvait déjà faire avec un smartphone.
Cette nouvelle génération de lunettes intelligentes est beaucoup plus sophistiquée.
Par exemple, lorsque j'ai testé des prototypes de verres basés sur le logiciel de Google l'année dernière, j'ai demandé à l'assistant Gemini de Google de me proposer des idées de cocktails à partir de bouteilles d'alcool que j'avais observées sur une étagère. Les verres se souviendront également de ce que vous avez vu et répondront à vos questions en fonction de cela : lors de la conférence des développeurs I/O en mai, une employée de Google a demandé à Gemini le nom d'un café imprimé sur une tasse qu'elle avait regardée auparavant.
Grâce aux lunettes Ray-Ban Meta AI, les utilisateurs peuvent effectuer des tâches comme demander si un poivron qu'ils regardent dans une épicerie est épicé ou traduire des conversations entre différentes langues en temps réel. Deux millions de paires ont été vendues depuis leur lancement en 2023, a annoncé EssilorLuxottica, la société mère de Ray-Ban, en février.
Les participants portent des Google Glass tout en posant pour une photo de groupe lors de la conférence des développeurs Google I/O le 17 mai 2013 à San Francisco, en Californie. Justin Sullivan/Getty Images
« De nombreuses tentatives ont échoué depuis plusieurs années », a déclaré Andrew Zignani, directeur de recherche principal de l'équipe Technologies stratégiques d'ABI Research. « Mais nous disposons enfin de concepts solides qui montrent ce qui fonctionne. »
Et les études de marché indiquent que l'intérêt sera bien présent cette fois-ci. Selon ABI Research , le marché des lunettes connectées devrait passer de 3,3 millions d'unités expédiées en 2024 à près de 13 millions d'ici 2026. L'International Data Corporation prévoit que le marché des lunettes connectées comme celles fabriquées par Meta passera de 8,8 millions en 2025 à près de 14 millions en 2026.
Ce qui va suivre
Snap n'a pas révélé beaucoup de détails sur ses prochaines lunettes « Specs », mais a déclaré qu'elles « comprendront le monde qui vous entoure ».
« Le minuscule smartphone a limité notre imagination », écrivait Snap dans un billet de blog annonçant les lunettes. « Il nous obligeait à regarder un écran, plutôt que le monde. »
Selon Bloomberg , Apple travaillerait également sur des lunettes connectées qui seraient commercialisées l'année prochaine et qui concurrenceraient directement celles de Meta. Panos Panay, responsable des appareils et services d'Amazon, n'a pas non plus exclu la possibilité de lunettes Alexa équipées d'une caméra, similaires à celles proposées par Meta, lors d'une interview accordée à CNN en février .
« Mais je pense que vous pouvez imaginer qu'il y aura toute une série d'appareils d'IA qui arriveront », a-t-il déclaré en février.
Démonstration de prototypes de lunettes capables d'afficher des informations dans le champ de vision de l'utilisateur lors de la conférence des développeurs Google I/O le 20 mai à Mountain View, Californie. Andrej Sokolow/picture-alliance/dpa/AP
Les applications d'assistants IA, comme ChatGPT d'OpenAI et les applications Google Search et Gemini, posent déjà les bases des lunettes connectées en utilisant l'appareil photo de votre téléphone pour répondre à des questions sur votre environnement. OpenAI intègre sa technologie à tous les appareils, d' un mystérieux nouveau gadget co-conçu par Jony Ive, un vétéran d'Apple, aux futurs jouets Mattel .
Google a annoncé le mois dernier qu'il intégrerait davantage l'appareil photo à son application de recherche, signe qu'il considère cette technologie comme essentielle à la recherche d'informations future. Apple a annoncé la semaine dernière des mises à jour de son outil d'intelligence visuelle, qui permet aux utilisateurs de poser des questions sur le contenu affiché sur l'écran de leur iPhone, en plus de leur environnement, en utilisant l'appareil photo.
Le PDG de Meta, Mark Zuckerberg, a récemment réitéré sa conviction que les lunettes intelligentes pourraient devenir essentielles à la manière dont les gens utilisent la technologie lors de leur témoignage dans une affaire antitrust fédérale.
« L’un des grands paris que nous avons faits au sein de l’entreprise est qu’une grande partie de la façon dont les gens interagiront avec le contenu à l’avenir se fera de plus en plus par le biais de différents supports d’IA, et éventuellement par le biais de lunettes intelligentes et d’hologrammes », a-t-il déclaré en avril.
Les gens veulent-ils vraiment des lunettes intelligentes ?
Les géants de la technologie doivent néanmoins convaincre le grand public. Cela inclut les préoccupations potentielles en matière de confidentialité, qui ont joué un rôle important dans la disparition des Google Glass. Enregistrer une vidéo avec des lunettes équipées d'une caméra est plus subtil que de tenir son téléphone, même si les lunettes Meta et Google sont dotées d'un voyant lumineux sur le devant pour signaler aux autres qu'un utilisateur capture du contenu.
Le plus grand défi sera peut-être de convaincre les consommateurs qu'ils ont besoin d'un nouvel appareil technologique, en particulier ceux qui n'ont pas besoin de lunettes de vue. Ces produits doivent être agréables à porter toute la journée.
Et ces appareils ne seront probablement pas bon marché. Les Ray-Ban de Meta coûtent généralement environ 300 $, soit à peu près le prix d'une montre connectée. Bien que ce soit loin d'être aussi cher que le casque Apple Vision Pro à 3 500 $ , il pourrait être difficile à vendre, car les consommateurs dépensent moins en produits technologiques auxiliaires. Selon Counterpoint Research , les expéditions mondiales de montres connectées ont diminué pour la première fois en mars, signe peut-être que les clients dépensent moins pour des appareils qu'ils ne considèrent pas comme essentiels.
Pourtant, les entreprises technologiques sont prêtes à faire ce pari pour éviter de manquer ce qui pourrait être le prochain produit technologique à succès.
« Nombreux sont ceux qui, dans le secteur, pensent que le smartphone sera un jour remplacé par des lunettes ou un produit similaire », a déclaré Ubrani, analyste chez IDC. « Cela n'arrivera pas aujourd'hui. Cela se produira dans de nombreuses années, et toutes ces entreprises veulent être sûres de ne pas manquer ce changement. »
Suivez Nous