Voudriez-vous porter ChatGPT autour du cou ? OpenAI ne croirait pas aux lunettes

 
L’analyste réputé Ming-Chi Kuo a quelques hypothèses concernant le futur appareil développé par Jony Ive et OpenAI.
Un concept d’appareil à porter au cou // Source : image générée avec ChatGPT

Comment se portera l’intelligence artificielle demain ? C’est la question qui se pose cette semaine après la présentation par Google des lunettes Android XR avec Gemini à bord que nous avons pu essayer.

Pour préparer sa réponse à cette question, OpenAI vient de signer un chèque de 6,5 milliards de dollars pour se payer Jony Ive, designer qui a fait les grandes heures des produits Apple, et ses équipes.

Le travail a déjà commencé, Jony Ive supervisait une start-up dont l’ambition était de lancer des appareils dédiés à l’IA, à l’image du Rabbit R1 et de l’AI Pin.

C’est ce travail qui permet à l’analyste Ming-Chi Kuo d’interroger des sources de l’industrie pour dessiner le portrait robot de ce futur appareil. Première info : il ne s’agirait pas d’une paire de lunettes.

L’IA devant les yeux ou autour du cou ?

D’après Ming-Chi Kuo, voici à quoi ressemblerait le premier appareil d’OpenAI conçu avec Jony Ive.

Le prototype actuel est légèrement plus grand que l’AI Pin, avec un format aussi compact et élégant qu’un iPod Shuffle. La conception et les spécifications sont susceptibles d’être modifiées avant la production en série. L’un des cas d’utilisation prévus est le port de l’appareil autour du cou. Il sera équipé de caméras et de microphones pour la détection de l’environnement, mais n’aura pas de fonction d’affichage.

Il indique par ailleurs que le produit ne commencerait pas sa production en masse avant 2027 et l’assemblage se ferait au Vietnam, pour échapper aux éventuelles taxes douanières des États-Unis envers la Chine.

OpenAI suivrait donc le parti pris d’Humane et Rabbit en créant un appareil qui ne se porterait pas devant vos yeux, des lunettes, mais plutôt autour du cou.

Ce sont là les deux façons de concevoir des produits capables de voir notre environnement et entendre notre voix. Aujourd’hui, les assistants comme ChatGPT, Perplexity ou Gemini peuvent être limités en matière d’ergonomie par l’obligation de tenir le smartphone à la main pour montrer à l’IA ce que l’on souhaite analyser.

Pour remplacer efficacement le smartphone dans ce cas d’usage, l’appareil doit donc intégrer une ou plusieurs caméras pointées dans la même direction que l’utilisateur, tout en étant hors de mains.

Apple et Google semblent plutôt prendre le pari qu’un tel appareil se matérialisera à travers une paire de lunettes. OpenAI part pour le moment dans une autre direction si l’on en croit Ming-Chi Kuo. Le marché tranchera.


Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !