« Le parrain de l’IA » quitte Google et avoue avoir peur de l’IA

 

Lauréat de l'équivalent du Nobel de l'informatique pour ses travaux sur l'intelligence artificielle, Geoffrey Hinton vient d'annoncer son départ de Google, où il a contribué à développer cette technologie. L'ingénieur de 75 ans regrette son rôle dans le développement des IA génératives et alerte sur l'indépendance que pourraient prendre ces outils.

L’un des pères fondateurs de l’IA par apprentissage automatique alerte sur les dangers du détournement de cette technologie par des acteurs malintentionnés. // Source : Frandroid

C’est un pionnier de l’intelligence artificielle qui s’en va. Lundi 1er mai 2023, l’ingénieur informaticien et psychologue cognitif Geoffrey Hinton, 75 ans, a annoncé son départ de Google dans une interview donnée au quotidien New York Times.

Lauréat du prix Turing (équivalent du Nobel de l’informatique) en 2018 pour ses travaux sur l’apprentissage des intelligences artificielles par réseaux neuronaux, celui que le média américain surnomme le « parrain de l’IA » explique pourtant son départ par sa culpabilité : celle d’avoir contribué à développer cette technologie, qu’il juge aujourd’hui dangereuse.

Des IA bientôt plus intelligentes qu’un humain

Si le Canado-Britannique reconnaît que son âge rentre aussi en compte dans sa décision, Geoffrey Hinton souligne avant tout que sa principale motivation est de laisser derrière lui une vie de travail sur l’intelligence artificielle. « Je me console avec l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait », cite The Verge.

Dans son interview, l’ingénieur explique ses regrets par le niveau actuel de développement des IA à apprentissage automatique (deep learning) comme ChatGPT. Il s’alarme notamment que leur niveau de connaissance est déjà supérieur à celui d’un humain, tout en estimant que l’IA nous rattrapera bientôt en termes de capacités de raisonnement.

Geoffrey Hinton souligne le fait qu’à la différence d’une personne, une IA peut être copiée et présente à plusieurs endroits à la fois : « C’est comme si vous aviez 10 000 personnes et qu’à chaque fois qu’une personne apprenait quelque chose, tout le monde le savait automatiquement. Et c’est ainsi que ces chatbots peuvent en savoir bien plus que n’importe qui », estime l’ingénieur auprès de la BBC.

Contre un usage par Poutine, mais pas par Google

Toujours selon l’ingénieur, les capacités de génération d’images, de vidéos et de sons artificiels pourraient même nous empêcher de séparer le vrai du faux à l’avenir. Il pointe d’ailleurs surtout du doigt les « acteurs nuisibles » qui utilisent ces technologies.

À la BBC, Geoffrey Hinton donne même l’exemple d’un Vladimir Poutine donnant à ses robots militaires la liberté de fixer ses propres sous-objectifs pour être plus efficaces, ouvrant la voie à des formulations comme « J’ai besoin de plus de pouvoir ».

Malgré son départ en fanfare de Google, l’ingénieur de 75 ans ne semble malgré tout pas mettre son ex-employeur sur la liste de ces mauvais utilisateurs de l’IA par apprentissage automatique.

Geoffrey Hinton a même corrigé sur Twitter l’article du New York Times quelques heures après sa publication, jugeant même que l’entreprise a été « très responsable ». Il affirme qu’il n’a pas quitté Google parce qu’il ne pouvait pas critiquer l’entreprise, mais plutôt pour éviter que ses commentaires « impactent Google ».

Une position qui n’est pas partagée par tout le monde au sein de la firme, où la décision récente d’ouvrir au public son IA conversationnelle expérimentale Bard a été très contestée en interne.


Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.