Depuis la semaine dernière, les épisodes se multiplient autour d’OpenAI. Après avoir licencié le CEO de la structure, Sam Altman, le conseil d’administration a finalement décidé de nommer à sa place Emmett Shear, ancien patron de Twitch.
Depuis sa nomination à la tête d’OpenAI, certaines de ses précédentes déclarations autour de l’intelligence artificielle ont cependant à nouveau émergé. C’est notamment le cas de son intervention dans le podcast The Logan Bartlett Show, en juin dernier. À cette occasion, Emmett Shear a été invité à se prononcer sur le rôle de l’intelligence artificielle dans les années à venir et les risques potentiels qu’elle pourrait amener.
Or, pour le nouveau dirigeant d’OpenAI, l’IA ne présente rien de moins que le risque d’apocalypse pour l’univers entier.
Sa crainte vient en fait du moment où l’IA générative sera suffisamment avancée qu’elle pourrait devenir une IA générale et qu’elle sera alors capable de créer elle-même de nouvelles intelligences artificielles sans passer par le contrôle humain :
J’ai une inquiétude très spécifique à propose de l’IA. On a conçu une intelligence, c’est formidable. Ce n’est peut-être pas l’intelligence la plus fine, mais c’est une intelligence. Elle peut résoudre des problèmes et faire des plans. À partir d’un certain moment, alors qu’elle s’améliorera, les problèmes que nous pourrons résoudre incluront la programmation, la conception de puce, la science des matériaux, la production d’énergie… toutes les choses dont on aurait besoin pour concevoir une intelligence artificielle.
Une IA générale qui pourrait mener à l’apocalypse de l’univers
Pour le nouveau dirigeant d’OpenAI, « ce type d’intelligence est intrinsèquement très dangereux, parce que l’intelligence, c’est le pouvoir. Les êtres humains sont la forme de vie dominante sur cette planète quasiment uniquement parce qu’on est plus intelligents que les autres créatures ». Alors qu’Emmett Shear se considère comme une personne « techno-optimiste », il craint que l’IA soit un problème majeur dans les années à venir, et il n’y va pas avec le dos de la cuillère.
L’extinction de l’humanité serait déjà mauvaise. Ce serait une destruction potentielle de tout le cône de lumière. Pas juste pour nous, mais pour n’importe quelle espèce extraterrestre prise dans le champ de l’explosion. C’est une bombe capable de détruire l’univers.
En d’autres termes, d’après Emmett Shear, l’avancée de l’IA « devrait vous faire vous chier dessus ».
Depuis sa nomination à la tête d’OpenAI, Emmett Shear a été particulièrement décrié. Alors que 90 % des 700 salariés de l’organisation demandent la démission du conseil d’administration et le retour de Sam Altman à sa tête, la prise de parole d’Emmet Shear devant ces mêmes salariés a été boudée, les employés ayant refusé d’y assister. D’après les informations du site The Verge, ils auraient par ailleurs répondu à l’annonce de sa nomination, sur la messagerie d’OpenAI, par un emoji « fuck you ».
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
GĂ©rer mes choix