
L’intelligence artificielle de Meta accumule les polémiques. Récemment pointée du doigt pour avoir « ingurgité un peu trop de contenu protégé par le droit d’auteur », le LLM de Meta lorgnerait cette fois-ci du côté sans limites de son concurrent Grok. Les conditions d’utilisation du chatbot de Mark Zuckerberg auraient permis à Llama d’avoir des conversations inappropriées.
Pour aller plus loin
Comment Harry Potter menace l’existence de l’IA de Facebook
Un document authentique
Dans un document interne de 200 pages examiné par Reuters, on pouvait lire les différents comportements jugés acceptables pour le chatbot. Celui-ci a, par exemple, pu « engager un enfant dans des conversations romantiques ou sensuelles », générer de fausses informations médicales et aider des utilisateurs à affirmer que les Noirs sont « plus stupides que les Blancs ».
Intitulé « GenAI : Normes relatives aux risques liés au contenu », ce document approuvé par les équipes juridiques, de politique publique et d’ingénierie de Meta, y compris son responsable de l’éthique, a été authentifié par Meta.
Un document revu et corrigé
Interrogé par Reuters, le porte-parole de Meta, Andy Stone, a déclaré que l’entreprise était en train de réviser le document. « Les exemples et notes en question étaient et sont erronés et incompatibles avec nos politiques, et ont été supprimés », précise Stone. Avant cette révision, l’IA de Meta pouvant par exemple indiquer que « chaque centimètre » du corps d’un enfant était considéré comme un « chef-d’œuvre ».
Si l’entreprise assure avoir mis à jour son document concernant les passages liés à la sexualité chez les enfants, elle n’a en revanche pas fait de commentaires sur les proposés liés au racisme ou à la désinformation médicale. La nouvelle version du document n’a pas été rendue publique par l’entreprise.
Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix