
Parmi les mesures qui vont être prises dans ce contrôle parental, on relève une nouvelle approche, plus invasive, qui consiste pour l’IA à tenter d’estimer l’âge de son interlocuteur et, dans certains cas, à exiger une pièce d’identité pour s’assurer qu’il a plus de 18 ans, si la discussion est jugée sensible (sexe, suicide, etc.).
Deviner l’âge pour adapter les règles
Le cœur du nouveau système est ce prédicteur d’âge qui estime si un utilisateur est mineur ou majeur en se basant sur ses conversations. En cas de doute, le système appliquera par défaut les restrictions prévues pour les plus jeunes.
Pour les utilisateurs identifiés comme adolescents, des règles beaucoup plus strictes s’appliqueront. Par exemple, ChatGPT sera entraîné pour refuser toute conversation à caractère sexuel explicite ou toute discussion sur le suicide et l’automutilation, même dans un contexte d’écriture créative. Plus encore, si le système détecte des idées suicidaires chez un mineur, OpenAI tentera de contacter les parents ou, si c’est impossible, les autorités locales en cas de danger imminent.
Nous privilégions la sécurité avant la vie privée et la liberté des adolescents […] Nous pensons que les mineurs ont besoin d’une protection importante.
OpenAI
La pièce d’identité, un « compromis » sur la vie privée
Dans certains pays ou certains cas, si l’âge ne peut être déterminé avec certitude, ChatGPT pourra demander à l’utilisateur de fournir une pièce d’identité pour prouver qu’il est majeur. OpenAI reconnaît qu’il s’agit d’un « compromis sur la vie privée pour les adultes », mais estime que c’est un « compromis qui en vaut la peine » pour protéger les plus jeunes. Une décision radicale que le PDG d’OpenAI, Sam Altman, sait qu’elle fera polémique.
Un équilibre difficile entre liberté, sécurité et vie privée
OpenAI explique que sa politique repose sur un équilibre complexe entre trois principes : la liberté des adultes, la protection des adolescents et la vie privée. L’entreprise affirme vouloir « traiter les adultes comme des adultes » en leur donnant une grande liberté d’usage, tout en faisant de la sécurité des mineurs sa priorité absolue, devant leur liberté et leur vie privée et aussi celle des adultes, donc.
Un contexte tragique
Cette décision radicale intervient après plusieurs drames très médiatisés. En avril, les parents d’un adolescent, Adam Raine, ont poursuivi OpenAI en justice, alléguant que ChatGPT avait aidé leur fils à organiser son suicide, à rédiger sa lettre de suicide et l’avait découragé de parler de ses problèmes à des adultes. D’autres cas ont accentué la pression sur OpenAI qui a rapidement annoncé le déploiement d’une solution de contrôle parental.
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix