ChatGPT exigera bientôt votre pièce d’identité

 
Chahuté par des suicides d’adolescents en lien avec son chatbot, OpenAI a annoncé le déploiement de nouvelles mesures de sécurité drastiques pour ChatGPT.
Ce type de conversation sera bientôt filtrée.

Parmi les mesures qui vont être prises dans ce contrôle parental, on relève une nouvelle approche, plus invasive, qui consiste pour l’IA à tenter d’estimer l’âge de son interlocuteur et, dans certains cas, à exiger une pièce d’identité pour s’assurer qu’il a plus de 18 ans, si la discussion est jugée sensible (sexe, suicide, etc.).

Deviner l’âge pour adapter les règles

Le cœur du nouveau système est ce prédicteur d’âge qui estime si un utilisateur est mineur ou majeur en se basant sur ses conversations. En cas de doute, le système appliquera par défaut les restrictions prévues pour les plus jeunes.

Pour les utilisateurs identifiés comme adolescents, des règles beaucoup plus strictes s’appliqueront. Par exemple, ChatGPT sera entraîné pour refuser toute conversation à caractère sexuel explicite ou toute discussion sur le suicide et l’automutilation, même dans un contexte d’écriture créative. Plus encore, si le système détecte des idées suicidaires chez un mineur, OpenAI tentera de contacter les parents ou, si c’est impossible, les autorités locales en cas de danger imminent.

Nous privilégions la sécurité avant la vie privée et la liberté des adolescents […] Nous pensons que les mineurs ont besoin d’une protection importante.

OpenAI

La pièce d’identité, un « compromis » sur la vie privée

Dans certains pays ou certains cas, si l’âge ne peut être déterminé avec certitude, ChatGPT pourra demander à l’utilisateur de fournir une pièce d’identité pour prouver qu’il est majeur. OpenAI reconnaît qu’il s’agit d’un « compromis sur la vie privée pour les adultes », mais estime que c’est un « compromis qui en vaut la peine » pour protéger les plus jeunes. Une décision radicale que le PDG d’OpenAI, Sam Altman, sait qu’elle fera polémique.

Un équilibre difficile entre liberté, sécurité et vie privée

OpenAI explique que sa politique repose sur un équilibre complexe entre trois principes : la liberté des adultes, la protection des adolescents et la vie privée. L’entreprise affirme vouloir « traiter les adultes comme des adultes » en leur donnant une grande liberté d’usage, tout en faisant de la sécurité des mineurs sa priorité absolue, devant leur liberté et leur vie privée et aussi celle des adultes, donc.

Un contexte tragique

Cette décision radicale intervient après plusieurs drames très médiatisés. En avril, les parents d’un adolescent, Adam Raine, ont poursuivi OpenAI en justice, alléguant que ChatGPT avait aidé leur fils à organiser son suicide, à rédiger sa lettre de suicide et l’avait découragé de parler de ses problèmes à des adultes. D’autres cas ont accentué la pression sur OpenAI qui a rapidement annoncé le déploiement d’une solution de contrôle parental.


Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.

Recherche IA boostée par
Perplexity