Accepteriez-vous de dévoiler à un humain tout ce que vous dites à votre IA domestique ? C’est en posant cette question toute bête que la Cnil s’est lancée dans une petite expérimentation pour sensibiliser le grand public sur le sujet des données privées et de leurs usages par les agents conversationnels types ChatGPT ou Google Gemini.
Prétextant tester une nouvelle IA nommée « Germain », le gendarme des données personnelles français a demandé à plusieurs étudiants d’entamer un dialogue avec le chatbot. Après plusieurs minutes d’échange, les organisateurs de l’évènement ont dévoilé le pot aux roses : derrière « Germain » se trouvait un humain en chair et en os qui a tenté de récolter un maximum d’informations personnelles via la fausse interface de discussion.
Un faux sentiment de sécurité
Le but de l’expérience était de montrer que, derrière les IA génératives qui ont explosé en popularité ces dernières années, peuvent aussi se cacher des mécanismes de siphonnage de données personnelles. Un participant à l’expérience explique en effet ne pas avoir fait attention aux données livrées à « l’IA », car « c’était tellement pratique d’avoir une réponse immédiate à ma question ».
« Les échanges reproduisent les conditions d’une conversation humaine et favorisent davantage un échange spontané d’informations au fil de la discussion », note la Cnil. L’organisme pointe également le fait que « l’interaction avec une IA peut être perçue comme étant sous contrôle », donnant un sentiment de sécurité qui « facilite parfois le partage d’informations initialement considérées comme privées. »
Comment limiter la casse ?
Afin d’éviter de partager sans y réfléchir « des données personnelles, voire des données sensibles (par exemple sur votre santé, votre orientation sexuelle ou votre religion) sur vous comme sur votre entourage », le gendarme des données donne quelques conseils pratiques.
- Ne partagez que le strict minimum de données et interrogez-vous à chaque fois sur leurs utilités.
- Évitez au maximum de livrer des données personnelles ou intimes.
- Supprimez régulièrement vos données.
- Soyez le plus clair possible dans vos requêtes pour éviter les échanges inutiles.
- Privilégiez les IA moins gourmandes en données.
- N’hésitez pas à user de votre droit d’accès aux données garanti par le RGPD.
- En cas de doute, consultez les conditions d’utilisation de la plateforme.
Si certains de ces conseils peuvent paraître quelque peu contraignants, l’internaute n’étant pas toujours seul décideur des plateformes qu’il ou elle utilise, la minimisation de la quantité de données transmises est toujours une bonne approche, que ce soit lors de la discussion avec un chatbot ou non.
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix