Ne dévoilez pas tout à ChatGPT : l’exemple de Samsung

Un rappel sur la protection des données

 

Samsung a constaté que trois de ses ingénieurs ont divulgué des données secrètes au moins trois fois en peu de temps en utilisant ChatGPT.

Image générée avec Midjourney par Frandroid

L’actu en bref

  • Samsung a découvert une fuite de données liée à l’utilisation de ChatGPT pour corriger des erreurs dans leur code source ;
  • Cette fuite de données soulève des préoccupations quant aux risques potentiels du travail alimenté par l’IA ;
  • Samsung prévoit de développer son propre service d’IA de type ChatGPT à usage interne pour éviter des incidents similaires à l’avenir.

Selon The Economist, Samsung a découvert une fuite de données qui a révélé des informations confidentielles, notamment des comptes rendus de réunions et des données sur les performances et la productivité des installations de production, à ChatGPT.

Les ingénieurs de Samsung utilisaient le chatbot pour corriger rapidement les erreurs dans leur code source, transmettant ainsi des données qui n’étaient pas censées être publiées. Bien que cette violation n’ait pas été intentionnelle, elle soulève des préoccupations quant aux risques potentiels du travail alimenté par l’IA.

Sur une période de 20 jours, Samsung a documenté trois cas où l’utilisation de ChatGPT a entraîné des fuites de données. Ces événements se sont succédé rapidement. Dans un cas, un employé a entré des modèles de test confidentiels conçus pour identifier les puces défectueuses, puis les optimiser. Dans un autre cas, un employé a utilisé Naver Clova pour transformer un enregistrement de réunion en un document avant de le soumettre à ChatGPT en préparation d’une présentation.

Samsung prévoit de développer son propre service d’IA de type ChatGPT

Pour éviter des incidents similaires à l’avenir, Samsung prévoit de développer son propre service d’IA de type ChatGPT à usage interne. De plus, la société a limité la longueur des questions soumises à ChatGPT à 1 024 octets. Enfin, si de nouvelles violations étaient connues, Samsung pourrait tout simplement bloquer l’accès à ChatGPT.

ChatGPT constitue une véritable révolution, cependant, l’outil soulève de nombreuses controverses. Récemment, l’Italie a choisi de bloquer ChatGPT. Le Garante, l’autorité de régulation italienne en matière de protection des données personnelles, reproche notamment à l’intelligence artificielle conçue par OpenAI de ne pas respecter la législation en vigueur relative à la protection des données privées.

Comme l’explique Numerama, les IA ne sont pas soumises au secret professionnel. Un grand nombre de personnes ont accordé leur confiance à ChatGPT, oubliant que cet outil enregistre également les données. Une étude menée par la société de cybersécurité Cyberhaven, publiée en février et repérée par DarkReading le 7 mars 2023, indique que des dizaines de milliers d’employés ont transmis des informations d’entreprise au chatbot développé par OpenAI.

Sur 1,6 million de postes surveillés par l’entreprise de cybersécurité, 2,6 % des utilisateurs ont révélé des informations confidentielles à l’IA. De nombreux employés divulguent des informations sensibles concernant leur entreprise et leurs missions aux chatbots des IA. Ces discussions sont conservées et pourraient être réutilisées dans de futurs échanges.


Pour nous suivre, nous vous invitons à télécharger notre application Android et iOS. Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.