Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Ne dévoilez pas tout à ChatGPT : l'exemple de Samsung

L'actu en bref


Selon The Economist, Samsung a découvert une fuite de données qui a révélé des informations confidentielles, notamment des comptes rendus de réunions et des données sur les performances et la productivité des installations de production, à ChatGPT.

Les ingénieurs de Samsung utilisaient le chatbot pour corriger rapidement les erreurs dans leur code source, transmettant ainsi des données qui n'étaient pas censées être publiées. Bien que cette violation n'ait pas été intentionnelle, elle soulève des préoccupations quant aux risques potentiels du travail alimenté par l'IA.

Sur une période de 20 jours, Samsung a documenté trois cas où l'utilisation de ChatGPT a entraîné des fuites de données. Ces événements se sont succédé rapidement. Dans un cas, un employé a entré des modèles de test confidentiels conçus pour identifier les puces défectueuses, puis les optimiser. Dans un autre cas, un employé a utilisé Naver Clova pour transformer un enregistrement de réunion en un document avant de le soumettre à ChatGPT en préparation d'une présentation.

Samsung prévoit de développer son propre service d'IA de type ChatGPT

Pour éviter des incidents similaires à l'avenir, Samsung prévoit de développer son propre service d'IA de type ChatGPT à usage interne. De plus, la société a limité la longueur des questions soumises à ChatGPT à 1 024 octets. Enfin, si de nouvelles violations étaient connues, Samsung pourrait tout simplement bloquer l'accès à ChatGPT.

ChatGPT constitue une véritable révolution, cependant, l'outil soulève de nombreuses controverses. Récemment, l'Italie a choisi de bloquer ChatGPT. Le Garante, l'autorité de régulation italienne en matière de protection des données personnelles, reproche notamment à l'intelligence artificielle conçue par OpenAI de ne pas respecter la législation en vigueur relative à la protection des données privées.

Comme l'explique Numerama, les IA ne sont pas soumises au secret professionnel. Un grand nombre de personnes ont accordé leur confiance à ChatGPT, oubliant que cet outil enregistre également les données. Une étude menée par la société de cybersécurité Cyberhaven, publiée en février et repérée par DarkReading le 7 mars 2023, indique que des dizaines de milliers d'employés ont transmis des informations d'entreprise au chatbot développé par OpenAI.

Sur 1,6 million de postes surveillés par l'entreprise de cybersécurité, 2,6 % des utilisateurs ont révélé des informations confidentielles à l'IA. De nombreux employés divulguent des informations sensibles concernant leur entreprise et leurs missions aux chatbots des IA. Ces discussions sont conservées et pourraient être réutilisées dans de futurs échanges.