Microsoft Copilot a lu vos e-mails confidentiels : ce que l’on sait du bug

 
L’assistant dopé à l’intelligence artificielle de Microsoft a pris un peu trop ses aises avec le secret professionnel. Depuis la fin du mois de janvier, un bug gênant pousse Copilot à lire et résumer des e-mails d’entreprise pourtant strictement protégés par des règles de confidentialité.
Image générée par Gemini / Frandroid

Déployé en grande pompe en septembre 2025 pour les clients professionnels payants de Microsoft 365, Copilot Chat était censé devenir l’allié incontournable de votre productivité quotidienne. Intégré directement dans des outils phares du bureau comme Word, Excel, PowerPoint, OneNote et bien sûr Outlook, cet agent conversationnel a pour mission de vous faire gagner du temps en analysant vos contenus de manière contextuelle. Seulement voilà, la machine s’est montrée un peu trop curieuse.

Le problème se situe très précisément au niveau de l’onglet « Travail » de l’interface de discussion. Habituellement, les entreprises utilisent des politiques de prévention des pertes de données (les fameuses règles DLP) et des étiquettes de confidentialité pour interdire formellement aux outils automatisés d’accéder à certains messages sensibles. Mais l’intelligence artificielle de Microsoft a tout simplement ignoré ces barrières logicielles. Résultat : Copilot s’est mis à piocher dans les dossiers « Éléments envoyés » et « Brouillons » des utilisateurs pour générer ses synthèses, au mépris total des restrictions configurées par les administrateurs système.

Un problème de code sous haute surveillance

Détectée le 21 janvier dernier et cataloguée sous la référence technique CW1226324, cette anomalie a rapidement fait réagir l’entreprise américaine. Microsoft a confirmé l’existence du dysfonctionnement, expliquant qu’une erreur de code non spécifiée permettait à l’IA de contourner allègrement les balises de confidentialité placées sur les brouillons et les messages expédiés. Une situation embarrassante pour un écosystème vendu précisément sur sa capacité à respecter les cadres de sécurité très stricts du monde professionnel.

Pour colmater cette brèche numérique, un correctif a commencé à être déployé discrètement dès le début du mois de février. L’éditeur joue la carte de la prudence : il surveille actuellement le comportement de cette rustine logicielle et a pris contact avec un échantillon d’utilisateurs touchés pour s’assurer que l’IA respecte à nouveau les consignes de tri.

À l’heure actuelle, le mystère plane encore sur l’ampleur exacte des dégâts. Microsoft n’a communiqué aucun calendrier définitif pour la résolution totale du problème, ni dévoilé le nombre d’organisations ou d’utilisateurs potentiellement exposés par cette lecture indiscrète, précisant que la portée de l’impact pourrait évoluer au fil de l’enquête. Néanmoins, l’éditeur a classé cet incident technique sous le statut d’avis consultatif (« advisory »). Dans le jargon maison, cette étiquette est généralement réservée aux dysfonctionnements dont la portée ou les conséquences restent limitées. Quoi qu’il en soit, cet incident ne risque pas d’aider l’IA à devenir plus populaire.


Les bons plans n’attendent pas : abonnez-vous à notre canal WhatsApp Frandroid Bons Plans ! (zéro spam, promis).

Recherche IA boostée par
Perplexity