
Déployé en grande pompe en septembre 2025 pour les clients professionnels payants de Microsoft 365, Copilot Chat était censé devenir l’allié incontournable de votre productivité quotidienne. Intégré directement dans des outils phares du bureau comme Word, Excel, PowerPoint, OneNote et bien sûr Outlook, cet agent conversationnel a pour mission de vous faire gagner du temps en analysant vos contenus de manière contextuelle. Seulement voilà, la machine s’est montrée un peu trop curieuse.
Le problème se situe très précisément au niveau de l’onglet « Travail » de l’interface de discussion. Habituellement, les entreprises utilisent des politiques de prévention des pertes de données (les fameuses règles DLP) et des étiquettes de confidentialité pour interdire formellement aux outils automatisés d’accéder à certains messages sensibles. Mais l’intelligence artificielle de Microsoft a tout simplement ignoré ces barrières logicielles. Résultat : Copilot s’est mis à piocher dans les dossiers « Éléments envoyés » et « Brouillons » des utilisateurs pour générer ses synthèses, au mépris total des restrictions configurées par les administrateurs système.
Un problème de code sous haute surveillance
Détectée le 21 janvier dernier et cataloguée sous la référence technique CW1226324, cette anomalie a rapidement fait réagir l’entreprise américaine. Microsoft a confirmé l’existence du dysfonctionnement, expliquant qu’une erreur de code non spécifiée permettait à l’IA de contourner allègrement les balises de confidentialité placées sur les brouillons et les messages expédiés. Une situation embarrassante pour un écosystème vendu précisément sur sa capacité à respecter les cadres de sécurité très stricts du monde professionnel.
Pour colmater cette brèche numérique, un correctif a commencé à être déployé discrètement dès le début du mois de février. L’éditeur joue la carte de la prudence : il surveille actuellement le comportement de cette rustine logicielle et a pris contact avec un échantillon d’utilisateurs touchés pour s’assurer que l’IA respecte à nouveau les consignes de tri.
À l’heure actuelle, le mystère plane encore sur l’ampleur exacte des dégâts. Microsoft n’a communiqué aucun calendrier définitif pour la résolution totale du problème, ni dévoilé le nombre d’organisations ou d’utilisateurs potentiellement exposés par cette lecture indiscrète, précisant que la portée de l’impact pourrait évoluer au fil de l’enquête. Néanmoins, l’éditeur a classé cet incident technique sous le statut d’avis consultatif (« advisory »). Dans le jargon maison, cette étiquette est généralement réservée aux dysfonctionnements dont la portée ou les conséquences restent limitées. Quoi qu’il en soit, cet incident ne risque pas d’aider l’IA à devenir plus populaire.
Les bons plans n’attendent pas : abonnez-vous à notre canal WhatsApp Frandroid Bons Plans ! (zéro spam, promis).

Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et .
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.