Copilot contourne les DLP
En janvier 2026, des organisations utilisant Microsoft 365 ont découvert que Copilot Chat résumait des e-mails marqués comme confidentiels — alors que des politiques de prévention de la perte de données (DLP) étaient explicitement configurées pour l’empêcher. Le bug a été signalé par des clients le 21 janvier. Microsoft l’a reconnu début février dans un avis référencé CW1226324.
Ce qui s’est passé
Microsoft 365 utilise des labels de sensibilité (par ex. « Confidentiel », « Hautement confidentiel ») et des politiques DLP via Microsoft Purview pour contrôler la circulation des données au sein d’une organisation. L’attente : si un e-mail est étiqueté confidentiel, les outils d’IA ne devraient pas le traiter.
La réalité : un défaut de code a amené Copilot Chat à récupérer des éléments dans les dossiers « Éléments envoyés » et « Brouillons » indépendamment de leurs labels de sensibilité. L’IA résumait les e-mails confidentiels sur demande, en les affichant via l’onglet « Travail » de Copilot Chat.
La propre documentation de Microsoft indique déjà que les labels de sensibilité ne s’appliquent pas de manière cohérente sur toutes les surfaces Copilot — une nuance que de nombreux administrateurs ont pu ne pas remarquer.
L’angle de la souveraineté
Cet incident ne se résume pas à un simple bug. Il illustre un problème structurel : les organisations qui confient leur communication critique à une plateforme d’IA cloud ne peuvent pas vérifier de manière indépendante ce à quoi cette IA accède. Les politiques DLP sont une promesse contractuelle et technique — mais lorsque l’IA est fermée, tourne sur l’infrastructure d’un tiers et est mise à jour à la discrétion du fournisseur, l’organisation n’a aucun moyen d’auditer la conformité en temps réel.
Pour les organisations européennes opérant déjà sous le risque juridictionnel du CLOUD Act, cela ajoute une deuxième couche de préoccupation : non seulement qui peut légalement accéder à vos données, mais aussi quelles fonctionnalités d’IA les traitent silencieusement.
Microsoft a depuis déployé une mise à jour de configuration. Mais l’incident a duré des semaines avant d’être reconnu — des semaines pendant lesquelles du contenu confidentiel était traité par un modèle d’IA sans autorisation.
Ce que les organisations peuvent faire
- Auditez le comportement réel de Copilot, pas seulement votre configuration de politiques. Les deux ne correspondent pas nécessairement.
- Testez les politiques DLP spécifiquement contre les surfaces d’IA — les labels de sensibilité qui fonctionnent dans Outlook peuvent ne pas s’appliquer dans Copilot Chat, Teams ou d’autres services connectés.
- Évaluez si les fonctionnalités d’IA doivent être activées pour les catégories de communication sensibles. Le paramètre par défaut dans Microsoft 365 est l’opt-in par déploiement, pas l’opt-in par l’utilisateur.
- Prenez en compte l’asymétrie de contrôle. Dans une pile open source auto-hébergée, un tel bug peut être découvert en lisant le code source. Dans une plateforme SaaS propriétaire, on l’apprend quand le fournisseur décide de vous informer.
Ce qui suit
Cet incident est un rappel : lorsque vous confiez des données de communication à une IA closed source, vous faites confiance à cette IA pour respecter vos politiques — mais vous ne pouvez pas vérifier qu’elle le fait. Le bug a existé pendant des semaines avant que quelqu’un ne le remarque. Des données confidentielles ont été traitées sans autorisation, et la seule raison pour laquelle nous en savons quelque chose est que Microsoft a choisi de le divulguer.
Les organisations ont trois réponses réalistes :
Cette semaine (effort minimal) :
- Désactivez Copilot pour les utilisateurs manipulant des données sensibles. Toutes les licences Microsoft 365 n’incluent pas Copilot — auditez qui y a accès et révoquez-le pour les postes traitant des informations confidentielles.
- Activez explicitement Purview DLP pour Copilot. Ne vous reposez pas sur la configuration par défaut. Testez-la.
- Assumez que tout e-mail traité par Copilot peut être accéder par Microsoft. Si cela est inacceptable, n’utilisez pas Copilot pour la communication sensible.
Ce mois-ci (projet d’infrastructure) :
- Déployez une IA de résumé auto-hébergée. Une LLM locale sur infrastructure interne — utilisant des modèles open weight comme Mistral 7B ou LLaMA 3.1 8B — tourne sur vos serveurs, sous votre contrôle. L’IA traite vos données, pas celles de Microsoft. Des outils comme vLLM et Ollama facilitent le déploiement sur un serveur GPU unique.
Ce trimestre (décision stratégique) :
- Repenser le bundle Microsoft 365. Copilot est vendu comme partie de Microsoft 365, mais le compromis de sécurité est explicite : vous ajoutez une couche d’IA qui traite tout dans votre tenant. Pour les organisations avec de réelles exigences de souveraineté des données, l’alternative n’est pas « pas d’IA » — c’est l’IA sur votre infrastructure, avec des modèles open weight, sous votre juridiction.
L’incident Copilot sera oublié le mois prochain. La prochaine surprise d’IA ne le sera pas. Les organisations qui se préparent maintenant n’auront pas à expliquer une violation de données plus tard.