L’IA d’Anthropic a révélé des vulnérabilités vieilles de plusieurs décennies dans les systèmes les plus utilisés au monde. Face au risque d’exploitation malveillante, l’entreprise restreint l’accès à son modèle le plus puissant et lance une coalition inédite de 40 géants technologiques.
En bref
- Claude Mythos Preview a détecté des milliers de failles critiques dans les OS, navigateurs et protocoles cryptographiques majeurs.
- 99 % de ces vulnérabilités restent non corrigées, dont certaines datent de plus de 20 ans.
- Anthropic lance le projet Glasswing avec Amazon, Apple, Google, Microsoft et Nvidia pour sécuriser l’infrastructure mondiale.
Quand l’IA devient trop dangereuse pour être libre
Le secteur de l’IA vient de franchir un seuil que personne n’avait vraiment anticipé. Anthropic a confirmé cette semaine que Claude Mythos Preview, son dernier modèle, ne se contente plus d’assister les développeurs, il les surpasse désormais sur le terrain le plus sensible qui soit : la détection de failles logicielles. Face à ce constat, l’entreprise a pris une décision aussi rare que significative : restreindre volontairement l’accès à son propre outil.
Ce n’est pas un geste marketing. C’est une réponse directe à une réalité alarmante. En quelques cycles d’analyse, le modèle a localisé des milliers de vulnérabilités dans des systèmes critiques utilisés par des milliards de personnes, des grands systèmes d’exploitation aux navigateurs web dominants, jusqu’aux protocoles cryptographiques fondamentaux comme TLS, AES-GCM et SSH.
Plus troublant encore, 99 % de ces failles restent non corrigées. Anthropic refuse donc de les divulguer publiquement, jugeant qu’une telle transparence serait irresponsable tant que les correctifs ne sont pas en place. Position inconfortable, certes, mais difficilement contestable.
Le contexte ne fait qu’aggraver l’urgence. Selon AllAboutAI, les cyberattaques pilotées par l’IA ont bondi de 72 % en un an, et 87 % des organisations mondiales devraient en être victimes d’ici fin 2025. Laisser un tel outil en accès libre, c’est remettre une arme de précision à quiconque sait la pointer.
Des bugs vieux de 27 ans et une riposte collective sans précédent
Ce qui surprend le plus dans les révélations d’Anthropic, c’est l’ancienneté des failles découvertes. La cybersécurité n’est pas un problème nouveau, c’est un problème profondément enfoui.
Mythos Preview a ainsi mis au jour un bug vieux de 27 ans dans OpenBSD, système réputé pour sa robustesse sécuritaire. Il a également détecté une vulnérabilité d’exécution de code à distance vieille de 17 ans dans FreeBSD, un bug de 16 ans dans FFmpeg, et de nombreuses failles dans le noyau Linux. Ces découvertes soulignent une vérité inconfortable : des millions de systèmes fonctionnent depuis des décennies sur des fondations fragiles, invisibles à l’œil humain, mais désormais lisibles pour une IA.
Pour transformer ce danger potentiel en levier défensif, Anthropic a lancé le projet Glasswing. L’initiative rassemble plus de 40 entreprises, dont Amazon Web Services, Apple, Cisco, Google, JPMorgan et Nvidia autour d’un objectif commun. Ces entreprises vont utiliser Claude Mythos Preview pour détecter les bugs de manière préventive, partager les données entre partenaires et corriger les vulnérabilités avant que des acteurs malveillants ne les exploitent.
C’est un changement de paradigme. Jusqu’ici, la détection des failles zero-day exigeait une expertise humaine rare et coûteuse. L’IA pourrait démocratiser cette capacité, mais uniquement si elle reste entre des mains responsables.
Anthropic ne promet pas un monde sécurisé du jour au lendemain. L’entreprise reconnaît ouvertement que « le travail de défense de l’infrastructure cybernétique mondiale pourrait prendre des années ». Mais elle affirme également que les capacités défensives finiront par l’emporter.
