Anthropic vient de se faire griller de la plus belle des manières. Un modèle IA secret, baptisé Claude Mythos, a fuité à cause d’une simple erreur de configuration dans leur CMS. Et ce qu’on y découvre donne le vertige : on parle d’un saut de performance tel qu’Anthropic elle-même le qualifie de « step change ». Traduction : ce n’est pas une mise à jour, c’est un changement de paradigme.
La nouvelle a explosé le 26 mars 2026, quand deux chercheurs en sécurité sont tombés sur près de 3 000 fichiers internes d’Anthropic, tranquillement accessibles en ligne. Parmi eux : un brouillon d’article de blog décrivant en détail leur prochain modèle phare.
À SAVOIR
Claude Mythos porte aussi le nom de code « Capybara » en interne. Deux versions du même brouillon existent, ne différant que par le nom. Anthropic n’avait visiblement pas encore tranché entre les deux.
Les faits
C’est Roy Paz, chercheur chez LayerX Security, et Alexandre Pauwels, de l’Université de Cambridge, qui ont découvert le pot aux roses. Un cache de données publiquement accessible contenait des milliers de fichiers internes d’Anthropic — dont un brouillon d’annonce pour Claude Mythos.
Ce qu’on sait du modèle :
- Positionnement : un nouveau tier au-dessus d’Opus, plus grand, plus intelligent, et nettement plus cher
- Performances : scores « dramatiquement supérieurs » à Claude Opus 4.6 en coding, raisonnement académique et cybersécurité
- Cybersécurité : décrit comme « actuellement très en avance sur tout autre modèle IA en capacités cyber »
- Nom : « Mythos » — censé évoquer « le tissu conjonctif profond qui relie les connaissances et les idées »
- Coût : très cher à faire tourner, nécessite encore des optimisations avant un lancement grand public
Anthropic a confirmé l’existence du modèle dans un communiqué : « Nous développons un modèle généraliste avec des avancées significatives en raisonnement, coding et cybersécurité. Compte tenu de la puissance de ses capacités, nous sommes délibérés dans la façon dont nous le déployons. »

Ce que ça change
Le timing de cette fuite est dévastateur pour Anthropic, mais fascinant pour l’industrie. Depuis le lancement de Claude Opus 4.6 en février 2026, la course aux modèles de nouvelle génération semblait au point mort. OpenAI peaufine GPT-5, Google itère sur Gemini, et Anthropic… travaillait dans l’ombre sur un modèle qui surpasse tout ce qui existe.
Le point qui fait trembler tout le monde, c’est la dimension cybersécurité. Selon les documents internes, Mythos « présage une vague de modèles capables d’exploiter des vulnérabilités d’une manière qui dépasse largement les efforts des défenseurs ». En clair : ce modèle peut trouver et exploiter des failles logicielles plus vite que les équipes de sécurité ne peuvent les corriger.
C’est précisément pour cette raison qu’Anthropic prévoit un déploiement ultra-progressif : d’abord un accès anticipé à quelques organisations triées sur le volet, chargées d’évaluer les applications en cybersécurité. Ensuite, une ouverture graduelle via l’API Claude.
ATTENTION
Aucune date de sortie officielle n’a été communiquée. Le modèle est encore en phase de test interne et Anthropic insiste sur le fait que les documents leakés sont des « brouillons préliminaires ». Les specs finales pourraient différer.
Notre avis
Soyons honnêtes : l’ironie est savoureuse. L’entreprise qui fait de la sécurité de l’IA son cheval de bataille se fait leaker ses propres documents internes via une erreur de configuration basique. Ça ne remet pas en cause la qualité de leurs modèles, mais ça fait tache quand on prétend être les meilleurs en cybersécurité.
Sur le fond, Mythos semble être exactement ce que l’industrie attendait : un vrai saut générationnel, pas un simple bump de version. Le fait qu’Anthropic crée un tier entièrement nouveau au-dessus d’Opus montre qu’on ne parle pas d’un Opus 4.7 rebrandé. On parle d’autre chose.
Mais c’est la dimension cyber qui pose question. Si un modèle est si bon qu’il peut « exploiter des vulnérabilités plus vite que les défenseurs », est-ce qu’on devrait vraiment le déployer ? Anthropic semble conscient du dilemme — d’où le déploiement progressif. Mais une fois le génie sorti de la bouteille, difficile de le remettre dedans. On surveillera de très près les conditions d’accès et les garde-fous mis en place.
Ce qui est sûr, c’est que 2026 s’annonce comme l’année où l’IA passe un cap. Et Anthropic, malgré cette fuite embarrassante, pourrait bien être en tête de la course.