Cette semaine, Anthropic a joué la carte ultime du capitalisme de la peur : annoncer avoir créé un monstre si puissant qu’il faut, par vertu, le garder sous clé. Le modèle s’appelle ‘Mythos’. Le nom est un aveu. Leur opération de séduction des investisseurs et des régulateurs, elle, est bien réelle.
Le syndrome du ‘démon incontrôlable’ en kit
Le scénario est désormais un classique usé jusqu’à la corde. Étape 1 : un labo annonce une percée ‘frontière’ aux capacités potentiellement dangereuses. Étape 2 : on agite le spectre de la cybersécurité nationale pour obtenir une audience auprès des ministres et des banquiers centraux. Étape 3 : la couverture médiatique, gratuite, fait office de prospectus d’investissement. Anthropic a suivi le manuel à la lettre. Scott Bessent, secrétaire au Trésor américain, a convoqué les grands banquiers. En Grande-Bretagne, le député Danny Kruger a brandi la menace ‘catastrophique’ dans une lettre au gouvernement. La boucle est bouclée : la peur, monétisée.
La valorisation, seul vrai ‘risque existentiel’ qui les préoccupe
Derrière le vernis de responsabilité, suivez l’argent. Anthropic, fondée par d’anciens d’OpenAI, a déjà levé des milliards, principalement de la part d’Amazon et de Google. Chaque nouvel épisode de ‘l’IA trop puissante’ sert à justifier des valorisations stratosphériques et à distancer la concurrence dans la course aux fonds. Annoncer un modèle que l’on ne vend pas, c’est le marketing ultime : vous prouvez que vous êtes en avance, tout en vous parant des plumes de l’éthique. Un coup double qui fait monter la hype tout en préparant le terrain pour le prochain cycle de financement, probablement à un multiple encore plus indécent.
Le jeu dangereux de la régulation par la panique
Le plus pernicieux dans cette comédie est la manière dont elle instrumentalise la régulation. En criant au loup le premier et le plus fort, Anthropic positionne ses propres produits comme l’étalon-or de la sécurité, espérant sans doute que les futures règles soient taillées sur mesure pour ses modèles… et verrouillent l’accès au marché pour les plus petits acteurs. C’est une stratégie de lobbying de haut vol, déguisée en avertissement altruiste. Ils ne veulent pas que l’État régule ; ils veulent qu’il régule pour eux.
La prochaine fois qu’une entreprise d’IA vous parlera de retenir un modèle par ‘responsabilité’, demandez-vous simplement à qui profite la peur. La réponse est toujours la même : à ceux qui sont assis sur le capital et l’influence pour façonner le monde qui émergera une fois la panique retombée. Anthropic ne construit pas un mythe pour le public. Elle le construit pour ses investisseurs.