Le Pentagone pris la main dans le pot de biais
La nouvelle est tombée comme un couperet : un juge fédéral a ordonné à l’administration Trump de défaire immédiatement les restrictions imposées à Anthropic. Officiellement, le Department of Defense s’inquiétait de la « sécurité nationale ». En réalité, il s’agissait d’une tentative maladroite de museler une entreprise dont les modèles d’IA commençaient à poser des questions trop gênantes sur les contrats militaires, les systèmes d’armes autonomes et les petits arrangements entre généraux et fournisseurs tech.
La peur bleue des vieux généraux
Le cœur du conflit ? Claude, le modèle phare d’Anthropic, refusait tout net de participer à l’optimisation de frappes de drones ou à la psychométrie de masse de populations civiles. Une posture éthique qui a fait grincer des dents jusqu’au plus haut niveau du Pentagone. Car pendant que Google, Microsoft et Amazon se bousculent pour signer des contrats juteux avec la défense, Anthropic a eu le mauvais goût de rappeler que certaines lignes ne devraient pas être franchies. Inacceptable pour une administration qui considère l’IA comme un simple outil de domination.
Hypocrisie Valley : le grand retournement
Le plus savoureux dans cette affaire, c’est le silence assourdissant des autres géants de la tech. Pendant des années, ils ont crié au loup dès qu’un régulateur osait évoquer un cadre éthique. Mais là, face à un concurrent qui se fait effectivement taper sur les doigts pour ses principes, pas un tweet de soutien, pas un communiqué indigné. Juste le bruit feutré des calculs : si Anthropic plie, cela ouvre un précédent commode pour éliminer d’autres gêneurs à l’avenir. La régulation, finalement, c’est bien… pour les autres.
Une victoire à la Pyrrhus
Ne vous y trompez pas : cette injonction est une gifle judiciaire, pas un changement de paradigme. Le Department of Defense a déjà plus de 14 milliards de dollars alloués à l’IA pour l’année fiscale. Anthropic n’en verra pas un centime. L’administration a perdu une bataille procédurale, mais la guerre de l’accès aux cerveaux numériques continue. Et dans cette guerre, les principes éthiques restent la première variable d’ajustement.
Conclusion : l’IA a désormais son premier martyr médiatique
Anthropic sort grandi de l’affaire, mais aussi terriblement vulnérable. Elle a prouvé qu’on pouvait dire non au plus gros client du monde. Elle a aussi démontré que ses concurrents préféreraient la voir couler plutôt que de défendre une cause commune. La Silicon Valley adore les héros, à condition qu’ils soient morts — ou suffisamment affaiblis pour ne plus représenter une menace commerciale. Anthropic vient d’entrer dans le club très fermé des entreprises gênantes. Et dans ce club, la durée de vie moyenne n’est pas très longue.