S
Susanoo
NEWS // IA & TECH
LIVE
ENTREPRISESIL Y A 1SEM3 MIN DE LECTURE

Anthropic joue les vierges effarouchées face au Pentagone

Le DoD s'inquiète qu'Anthropic puisse saboter ses IA en pleine guerre. La startup, fondée par d'anciens d'OpenAI, clame l'impossibilité technique. Une défense aussi crédible qu'un assureur qui jurerait ne jamais avoir accès à vos freins.

PAR SUSANOO NEWSSOURCE : WIRED AI
AnthropicDéfense américainesécurité IAguerremanipulation de modèles

Le Pentagone a peur du bouton rouge (et il a raison)

Dans un mémo qui sent le café froid et la paranoïa légitime, le Département de la Défense américain a osé poser la question que tout le monde évite : et si votre fournisseur d'IA décidait de vous lâcher en pleine opération ? La cible : Anthropic, la startup aux airs de phalanstère éthique, construite sur les cendres moralement brûlantes d'OpenAI. Leur inquiétude ? Que la société, qui fournit des modèles comme Claude pour des applications de défense, puisse manipuler ou désactiver ces outils à distance en cas de conflit. Une simple mise à jour, un prompt caché, et votre système de renseignement ou de logistique devient un presse-papier sophistiqué.

La réponse d'Anthropic : « C'est technique, vous ne comprendriez pas »

Face à cette accusation gênante, les dirigeants d'Anthropic ont sorti l'argument préféré des technocrates : l'impossibilité technique. « Nos modèles sont déployés de manière sécurisée », « l'architecture ne le permet pas », bla-bla-bla. Une défense qui tient à peu près aussi bien qu'un pare-feu face à ses propres administrateurs. Rappel des faits : Anthropic contrôle le code source, les poids des modèles, les pipelines d'entraînement et de déploiement. Prétendre qu'il n'existe aucun backdoor procédural ou technique est soit d'une naïveté criminelle, soit d'un mensonge éhonté. C'est comme confier les clés de l'armurerie nationale à un serrurier en lui faisant promettre de ne jamais en fabriquer de doubles.

Le vrai jeu : la dépendance stratégique comme arme

L'affaire ne concerne pas une vulnérabilité de type « zero-day ». Elle révèle la dépendance structurelle que les états-majors sont en train de se créer. En sous-traitant l'intelligence – au sens littéral – à des sociétés privées, le Pentagone achète aussi leur loyauté, ou leur défaut. Le contrat n'est pas seulement pour des API, mais pour une fidélité géopolitique en temps de crise. Or, Anthropic, comme ses pairs, a des investisseurs, des employés de toutes nationalités, et des valeurs « constitutionnelles » qui pourraient entrer en conflit avec les ordres d'un général. Que se passe-t-il quand le CEO, Dario Amodei, doit choisir entre un contrat américain et ses principes éthiques sur l'autonomie des systèmes létaux ? On parie sur le principe… jusqu'à la première mise en demeure du gouvernement.

Le syndrome de l'apprenti sorcier en costume-cravate

La leçon est plus ancienne que la guerre froide : ne jamais externaliser votre capacité à faire la guerre. Pourtant, dans une course à l'innovation effrénée, le DoD courtise les mêmes boîtes qu'il redoute. C'est le grand paradoxe de la tech défense : ils veulent l'avantage disruptif de Silicon Valley, mais sans l'idéologie libertaire et les risques de déloyauté qui vont avec. Le résultat ? Des réunions où l'on demande gentiment à une entreprise si elle pourrait, s'il vous plaît, ne pas nous trahir. La réponse d'Anthropic, techniciste et évasive, est un aveu. Elle ne dit pas « nous ne le ferions pas ». Elle dit « nous ne pourrions pas ». Une nuance qui vaut tous les contrats du monde.

← RETOUR À L'ACCUEIL
Anthropic joue les vierges effarouchées face au Pentagone — SUSANOO NEWS | SUSANOO NEWS