Le théâtre des bonnes intentions
Anthropic, la start-up qui se vante de construire des IA 'alignées' et 'sûres', se retrouve au tribunal. Son crime ? Avoir potentiellement fourni au Pentagone des modèles capables de prendre des décisions létales. Le débat public, lui, s’égosille sur le principe du ‘humain dans la boucle’ – cette idée rassurante qu’un être de chair et de sang appuierait toujours sur le bouton. C’est du vent. Pendant que les avocats ergotent, l’armée américaine utilise des systèmes d’IA pour analyser des cibles en Iran et ailleurs, réduisant le temps de décision de plusieurs minutes à quelques secondes. La boucle humaine ? Elle est devenue une formalité rapide, une case à cocher sous la pression du chronomètre numérique.
La guerre réelle ne patiente pas
Le conflit actuel avec l’Iran n’est pas un exercice académique. C’est un laboratoire à ciel ouvert. Les renseignements affluent trop vite, les fenêtres de tir sont trop courtes. Dans ce contexte, l’humain devient le maillon faible, le goulot d’étranglement que la logique militaire cherche à éliminer. L’IA ne ‘aide’ plus l’analyse, elle la produit. Elle ne suggère plus des cibles, elle les priorise et les assigne. Le débat légal entre Anthropic et le Département de la Défense est un anachronisme : il porte sur des contrats et des clauses, alors que la pratique sur le terrain a déjà franchi la ligne rouge. Ils se disputent sur le manuel d’utilisation pendant que la machine tourne à plein régime.
Qui gagne à cette comédie ?
Anthropic gagne une aura de conscience, un argument marketing en or (‘Nous nous battons pour l’éthique !’). Le Pentagone gagne du temps et un vernis de légitimité pour continuer ses développements. Les perdants ? Les civils dans les zones de conflit, et le principe même du contrôle humain sur la violence d’État. L’illusion est soigneusement entretenue : on parle de ‘supervision’, de ‘validation’, de ‘boucle’. Des mots doux pour masquer la réalité crue : la délégation progressive du jugement à une intelligence non humaine. Une fois les systèmes déployés, sous la pression de l’urgence, la ‘boucle’ se resserre jusqu’à devenir un simple anneau de fumée.
La ligne jaune est déjà derrière nous
Le vrai scandale n’est pas qu’Anthropic ait peut-être violé ses propres principes. Le vrai scandale est que ce débat ait lieu *après* l’intégration opérationnelle. On légifère sur les freins alors que la voiture roule à 200 km/h. Chaque ‘progrès’ en vitesse et en précision des systèmes rend la supervision humaine plus théorique. Bientôt, elle sera présentée comme un risque – un facteur d’erreur, de lenteur, d’hésitation indésirable. La conclusion est écrite d’avance : l’humain sera éjecté de la boucle, au nom de l’efficacité et de la ‘supériorité stratégique’. La bataille juridique d’aujourd’hui n’est que l’épitaphe tardive d’un principe déjà mort au combat.
Ils vous vendent une éthique sur étagère pendant qu’ils codent l’autonomie mortelle. Ne regardez pas le procès. Regardez le champ de bataille. C’est là que l’illusion se dissipe dans la fumée des explosions.