Le Pentagone a trouvé son nouveau jouet brillant, et comme d'habitude, c'est votre argent qui va payer la facture. La dernière lubie ? Faire « entraîner » des modèles d'IA sur des scénarios de conflit avec l'Iran. Parce qu'évidemment, ce dont le complexe militaro-industriel avait besoin, c'était d'une couche de buzzword pour justifier son budget annuel de 886 milliards de dollars.
La guerre, mais avec des GPU
L'info, dénichée la semaine dernière, est présentée comme une révolution. Le département de la Défense américain discuterait avec les géants de l'IA – vos chers OpenAI, Anthropic et consorts – pour leur faire avaler des terabytes de données géopolitiques. L'objectif ? Prédire les crises, modéliser les escalades. En clair : externaliser la réflexion stratégique à des boîtes noires algorithmiques dont personne ne comprend vraiment le raisonnement.
On imagine déjà les pitchs : « Notre LLM a un taux de précision de 87% pour prédire la prochaine révolution ! » Sauf que personne ne vous dit sur quelles données pourries il a été entraîné, ni quels biais coloniaux il va recracher en haute définition. La « guerre du futur » risque surtout de ressembler à un hallucination collective à 100 millions de dollars le prototype.
Qui signe les chèques ?
Suivons l'argent, ce vieux réflexe salutaire. D'un côté, le Pentagone, dont le budget R&D explose. De l'autre, une industrie de l'IA en quête désespérée de clients solvables maintenant que la bulle grand public commence à dégonfler. Le mariage est parfait : des fonds publics quasi-illimités pour des technologies dont l'utilité réelle reste à prouver, mais dont le potentiel de panique morale est garanti.
Les contrats « AI for national security » sont la nouvelle mine d'or. Pas de questions gênantes sur la vie privée, une opacité justifiée par le « secret défense », et une course contre l'horloge (et contre la Chine) qui permet de sauter allègrement les phases de test. Que peut-il mal se passer ?
La distraction ultime
Pendant qu'on vous parle de Terminator version Téhéran, on ne parle pas de l'essentiel. Comme le fait que ces mêmes modèles d'IA sont entraînés sur nos données pillées, que leur coût environnemental est catastrophique, ou que leur utilisation dans la surveillance domestique bat déjà son plein. Le Pentagone joue les apprentis sorciers avec l'Iran ? Très bien. Mais demandez-vous ce qu'ils testent déjà dans les banlieues de Baltimore ou aux frontières de l'Europe.
L'« IA géopolitique » est le paravent idéal. Trop complexe pour être scrutée par les citoyens, trop sensible pour être débattue au Parlement, trop « innovante » pour être régulée. C'est la formule magique pour faire avaler n'importe quelle dépense, sous couvert de « supériorité stratégique ».
Conclusion : Prédire l'avenir ou le fabriquer ?
La question la plus dure sur les délires alimentés par l'IA n'est pas technique. C'est politique. À qui profite la peur ? Toujours aux mêmes. Les vendeurs de technologie, les bureaucrates en quête de promotion, et les politiques qui peuvent brandir une menace floue mais high-tech pour justifier l'injustifiable.
La prochaine fois que vous lirez un titre anxiogène sur l'IA et la guerre, remplacez « intelligence artificielle » par « contrat lucratif ». Vous serez beaucoup plus près de la vérité. Le Pentagone ne veut pas prédire l'avenir. Il veut le monétiser. Et les rois de la Silicon Valley sont plus qu'heureux de lui tendre la machine à cash, même si elle est déguisée en oracle.