Quand une frappe tue des civils, la Silicon Valley et le Pentagone ont trouvé le coupable idéal : un algorithme. L''erreur d'IA' est devenue l'euphémisme du siècle, la version high-tech de 'dégâts collatéraux'. On ne bombarde plus, on 'optimise une cible'. On ne tue plus, on 'génère un résultat opérationnel défavorable'. La langue se vide, la responsabilité s'évapore.
La grammaire de l'impunité
Anthony Lawton et Felicity Mellor pointent juste : dire 'l'IA a fait une erreur' supprime silencieusement le sujet humain. C'est un tour de passe-passe sémantique de première. Hier, on 'délogeait' des civils. Aujourd'hui, on 'déresponsabilise' des colonels. La chaîne de commandement devient un labyrinthe algorithmique où plus personne ne signe au bas de l'ordre de mort.
Des lignes de code, pas des lignes de front
Le vrai danger n'est pas Skynet. C'est le lieutenant assis dans un container au Nevada, qui valide une cible sur un écran à 12 000 km, protégé par trois couches de jargon technocratique. Ce sont les ingénieurs de Palantir ou de Project Maven qui conçoivent les systèmes de ciblage, les 'product managers de la mort' qui itèrent sur des tableaux de bord où les vies sont des métriques. Ils ne voient pas le sang, seulement des pixels et des scores de confiance.
L'argent derrière l'opacité
Suivez les contrats. Le budget du Joint All-Domain Command and Control (JADC2) explose. Les startups d'IA de défense lèvent des centaines de millions. Chaque 'incident' comme celui en Iran est une opportunité business : il faut des systèmes plus précis, plus autonomes, donc plus chers. Le complexe militaro-industriel a trouvé son nouveau moteur de croissance : externaliser la conscience morale à une boîte noire, puis facturer la maintenance.
Responsabilité : mode d'emploi
La solution n'est pas technique, elle est civique. Exiger que tout système létal ait un chef d'état-major signataire, pas un numéro de version. Rendre publics les protocoles de validation des cibles. Poursuivre pénalement les concepteurs pour négligence homicide quand leur algorithme rate un mariage pour une base terroriste. L'IA n'a pas de corps à incarcérer. Les PDG de Raytheon, les généraux du CENTCOM et les ingénieurs de chez Scale AI, si.
Arrêtons de débattre de l'éthique des machines. Commençons par juger celle des hommes qui les programment — et qui trouvent commode de blâmer le code qu'ils ont eux-mêmes écrit.