S
Susanoo
NEWS // IA & TECH
LIVE
ANALYSESIL Y A 19H2 MIN DE LECTURE

L'IA, bouc émissaire commode pour les crimes de guerre

Après le bombardement d'une école en Iran, on pointe du doigt une 'erreur d'IA'. Une sémantique toxique qui blanchit les humains derrière les écrans. Le vrai scandale n'est pas la machine, mais ceux qui utilisent son jargon pour se dédouaner.

PAR SUSANOO NEWSSOURCE : THE GUARDIAN AI
responsabilité IAéthiqueIranAnthony LawtonFelicity Mellorlangage

Quand une frappe tue des civils, la Silicon Valley et le Pentagone ont trouvé le coupable idéal : un algorithme. L''erreur d'IA' est devenue l'euphémisme du siècle, la version high-tech de 'dégâts collatéraux'. On ne bombarde plus, on 'optimise une cible'. On ne tue plus, on 'génère un résultat opérationnel défavorable'. La langue se vide, la responsabilité s'évapore.

La grammaire de l'impunité

Anthony Lawton et Felicity Mellor pointent juste : dire 'l'IA a fait une erreur' supprime silencieusement le sujet humain. C'est un tour de passe-passe sémantique de première. Hier, on 'délogeait' des civils. Aujourd'hui, on 'déresponsabilise' des colonels. La chaîne de commandement devient un labyrinthe algorithmique où plus personne ne signe au bas de l'ordre de mort.

Des lignes de code, pas des lignes de front

Le vrai danger n'est pas Skynet. C'est le lieutenant assis dans un container au Nevada, qui valide une cible sur un écran à 12 000 km, protégé par trois couches de jargon technocratique. Ce sont les ingénieurs de Palantir ou de Project Maven qui conçoivent les systèmes de ciblage, les 'product managers de la mort' qui itèrent sur des tableaux de bord où les vies sont des métriques. Ils ne voient pas le sang, seulement des pixels et des scores de confiance.

L'argent derrière l'opacité

Suivez les contrats. Le budget du Joint All-Domain Command and Control (JADC2) explose. Les startups d'IA de défense lèvent des centaines de millions. Chaque 'incident' comme celui en Iran est une opportunité business : il faut des systèmes plus précis, plus autonomes, donc plus chers. Le complexe militaro-industriel a trouvé son nouveau moteur de croissance : externaliser la conscience morale à une boîte noire, puis facturer la maintenance.

Responsabilité : mode d'emploi

La solution n'est pas technique, elle est civique. Exiger que tout système létal ait un chef d'état-major signataire, pas un numéro de version. Rendre publics les protocoles de validation des cibles. Poursuivre pénalement les concepteurs pour négligence homicide quand leur algorithme rate un mariage pour une base terroriste. L'IA n'a pas de corps à incarcérer. Les PDG de Raytheon, les généraux du CENTCOM et les ingénieurs de chez Scale AI, si.

Arrêtons de débattre de l'éthique des machines. Commençons par juger celle des hommes qui les programment — et qui trouvent commode de blâmer le code qu'ils ont eux-mêmes écrit.

← RETOUR À L'ACCUEIL
L'IA, bouc émissaire commode pour les crimes de guerre — SUSANOO NEWS | SUSANOO NEWS