Claude ne veut pas tuer, merci
Anthropic, la start-up IA qui se présente comme la 'conscience' de la Silicon Valley, vient de remporter une première manche symbolique contre le plus gros client du monde : le Département de la Défense américain. La juge fédérale Rita Lin a ordonné jeudi une pause dans les mesures punitives du Pentagone contre l'entreprise, le temps que le tribunal du nord de la Californie examine l'affaire. Le cœur du litige ? Anthropic refuse catégoriquement que son modèle Claude soit intégré à des systèmes d'armes autonomes. Le Pentagone, habitué à ce que l'industrie tech rampe pour ses contrats, a visiblement mal digéré le 'non'.
Premier amendement et 'risque pour la chaîne d'approvisionnement' : le clash des récits
La réponse de l'administration Trump a été musclée : déclarer Anthropic comme un 'risque pour la chaîne d'approvisionnement' de la sécurité nationale et ordonner aux agences gouvernementales de cesser d'utiliser sa technologie. La start-up a riposté en invoquant une violation de ses droits au premier amendement. Leur argument ? En la punissant pour ses principes éthiques affichés (pas d'armes autonomes), le gouvernement la pénalise pour son expression et ses convictions. Un coup juridique audacieux, qui pour une fois, ne parle pas d'argent mais d'idées. Ou du moins, c'est ce qu'ils veulent nous faire croire.
L'éthique, nouveau champ de bataille commercial
Ne vous y trompez pas. Sous le vernis du débat philosophique sur les 'IA tueuses', se joue une guerre de positionnement bien terrestre. Anthropic, fondée par d'anciens d'OpenAI en rupture de ban, a fait de sa 'sécurité constitutionnelle' et de son refus de certaines applications son principal argument marketing. Face aux géants (Google, Microsoft, Meta) prêts à vendre à peu près n'importe qui, elle se pose en gardienne des valeurs. Ce procès est une publicité en or massif pour sa marque employeur et pour ses futurs clients civils soucieux de leur image. Refuser le Pentagone, c'est le rêve de tout communicant dans la tech : ça a l'air vertueux, et ça ne coûte que l'argent d'un seul client… pour l'instant.
Le Pentagone n'a pas l'habitude qu'on lui résiste
L'épisode est gênant pour la Defense Innovation Unit et consorts. L'ère où Palantir ou Amazon Web Services se battaient à coup de milliards pour les contrats JEDI est révolue. Une nouvelle génération de fondateurs, nourrie aux récits dystopiques, regarde le complexe militaro-industriel avec une méfiance open source. Leur levier ? Le code et les poids des modèles sont leur propriété. Ils peuvent, en théorie, en contrôler l'usage. Cette injonction temporaire est un signal faible, mais puissant : l'État ne peut pas forcer un développeur à faire une arme contre sa volonté. Un précédent qui va faire grincer des dents dans les couloirs du Rayburn et du Pentagone.
Et après ?
La bataille judiciaire est loin d'être terminée. L'injonction est temporaire. Le fond de l'affaire – peut-on qualifier une politique commerciale éthique de 'liberté d'expression' ? – sera tranché plus tard. Mais le message est passé. La course aux AGI n'est pas qu'une course à la puissance, c'est aussi une course au récit. Anthropic vient de placer un jalon : son intelligence artificielle sera 'responsable', ou ne sera pas. Reste à voir combien de temps cette noble stance résistera à la pression des investisseurs, à la concurrence féroce et, peut-être, à un prochain administration moins patiente. L'éthique est un luxe. Surtout quand on brûle des centaines de millions en calcul pour entraîner Claude-Next.