Voilà une situation qui résume à merveille l'ère de l'IA : une cour d'appel fédérale et un tribunal de district se renvoient la balle comme dans un match de tennis juridique, et au milieu, Anthropic fait tranquillement son marché. D'un côté, une décision de mars qui semblait mettre des garde-fous. De l'autre, un jugement d'appel qui ouvre grand les vannes. Le résultat ? Un flou artistique aussi épais que la brume sur San Francisco, et parfaitement pratique pour tout le monde.
Le double jeu des juges, le jackpot des vendeurs
En mars, un tribunal inférieur avait l'air de dire : « Attention, utiliser Claude pour des opérations militaires, c'est peut-être franchir une ligne. » Trois mois plus tard, la cour d'appel du 9e circuit répond : « Quelle ligne ? On ne voit pas de ligne. » Cette incohérence n'est pas un bug, c'est une feature. Pour Anthropic, c'est la porte ouverte à des contrats juteux avec le Pentagone, tout en gardant la possibilité de brandir le premier jugement en cas de scandale public. Le flou juridique est devenu le meilleur argument commercial de la tech militaire.
Claude sur le champ de bataille : la 'supply-chain' de l'éthique en rade
L'expression « supply-chain risk » utilisée dans les documents officiels est un chef-d'œuvre de langue de bois. Traduction : « On ne sait pas si notre joujou IA va être interdit demain, donc on avance prudemment, mais on avance quand même. » Pendant que les avocats débattent, les intégrations techniques, elles, continuent. Chaque jour de flou est un jour de plus où les systèmes d'Anthropic s'enfoncent un peu plus dans l'infrastructure du complexe militaro-industriel. La stratégie est simple : rendre l'outil tellement indispensable que son interdiction future deviendra impensable.
La comédie des principes 'responsables'
Rappelons qu'Anthropic se présente comme la société d'IA « sûre » et « alignée », fondée par d'anciens d'OpenAI qui avaient fui, dit-on, des inquiétudes éthiques. Leur manifeste fondateur parle de « bénéfice à long terme de l'humanité ». Rien sur le bénéfice à court terme des opérations de ciblage. Cette contradiction crève les yeux : vous ne pouvez pas vendre votre cerveau électronique à la plus grande machine de guerre de la planète et prétendre dormir tranquille. Les principes sont comme les communiqués de presse : faits pour être affichés, pas pour être suivis.
Alors que va-t-il se passer ? Rien. Absolument rien. Les contrats vont se signer, les modèles vont être déployés, et les deux décisions de justice contradictoires serviront de prétexte à l'inaction des régulateurs. Le vrai risque pour Anthropic n'est pas juridique, il est réputationnel. Mais à en juger par le silence assourdissant de la Silicon Valley sur ce sujet, ce risque est déjà soigneusement maîtrisé. L'IA « responsable » a trouvé son premier client sérieux, et ce n'est pas l'humanité.