L'étiquette qui colle (trop) mal
Voilà une décision qui sent le règlement de comptes à retardement. Un juge fédéral a temporairement bloqué la désignation d'Anthropic comme 'risque pour la chaîne d'approvisionnement nationale', une étiquette collée dans les derniers soubresauts de l'administration Trump. Traduction : l'exécutif a tenté de faire du zèle en catégorisant une startup d'IA comme une menace, sans trop se soucier de prouver ladite menace. La justice, agacée, a mis un coup de frein. Anthropic, qui développe des modèles de langage rivaux de GPT, peut donc continuer ses affaires sans ce stigmate administratif dès la semaine prochaine. Une victoire en apparence technique, mais qui en dit long sur le cafouillage réglementaire autour de l'IA.
Le 'risque', une notion élastique
Personne ne nie qu'Anthropic, avec ses modèles comme Claude, représente une puissance computationnelle et intellectuelle significative. Fondée par d'anciens d'OpenAI en rupture de ban, la société incarne la course effrénée à l'IA générale 'safe'. Mais la qualifier de risque pour la chaîne d'approvisionnement ? L'argument tenait à peu près autant qu'un château de sable. L'administration avançait des craintes sur l'accès aux puces (les fameux GPU, dominés par Nvidia) et aux données. Sauf qu'Anthropic n'est pas un fabricant de hardware, et que ses besoins en data sont du même ordre que ceux de Google ou Meta — des géants qui, eux, n'ont pas reçu l'étiquette. Le juge a probablement vu dans cette désignation ciblée ce qu'elle était : un acte politique mal étayé, visant peut-être plus à envoyer un signal anti-'big tech' qu'à adresser un risque réel.
Qui protège-t-on, vraiment ?
Le vrai spectacle n'est pas la suspension de l'étiquette, mais ce qu'elle révèle. D'un côté, une administration précédente qui brandit l'outil de la sécurité nationale de manière opportuniste et désordonnée. De l'autre, une industrie de l'IA qui avance à une vitesse folle, laissant les régulateurs en roue libre. Anthropic, dans cette histoire, joue à la fois la victime et le pion. Victime d'une procédure bâclée, mais pion dans un jeu plus large : la définition des frontières de la souveraineté technologique. Car si une startup de quelques centaines de salariés peut être perçue comme un 'risque', que dire des vrais géants qui contrôlent l'infrastructure cloud mondiale ? Le juge, en suspendant la mesure, a surtout pointé l'incohérence du critère. Un rappel salutaire : avant de désigner des risques, il faudrait peut-être en avoir une définition claire.
Et maintenant ? Une trêve précaire
La suspension est temporaire. La bataille juridique sur le fond va se poursuivre. Mais l'épisode sert d'avertissement. Pour Anthropic, c'est un sursis qui permet d'éviter un handicap commercial majeur — peu de partenaires veurent s'associer avec une entité 'à risque'. Pour Washington, c'est la preuve que réguler l'IA à coups de décrets improvisés est une impasse. Le risque, le vrai, n'est peut-être pas dans les serveurs d'Anthropic, mais dans l'incapacité des États à forger un cadre intelligent pour une technologie qui échappe à toutes les cases. En attendant, la startup respire, les avocats facturent, et le spectacle de la régulation à l'américaine continue.