Le club des gentils pirates
Anthropic, le labo qui nous vend du Claude comme une alternative 'éthique' aux dérives d'OpenAI, vient d'annoncer Project Glasswing. Le pitch : réunir Apple, Google et plus de 45 autres organisations – soit un Who's Who de ceux qui possèdent déjà l'internet – pour utiliser le nouveau Claude Mythos Preview et 'faire avancer les capacités de cybersécurité de l'IA'. Traduction non officielle : créer un cartel de la sécurité pour verrouiller le marché sous couvert de bonnes intentions.
La sécurité, nouvel argument marketing
Personne n'est contre la vertu, surtout quand elle sert à évincer la concurrence. Le timing est savoureux : au moment où les régulateurs américains et européens commencent à s'intéresser sérieusement aux risques systémiques de l'IA, les principaux concernés forment un club privé pour 's'auto-réguler'. Project Glasswing n'est pas un test de sécurité, c'est une opération de relations publiques à l'échelle industrielle. Ils ne testent pas si l'IA peut tout hacker, ils testent jusqu'où ils peuvent pousser le narratif de l'IA responsable sans se faire taper sur les doigts.
Qui contrôle le test, contrôle la norme
Le détail qui tue : ils utiliseront exclusivement Claude Mythos Preview pour ces tests. C'est comme demander à Renault de tester la sécurité des voitures... avec uniquement des Renault. Le modèle qui évalue les risques devient de facto la référence, et Anthropic se positionne en arbitre technique d'un domaine qu'il cherche à dominer. Les 45 autres organisations ne sont pas des cobayes, ce sont des complices consentants. Elles achètent une assurance 'nous faisons partie des bons' et un accès privilégié aux futures normes.
L'argent sous le tapis de sécurité
Suivez l'argent : les contrats de cybersécurité enterprise représentent un marché de plus de 200 milliards de dollars. En se posant en pionnier de l'IA 'sécurisée', Anthropic ne fait pas que de la R&D, il prépare son entrée sur ce jackpot. Les partenaires ? Ils se garantissent une place à la table où se décideront les standards – ceux qui excluront les plus petits acteurs incapables de se payer le ticket d'entrée 'Glasswing'. La boucle est bouclée : on crée un problème complexe (l'IA qui hacke tout), on propose une solution propriétaire, et on invite ses futurs clients à valider le tout.
Le spectacle de la transparence
Anthropic promet de partager les résultats. Magnanime. Mais partager avec qui ? Avec le même cercle fermé de 45 géants. Le public, les chercheurs indépendants, les concurrents non invités devront se contenter des communiqués triés sur le volet. Cette coalition n'est pas un exercice scientifique, c'est une chambre d'écho. Elle produit la preuve sociale nécessaire pour dire aux régulateurs : 'Laissez-nous faire, nous savons ce que nous faisons.' Pendant ce temps, les vrais risques – la concentration du pouvoir, les biais structurels, l'opacité des modèles – ne sont pas sur la table de test.
Project Glasswing est un chef-d'œuvre de stratégie industrielle. Prenez une préoccupation légitime (la sécurité), transformez-la en club privé, utilisez-le pour consolider votre position de marché, et présentez le tout comme un service rendu à l'humanité. Les hackers ne sont pas ceux que vous croyez.