Le coup de force discret d'un vendredi soir
Anthropic, la startup qui se pique d'éthique et de transparence, vient de démontrer son vrai visage : celui d'un gardien de prison numérique. Vendredi soir, à l'heure où les communicants espèrent que personne ne regarde, l'entreprise a envoyé un email assassin à ses utilisateurs. À partir du 4 avril, 15h heure de l'Est, fini d'utiliser vos crédits d'abonnement Claude avec des outils tiers comme OpenClaw. La porte se referme. Le message est clair : chez Anthropic, on ne joue qu'avec les jouets de la maison.
OpenClaw dans le collimateur : une coïncidence trop parfaite
OpenClaw, cet outil qui permettait justement de mieux exploiter Claude, devient soudainement un citoyen de seconde zone. Son créateur, Peter Steinberger, a rejoint OpenAI. Quelle surprise. Anthropic prétend que ce changement vise à 'mieux gérer les ressources'. Traduction : nous ne voulons plus que nos serveurs profitent à des outils qui pourraient enrichir la concurrence. La guerre froide de l'IA montre ses dents, et les utilisateurs sont les dommages collatéraux.
La nouvelle arnaque : le 'pay-as-you-go' séparé
La solution proposée ? Un système de paiement à l'usage, déconnecté de votre abonnement existant. Double facturation, double complexité, double peine pour ceux qui voulaient simplement étendre les capacités de l'outil qu'ils payent déjà. Une manœuvre classique de monétisation par la fragmentation. Vous pensiez acheter un accès à une intelligence ? Vous achetez en réalité un accès à un écosystème verrouillé.
Claude Cowork, le grand gagnant de cette purge
Anthropic pousse évidemment ses propres alternatives, comme Claude Cowork. La stratégie est transparente : étouffer l'innovation externe pour favoriser ses produits maison. C'est le jeu habituel des plateformes : ouvrir grand les bras aux développeurs tiers tant qu'ils sont petits, puis leur marcher dessus dès qu'ils deviennent intéressants ou menaçants. L'histoire se répète, mais avec des modèles de langage.
La grande hypocrisie de l'IA 'responsable'
Le plus savoureux dans cette affaire, c'est le décalage entre le discours et les actes. Anthropic se présente comme le chevalier blanc de l'IA, soucieux de sécurité et d'alignement. Mais quand il s'agit de contrôle commercial et de verrouillage client, les principes éthiques semblent s'évaporer. La responsabilité, apparemment, s'arrête où commence le profit.
Les utilisateurs d'OpenClaw se retrouvent maintenant face à un choix cornélien : payer deux fois plus cher pour conserver leur workflow, ou se plier aux outils officiels. Anthropic vient de rappeler à tous une vérité fondamentale de la tech moderne : vous ne possédez rien, vous louez un accès révocable à tout moment. Et la facture de cette location vient juste d'augmenter.