Alors que les élections de mi-mandat approchent à grands pas, Anthropic a décidé que ses sermons sur « l'IA alignée » et la « sécurité avant tout » avaient besoin d'un petit coup de pouce concret : de l'argent liquide injecté dans les campagnes électorales. Leur tout nouveau Political Action Committee (PAC), discrètement mis sur les rails, n'a qu'un but : acheter de l'influence pour pousser l'agenda législatif qui arrange ses affaires. La moraline en keynote, le lobbying en coulisses. Un classique.
Le tour de passe-passe éthique
Pendant des mois, les fondateurs Dario et Daniela Amodei ont joué les Cassandre dans les médias, nous alertant des dangers existentiels de l'IA et de la nécessité d'une régulation robuste et éclairée. Traduction : une régulation qui ne gêne pas leur avance technologique et leur valorisation à 18 milliards de dollars. Leur PAC est la matérialisation cynique de cette stratégie. Il ne s'agit pas de financer la démocratie, mais de financer des candidats qui, une fois élus, voteront des lois taillées sur mesure pour Anthropic et ses rivaux du « club des bons élèves » comme OpenAI. La sécurité, oui, mais surtout la sécurité de leur business model.
Suivez l'argent, pas les grands discours
Le timing est une confession en soi. Monter un PAC à quelques mois des midterms, c'est reconnaître que le vrai pouvoir se joue dans les bureaux feutrés du Capitole, pas dans les papiers de recherche. Anthropic a déjà dépensé des centaines de milliers de dollars en lobbying direct en 2023. Le PAC est l'étape suivante, plus agressive, plus politique. C'est l'admission que pour façonner les règles du jeu, il faut payer les joueurs. Ou, pour le dire avec l'élégance qui caractérise Susanoo News : ils passent de la branlette intellectuelle sur l'éthique à la corruption légale des élus.
Le double langage de la Silicon Valley en costume
Le plus savoureux dans cette affaire, c'est le contraste entre le discours public et les manœuvres privées. D'un côté, une communication lactée sur la responsabilité, la transparence et le bien de l'humanité. De l'autre, la vieille recette de la vieille économie : créer un véhicule financier pour influencer le processus législatif. Ils ne veulent pas « faire le mal », ils veulent juste s'assurer que la définition du « mal » dans la future loi sur l'IA soit écrite avec leur stylo. C'est la même hypocrisie que celle des géants du tabac finançant la recherche sur les risques du tabagisme, mais en version 2.0, avec des prompts et des transformers.
Qui va encaisser le chèque ?
La question brûlante est maintenant de savoir quels candidats auront le privilège de recevoir les généreux dons du « PAC de l'IA éthique ». Des démocrates techno-optimistes ? Des républicains favorables aux entreprises ? Probablement un mélange des deux, avec un filtre simple : leur volonté de promulguer une régulation qui consacre les leaders actuels comme Anthropic en tant que gardiens incontournables de la technologie, érigeant des barrières à l'entrée au nom de la sécurité. Leur politique, c'est la capture régulatoire déguisée en croisade morale.
Anthropic rejoint ainsi le club très fermé des entreprises tech qui pensent que la démocratie a un prix. Ils ont juste trouvé le moyen de le faire facturer à la rubrique « frais de sécurité pour l'humanité ». Brillant.