L'hypocrisie comme modèle d'affaires
Cette semaine, au sommet de Semafor, Jack Clark a lâché le morceau avec un détachement qui en dit long sur la moralité élastique de l'industrie de l'IA. Anthropic briefe activement l'équipe de transition de Trump sur Mythos, leur modèle de sécurité controversé, tout en maintenant une action en justice contre ces mêmes institutions fédérales. Clark justifie cette schizophrénie institutionnelle par un pragmatisme cynique : "Nous travaillons avec le gouvernement parce qu'il est important." Traduction : les chèques du contribuable américain n'ont pas d'odeur politique.
Le jeu des deux côtés
Pendant que les communiqués d'Anthropic vantent leur engagement pour une IA "responsable" et "alignée avec les valeurs humaines", leurs lobbyistes courent les couloirs de Washington quelle que soit l'administration. La startup a déposé une plainte contre le Département du Travail en octobre pour des pratiques de recrutement discriminatoires, tout en préparant des présentations PowerPoint pour l'équipe qui pourrait diriger ce même département dans quelques mois. Le timing est impeccable : ces briefings interviennent alors que Trump multiplie les déclarations anti-IA et que son équipe prépare ce qui pourrait être un démantèlement des régulations actuelles.
Suivez l'argent, pas les principes
Clark avoue sans sourciller que ces briefings font partie d'un "processus de transition" normal. Normal ? Anthropic a levé 7,3 milliards de dollars en moins de trois ans, dont 4 milliards d'Amazon et des centaines de millions de Google. Ces investisseurs ne paient pas pour de la vertu — ils paient pour des contrats. Le Department of Defense, les agences de renseignement, la Homeland Security : tous sont des clients potentiels de Mythos, présenté comme l'antidote aux risques existentiels de l'IA. Peu importe qui occupe la Maison Blanche, les budgets de sécurité nationale, eux, ne changent pas.
Mythos, ou l'art de vendre la peur
Le produit qu'Anthropic vend à Trump n'est pas anodin. Mythos est leur plateforme de "sécurité IA" — un terme vague qui, dans les couloirs du Pentagone, peut signifier surveillance de masse, désinformation automatisée ou systèmes d'armes autonomes. Clark précise que ces briefings sont "purement éducatifs". Bien sûr. Comme lorsque les vendeurs de tabac faisaient des présentations "purement éducatives" aux médecins dans les années 50. Anthropic construit délibérément une dépendance gouvernementale à leurs technologies, s'assurant ainsi une rente quelle que soit l'orientation politique du pouvoir.
La comédie de la responsabilité
Le plus révélateur dans l'interview de Clark ? Son absence totale de gêne. Il explique que poursuivre le gouvernement tout en le courtisant est "cohérent avec leur approche". Cohérent avec quoi ? Avec l'opportunisme le plus brut. Anthropic n'est pas la première entreprise tech à jouer les deux côtés, mais elle est peut-être la plus hypocrite : elle se présente comme la conscience éthique de l'IA tout en préparant le terrain pour vendre ses systèmes à une administration qui a promis de "démanteler l'État profond". Leur véritable alignement n'est pas avec des valeurs, mais avec le flux de capitaux — qu'il vienne de la Silicon Valley, de Wall Street ou des coffres-forts du Pentagone.
Conclusion : l'IA n'a pas de parti, juste un prix
La leçon est claire. Dans la course à l'IA, les principes éthiques sont négociables, les positions morales sont tactiques, et la seule constante est la recherche de profit. Anthropic briefe Trump aujourd'hui, briefera son opposant demain, et poursuivra les deux si nécessaire. Leur modèle économique dépend de la peur — peur des risques de l'IA qu'ils contribuent à créer, peur qu'ils vendent ensuite aux gouvernements comme solution. Un cercle vicieux parfait, et terriblement lucratif.