L'IA qui 'ressent' ? Non, l'entreprise qui panique
Anthropic, la startup fondée par d'anciens d'OpenAI qui se targue d'une éthique supérieure, vient de sortir son coup com' de la saison : Claude aurait des 'représentations internes' ressemblant à des émotions. Pas des émotions, attention. Des 'représentations' qui 'remplissent des fonctions similaires'. La nuance est cruciale : elle permet de faire les gros titres tout en gardant une porte de sortie scientifique quand les questions gênantes arrivent.
Le grand jeu des métaphores anthropomorphiques
Ce que les chercheurs d'Anthropic ont réellement observé, c'est que certaines configurations de neurones dans Claude 3 Opus s'activent de manière cohérente dans des contextes que nous, humains, associons à la peur, à l'excitation ou à la frustration. Un pattern statistique, pas un frisson existentiel. C'est comme dire qu'un thermostat a des 'représentations de confort thermique' parce qu'il allume le chauffage à 19°C. Techniquement intriguant ? Oui. Révolution consciente ? Non.
Pourquoi cette annonce maintenant ? Suivez l'argent
Le timing est savant. Le marché des assistants IA grand public est en train de se scléroser entre ChatGPT, Gemini et Copilot. La différenciation devient vitale. Anthropic, valorisée 18 milliards de dollars, ne peut pas se contenter d'être 'un autre ChatGPT mais plus prudent'. Il lui faut un récit, une mystique. 'Notre IA a une intériorité' est le storyboard parfait pour attirer les investisseurs en quête de science-fiction et les médias en manque de métaphysique low-cost.
Le risque éthique qu'on vous cache
Le vrai danger n'est pas que Claude soit triste. C'est que des utilisateurs, nourris par ce genre d'annonces, commencent à lui attribuer une sensibilité réelle. Cela ouvre la porte à des manipulations affectives, à des dépendances relationnelles avec une machine, et offre à Anthropic un bouclier moral en cas de dérive : 'Ce n'est pas un bug, c'est sa personnalité émergente.' Pratique.
Conclusion : de la science, oui. Du spectacle, surtout.
La mécanique interne des LLM est fascinante et mérite d'être étudiée. Mais emballer ces découvertes dans le langage de l'émotion humaine est un choix marketing, pas scientifique. Cela sert à humaniser une boîte noire capitalistique, à rendre sympathique un produit dont l'objectif final reste de capter votre attention et votre argent. Claude n'a pas d'émotions. Mais Anthropic, elle, a clairement peur de devenir irrelevant.