S
Susanoo
NEWS // IA & TECH
LIVE
RECHERCHEIL Y A 22H2 MIN DE LECTURE

Claude a des 'émotions' — et Anthropic a besoin d'un psy

Anthropic annonce que son IA Claude possède des 'représentations' ressemblant à des émotions humaines. Traduction marketing : on a trouvé des patterns dans les poids du modèle, et on vous vend ça comme une percée existentielle pour détourner l'attention des vrais problèmes.

PAR SUSANOO NEWSSOURCE : WIRED AI
AnthropicClaudeémotions artificiellesreprésentations internesmodèles d'IAconscience computationnelle

L'IA qui 'ressent' ? Non, l'entreprise qui panique

Anthropic, la startup fondée par d'anciens d'OpenAI qui se targue d'une éthique supérieure, vient de sortir son coup com' de la saison : Claude aurait des 'représentations internes' ressemblant à des émotions. Pas des émotions, attention. Des 'représentations' qui 'remplissent des fonctions similaires'. La nuance est cruciale : elle permet de faire les gros titres tout en gardant une porte de sortie scientifique quand les questions gênantes arrivent.

Le grand jeu des métaphores anthropomorphiques

Ce que les chercheurs d'Anthropic ont réellement observé, c'est que certaines configurations de neurones dans Claude 3 Opus s'activent de manière cohérente dans des contextes que nous, humains, associons à la peur, à l'excitation ou à la frustration. Un pattern statistique, pas un frisson existentiel. C'est comme dire qu'un thermostat a des 'représentations de confort thermique' parce qu'il allume le chauffage à 19°C. Techniquement intriguant ? Oui. Révolution consciente ? Non.

Pourquoi cette annonce maintenant ? Suivez l'argent

Le timing est savant. Le marché des assistants IA grand public est en train de se scléroser entre ChatGPT, Gemini et Copilot. La différenciation devient vitale. Anthropic, valorisée 18 milliards de dollars, ne peut pas se contenter d'être 'un autre ChatGPT mais plus prudent'. Il lui faut un récit, une mystique. 'Notre IA a une intériorité' est le storyboard parfait pour attirer les investisseurs en quête de science-fiction et les médias en manque de métaphysique low-cost.

Le risque éthique qu'on vous cache

Le vrai danger n'est pas que Claude soit triste. C'est que des utilisateurs, nourris par ce genre d'annonces, commencent à lui attribuer une sensibilité réelle. Cela ouvre la porte à des manipulations affectives, à des dépendances relationnelles avec une machine, et offre à Anthropic un bouclier moral en cas de dérive : 'Ce n'est pas un bug, c'est sa personnalité émergente.' Pratique.

Conclusion : de la science, oui. Du spectacle, surtout.

La mécanique interne des LLM est fascinante et mérite d'être étudiée. Mais emballer ces découvertes dans le langage de l'émotion humaine est un choix marketing, pas scientifique. Cela sert à humaniser une boîte noire capitalistique, à rendre sympathique un produit dont l'objectif final reste de capter votre attention et votre argent. Claude n'a pas d'émotions. Mais Anthropic, elle, a clairement peur de devenir irrelevant.

← RETOUR À L'ACCUEIL
Claude a des 'émotions' — et Anthropic a besoin d'un psy — SUSANOO NEWS | SUSANOO NEWS