S
Susanoo
NEWS // IA & TECH
LIVE
MODÈLES IAIL Y A 3J2 MIN DE LECTURE

Anthropic découvre le feu, le cache dans un coffre et vend des extincteurs

Anthropic annonce fièrement que son nouveau modèle Claude Mythos a trouvé des milliers de failles critiques. Sa réponse ? Ne pas les réparer, mais créer un club privé de cybersécurité et garder l'outil sous clé. La sécurité pour tous, sauf pour vous.

PAR SUSANOO NEWSSOURCE : THE GUARDIAN AI
AnthropicClaude Mythoscybersécuritévulnérabilités logiciellesmodèles d'IAéthique de l'IA

La "découverte" qui arrange surtout les actionnaires

Anthropic, la startup qui se drape dans les vertus de l'IA "responsable", a donc pondu Claude Mythos. Le pitch ? Un modèle si bon pour trouver des failles qu'il en a déniché des milliers dans des applications que vous utilisez tous les jours. Des failles pour lesquelles aucun correctif n'existe. Leur réaction face à cette bombe à retardement numérique ? Un mélange de panique éthique et d'opportunisme commercial pur et dur.

Le club privé de la sécurité (payant)

Plutôt que de sonner l'alarme générale et de forcer une correction massive – ce qui serait, admettons, un service public – Anthropic a opté pour la stratégie du cercle fermé. Ils ont formé une "alliance" avec des spécialistes en cybersécurité. Traduction : ils vendent l'accès à ces informations critiques à une poignée d'entreprises qui peuvent se le permettre, pendant que le reste du monde numérique reste assis sur une mine. C'est la sécurité à deux vitesses : une pour ceux qui paient, une autre pour les pigeons.

L'hypocrisie en modèle économique

Leur excuse ? La peur que l'outil ne permette des "piratages à grande échelle". C'est touchant. Sauf que pendant qu'ils gardent Mythos sous clé, les failles, elles, sont bien réelles et accessibles à n'importe quel hacker un peu compétent. Anthropic ne résout pas le problème, il le monétise. Ils ont transformé une menace systémique en un produit B2B. Leur "responsabilité" sent surtout le prétexte pour créer un nouveau flux de revenus et un avantage concurrentiel déguisé en vertu.

Qui protège-t-on vraiment ?

La question n'est pas rhétorique. En retenant l'outil et en privatisant les données sur les vulnérabilités, Anthropic protège d'abord sa propre image et son potentiel de profit. Ils évitent le bad buzz d'avoir libéré un monstre, tout en capitalisant sur la peur qu'il génère. Les utilisateurs finaux, les petites entreprises, les administrations ? Ils ne sont pas dans le club. Ils attendront peut-être le correctif, ou la prochaine fuite de données. La véritable faille ici n'est pas dans le code, mais dans un système où la sécurité devient un luxe.

← RETOUR À L'ACCUEIL
Anthropic découvre le feu, le cache dans un coffre et vend des extincteurs — SUSANOO NEWS | SUSANOO NEWS