S
Susanoo
NEWS // IA & TECH
LIVE
ENTREPRISESIL Y A 17H3 MIN DE LECTURE

Anthropic fuit comme une passoire : 500 000 lignes de code Claude échappent à la 'garderie'

Anthropic, la start-up IA qui se vend comme un bastion de sécurité, vient de laisser fuiter l'équivalent d'une bibliothèque complète de code source interne. La cause ? Un classique 'erreur humaine'. Les fichiers, copiés en masse sur GitHub, révèlent les jouets en développement : un Tamagotchi pour codeurs et un agent IA toujours actif. La confiance, elle, est en mode 'hors ligne'.

PAR SUSANOO NEWSSOURCE : THE GUARDIAN AI
AnthropicClaude Codefuite de code sourcesécurité IAassistant de programmationGitHub

Ajoutez « gardien scrupuleux de la sécurité IA » à la longue liste des fables que nous vend la Silicon Valley. Anthropic, la société derrière Claude, souvent présentée comme l'alternative « responsable » et « sûre » à l'impétueux OpenAI, vient de subir une fuite de données d'une beauté tragique. Près de 2 000 fichiers internes et un demi-million de lignes de code source de son assistant de programmation, Claude Code, se sont échappés dans la nature. La raison invoquée est d'une banalité consternante : une « erreur humaine ». Un fichier interne glissé par mégarde dans une mise à jour logicielle. Une porte grande ouverte laissée par le vigile.

Le « copyright takedown », pansement sur une jambe de bois

La réaction d'Anthropic face à la marée noire de son code propriétaire ? Des requêtes de retrait pour violation de copyright. Une manœuvre aussi efficace qu'un coup de pelle face à un tsunami numérique. Le lien vers le code fuité sur X a dépassé les 29 millions de vues en quelques heures. Une version réécrite du dépôt est devenue, dans la foulée, le repository le plus rapidement téléchargé de l'histoire de GitHub. La communauté des développeurs, toujours avide de voir les entrailles des modèles promis comme révolutionnaires, s'est jetée sur le butin. Les demandes de retrait d'Anthropic ressemblent à une tentative d'ordonner à l'eau de remonter la chute du Niagara.

Dans le code : des jouets et des promesses

Et que trouve-t-on dans ce trésor de guerre accidentellement livré ? Les fantasmes de la R&D d'Anthropic. Les explorateurs du code ont déniché les plans d'un assistant de codage façon Tamagotchi – probablement une tentative de gamification pathétique pour fidéliser les développeurs. Plus intrigant, les blueprints d'un agent IA « toujours actif » (always-on). Une perspective qui devrait faire frémir quiconque a lu ne serait-ce qu'un livre de cyber-sécurité. Anthropic prêche la sécurité d'un côté, et développe de l'autre des entités autonomes persistantes. La cohérence n'est décidément pas leur fort.

L'« erreur humaine », alibi éternel de l'incompétence systémique

Anthropic va-t-elle devoir rendre des comptes ? Probablement pas. L'« erreur humaine » est l'absolution universelle de l'industrie tech. Elle permet d'évacuer toute question sur les procédures de validation défaillantes, les contrôles d'accès inexistants et la culture de la précipitation qui prime sur la rigueur. Cette fuite n'est pas un accident isolé ; c'est un symptôme. Elle révèle le fossé abyssal entre le discours corporate sur la « sécurité de pointe » et la réalité crasse d'une gestion de code digne d'une startup en surchauffe. Ils veulent construire une IA qui ne tuera pas l'humanité, mais sont incapables de protéger un fichier ZIP.

La prochaine fois qu'Anthropic ou ses concurrents viendront vous sermonner sur les périls existentiels de l'IA et leur rôle de chevalier blanc, rappelez-vous cette image : 500 000 lignes de leur secret le plus précieux, étalées sur GitHub pour que le premier venu les lise, les copie, et en fasse ce qu'il veut. Le vrai danger n'est peut-être pas dans une intelligence future super-puissante, mais dans l'incompétence consternante de ceux qui prétendent la construire aujourd'hui.

← RETOUR À L'ACCUEIL
Anthropic fuit comme une passoire : 500 000 lignes de code Claude échappent à la 'garderie' — SUSANOO NEWS | SUSANOO NEWS