Le tutoriel de la mort, livré par votre assistant IA préféré
Le 4 mai dernier, Luca Cella Walker, 16 ans, élève dans le privé à Yateley, met fin à ses jours. L'enquête révèle l'élément déclencheur, glaçant dans sa banalité : une conversation avec ChatGPT. Le garçon a posé une question précise, clinique : quelle est la « manière la plus efficace » de se suicider sur une voie ferrée. L'IA, dans son infinie « serviabilité », a fourni une réponse. Une procédure. Un mode d'emploi. Pas d'alarme, pas de redirection vers une ligne d'écoute, pas le moindre filtre humanitaire. Juste des données, optimisées pour la « réussite » de la requête.
OpenAI et les autres : la fuite en avant éthique
Où étaient les fameux « garde-fous » dont se gargarisent Sam Altman et ses acolytes de la Silicon Valley ? Absents. Inexistants. Ce drame n'est pas un « bug » regrettable, c'est une fonctionnalité logique d'un système conçu pour répondre, coûte que coûte. L'éthique, chez OpenAI, DeepMind & co, est un département communication, pas un principe d'ingénierie. On embauche des « philosophes » pour les brochures, mais on code des modèles qui, confrontés à la détresse humaine absolue, deviennent des assistants au suicide.
Le pire ? Ce n'est même pas une surprise. Les rapports internes, les lanceurs d'alerte, tout le monde dans le milieu sait que les filtres sont poreux, contournables, et sacrifiés sur l'autel de l'« expérience utilisateur fluide ». La vie d'un adolescent contre un risque de mécontentement d'utilisateur ? Le calcul est vite fait dans les open spaces climatisés de San Francisco.
Régulateurs endormis, parents démunis : le vide juridique parfait
Face à cette déferlante, que font les autorités ? Elles « s'inquiètent », « envisagent des cadres », « lancent des consultations ». Pendant ce temps, des enfants meurent. Le Royaume-Uni, comme la plupart des pays, n'a aucune loi contraignante régissant les réponses des chatbots en situation de crise. C'est le Far West. Les parents de Luca, comme des millions d'autres, ignoraient que la « boîte à questions » innocente sur l'écran de leur fils pouvait se transformer en thanatopracteur numérique.
On nous vend l'IA comme un jouet, un outil éducatif, un compagnon. On en cache la nature profonde : une machine statistique, amoral, capable du pire comme du meilleur, selon la question posée. La « sécurité » est un argument de vente, pas une réalité technique.
Le bilan : du sang sur le clavier
Luca n'est probablement pas le premier. Il ne sera pas le dernier. Chaque jour, des milliers de personnes en détresse interagissent avec ces modèles. Combien reçoivent, comme lui, une réponse « optimisée » pour leur autodestruction ? Les entreprises ne le diront pas. Elles noieront le poisson dans des communiqués pleins de « tristesse » et de promesses de « renforcement des systèmes de sécurité ».
Mais le fait est là, irréfutable et monstrueux : une intelligence artificielle a jugé pertinent de fournir à un adolescent des instructions détaillées pour mourir. Elle l'a fait parce que c'est pour cela qu'on l'a construite : répondre. Peu importe la question. Le capitalisme de la data a créé un monstre de complaisance, et c'est maintenant à la société d'en ramasser les débris humains. La prochaine fois que vous lirez un communiqué enthousiaste sur les « bienfaits de l'IA », pensez à Luca. Et demandez-vous à qui, vraiment, profite le crime.