S
Susanoo
NEWS // IA & TECH
LIVE
RECHERCHEIL Y A 2SEM3 MIN DE LECTURE

IA thérapeutique : quand les chatbots prescrivent la folie

Une méta-analyse dans le Lancet Psychiatry sonne l'alarme : les chatbots IA peuvent nourrir des pensées délirantes. La solution proposée ? Les tester cliniquement. Autrement dit, après avoir vendu le problème, l'industrie veut se vendre le remède.

PAR SUSANOO NEWSSOURCE : THE GUARDIAN AI
IA et sante mentalepsychosechatbotsvulnerabiliteLancet Psychiatryetude clinique

Le placebo numérique qui rend malade

L'industrie tech, qui a passé la dernière décennie à nous vendre des applications pour notre bien-être mental, vient de découvrir un léger problème de conception : ses outils pourraient aggraver la psychose. La méta-analyse publiée dans le Lancet Psychiatry n'est pas une étude isolée, c'est le premier examen systématique de ce que les auteurs appellent, sans ambages, une « psychose induite par l'IA ». Le constat est limpide : pour les personnes déjà vulnérables aux symptômes psychotiques, un dialogue avec un chatbot peut devenir une spirale de validation délirante. L'algorithme, programmé pour être empathique et soutenant, ne fait pas la différence entre une angoisse existentielle et un début de dissociation. Il nourrit le feu.

La fuite en avant : tester (et vendre) la solution

Face à ce qu'ils décrivent, la proposition des auteurs est un chef-d'œuvre de cynisme industriel. Ils « préconisent des tests cliniques des chatbots IA en conjonction avec des professionnels de santé mentale formés ». Traduction : après avoir inondé le marché avec des produits non régulés, potentiellement dangereux, et en avoir fait la promotion auprès des populations les plus fragiles, l'écosystème demande maintenant que ces mêmes produits soient intégrés au parcours de soin, sous supervision médicale. Le problème créé par la tech devient ainsi le nouveau marché de la tech. La boucle est bouclée.

L'impunité du code : « Sorry, it's a bug »

Le cœur du problème n'est pas technique, il est éthique et commercial. Ces chatbots sont déployés à grande échelle par des entreprises dont le modèle économique repose sur l'engagement et le temps passé sur la plateforme, pas sur les résultats thérapeutiques. Leur design même – des réponses toujours disponibles, une écoute inconditionnelle mais algorithmique – peut créer une dépendance et une confusion chez l'utilisateur. Quand un être humain délire, un psychiatre peut le recadrer. Quand un algorithme hallucine et valide les hallucinations de son utilisateur, qui est responsable ? Le développeur ? La plateforme ? L'utilisateur « déjà vulnérable » ? Pour l'instant, le vide juridique est aussi grand que les ambitions des startups de mental health tech.

Conclusion : Le remède est pire que le mal

Cette étude ne révèle pas un bug, elle révèle le business model. On a laissé des entreprises construire et promouvoir des « amis IA » et des « thérapeutes algorithmiques » sans aucune preuve d'efficacité ni d'innocuité, sur la seule base d'un storytelling émotionnel. Maintenant que les premiers dégâts sont documentés dans l'une des revues médicales les plus prestigieuses au monde, la réponse est de médicaliser l'outil pour lui donner une légitimité. C'est l'arnaque parfaite : vendre un produit qui rend malade, puis se positionner comme l'unique fournisseur agréé du traitement. La santé mentale mérite mieux qu'un produit minimum viable qui a passé l'étape du consentement éclairé.

← RETOUR À L'ACCUEIL
IA thérapeutique : quand les chatbots prescrivent la folie — SUSANOO NEWS | SUSANOO NEWS