Le nouveau stéthoscope est un micro, et il écoute pour le compte d'un LLM
Voilà où en est la médecine de première ligne : avant de vous ausculter, votre généraliste doit maintenant vous demander l'autorisation d'enregistrer vos symptômes pour les faire digérer par une intelligence artificielle. En Australie, deux médecins sur cinq utilisent déjà ces « scribes IA » pour rédiger les notes de consultation. L'argument vendeur ? Libérer le praticien de la paperasse pour qu'il vous regarde enfin dans les yeux. Un conte de fées techno-solutionniste qui sent bon le communiqué de presse de startup.
« Moins d'écran, plus de contact » : le mantra qui cache la marchandisation du récit patient
Les vendeurs de ces solutions – des sociétés comme Nuance, Suki ou même des acteurs locaux – surfent sur la lassitude légitime des médecins noyés sous l'administratif. Leur pitch est simple : parlez, l'IA retranscrit en temps réel, génère une note structurée, et hop, vous gagnez 10 minutes par patient. Sauf que cette « commodité » a un prix. Elle transforme l'entretien clinique, ce moment de confidence et de vulnérabilité, en un simple flux de données à traiter. La parole du patient n'est plus d'abord entendue par un humain, mais capturée comme un corpus textuel à tokeniser.
Consentement éclairé ou checkbox légale ?
« Do you give consent to use an AI scribe ? » La question, théoriquement obligatoire, arrive souvent dans le flux rapide des formalités d'accueil. Entre la mise à jour des antécédents et la vérification de l'adresse, le patient signe-t-il vraiment un accord éclairé ? Comprend-il que ses mots, ses hésitations, ses silences, vont alimenter un modèle probabiliste ? Sait-il où ces données sont stockées, combien de temps, et à quelles fins elles pourront être réutilisées (pour « l'amélioration du modèle », bien sûr) ? La réponse est non. C'est du consentement à la chaîne, une formalité pour couvrir légalement les promoteurs de la tech, pas pour protéger le patient.
Le risque n'est pas l'erreur, c'est la déshumanisation systémique
Les défenseurs de la tech minimisent : « L'IA ne fait que prendre des notes, le diagnostic reste humain ». Faux dilemme. Le vrai danger n'est pas une hallucination grossière (même si ça arrive), c'est la normalisation d'une relation médiatisée par l'algorithme. Quand le médecin écoute en sachant qu'une machine retranscrit, son attention change. Il peut se concentrer moins sur la mémorisation des détails, mais il peut aussi, inconsciemment, formuler son questionnement pour être plus « lisible » par l'IA. La conversation s'adapte à la machine, pas l'inverse.
Qui est le vrai bénéficiaire ? Suivez l'argent
Qui gagne vraiment ici ? Le patient, qui obtient peut-être 2 minutes d'attention en plus ? Le médecin, qui voit sa charge administrative légèrement allégée au prix d'une nouvelle dépendance logicielle ? Ou bien les sociétés de tech santé qui se positionnent en maîtres des flux de données cliniques, les plus sensibles qui soient ? Ces entreprises construisent, consultation après consultation, les jeux de données les plus précieux du siècle : des dialogues médecins-patients annotés en temps réel. Le business model à terme n'est pas la licence logicielle, c'est la monétisation de cette intelligence collective médicale rendue « machinable ».
La médecine générale se transforme en un vaste terrain d'entraînement pour l'IA. Les patients en sont les annotateurs involontaires, et les médecins, les opérateurs de saisie bénévoles d'un futur où le diagnostic sera peut-être automatisé. On vous avait promis un assistant, on vous livre un cheval de Troie. La prochaine fois que votre médecin vous tendra son iPad pour le consentement, demandez-lui simplement : « Docteur, à qui appartiennent mes mots ? »