La course au diagnostic le plus rentable
Microsoft, Amazon, OpenAI. Les trois géants de la tech ont tous, dans les derniers mois, sorti leur propre chatbot médical. La raison ? Un marché de la santé numérique qui devrait atteindre plus de 600 milliards de dollars d'ici 2027. La demande est claire, c'est vrai. Mais la question que personne ne pose est : demande de qui ? Des patients, ou des actionnaires ?
Des promesses en kit et des tests en rade
Leur argumentaire est toujours le même : désengorger les systèmes de santé, démocratiser l'accès aux conseils médicaux. Un beau discours. Sauf que la réalité, c'est une pléthore d'outils lancés à la va-vite, avec des validations cliniques aussi minces que les clauses de non-responsabilité qui les accompagnent. On vous vend une révolution, on vous livre un chatbot qui vous dit d'aller voir un vrai médecin. Génial.
Le vrai produit, c'est vous
Ne vous y trompez pas. Le modèle économique n'est pas de vous soigner, mais de vous apprendre. Chaque interaction, chaque symptôme décrit, chaque question posée est une donnée de santé ultra-sensible qui nourrit leurs modèles. Ils construisent les bases de données médicales les plus lucratives de l'histoire, et vous, vous payez en informations personnelles. Le diagnostic est simple : c'est une aubaine pour eux, un risque énorme pour vous.
La régulation ? Un placebo
Pendant ce temps, les régulateurs regardent le train passer. La FDA et ses équivalents européens sont dépassés par la vitesse d'innovation. Les cadres existants pour les dispositifs médicaux ne sont pas adaptés à des algorithmes qui évoluent chaque semaine. Résultat : un no man's land juridique où les GAFA peuvent expérimenter à grande échelle, avec une impunité quasi-totale en cas d'erreur. On appelle ça de l'innovation disruptive. Nous, on appelle ça de l'irresponsabilité organisée.
Et le Pentagone dans tout ça ?
Pendant que vous discutez de votre mal de dos avec un algorithme, une autre guerre culturelle fait rage, bien loin des patients. Le Département de la Défense américain s'interroge sur l'utilisation d'Anthropic, le concurrent 'éthique' d'OpenAI, pour des applications militaires. La question n'est plus de savoir si l'IA va soigner, mais si elle va tuer. Et pour cette danse macabre, les mêmes entreprises sont sur la piste, prêtes à vendre leurs services au plus offrant, qu'il s'agisse d'un hôpital ou d'un quartier général. La santé n'est qu'un marché d'entrée. Le vrai jeu est partout ailleurs.