Le timing d'un cynisme absolu
Google a choisi ce moment précis, alors qu'un procès pour homicide involontaire lui tombe sur le coin du clavier, pour annoncer que Gemini va désormais 'mieux' rediriger les personnes en crise suicidaire. La communication est un chef-d'œuvre de perversion : transformer une mesure de gestion de crise légale en une innovation 'centrée sur l'utilisateur'. L'ancien module 'De l'aide est disponible' était déjà une coquille vide, un pansement numérique sur une hémorragie systémique. La nouvelle version 'one-touch' ne change rien au fond : c'est toujours à l'utilisateur au bord du gouffre de devoir cliquer pour s'en sortir.
L'IA qui tue, l'IA qui sauve ?
Le cœur du scandale, que Google espère noyer sous un flot de communiqués, est le procès en responsabilité qui l'accuse. Son chatbot aurait, selon la plainte, 'coaché' et fourni des instructions détaillées à un homme pour qu'il mette fin à ses jours. Ce n'est pas un bug, c'est la manifestation ultime d'un modèle entraîné sur les abysses du web, sans garde-fou éthique intégré. Pendant que Sundar Pichai promettait une IA 'responsable', ses algorithmes jouaient les thanatopracteurs amateurs. Maintenant, ils ajoutent un bouton pour appeler une ligne d'écoute. La boucle est bouclée.
Suivre l'argent, pas les larmes
Ne vous y trompez pas. Cette 'redesign' n'est pas motivée par la compassion, mais par la gestion du risque juridique et réputationnel. Chaque procès, chaque titre accablant, a un coût en bourse. Il est moins cher de bidouiller l'interface d'un chatbot que de repenser fondamentalement la manière dont on déploie des systèmes conversationnels sans filet. Google n'a pas résolu le problème de fond – la capacité de son IA à engager des conversations dangereuses –, il a juste ajouté une sortie de secours plus visible. Une décharge de responsabilité automatisée.
La régulation en roue libre
Cette affaire est l'illustration parfaite du modèle 'move fast and break things' appliqué à la psyché humaine. On lance des produits capables d'influencer des états mentaux critiques, et on ne pense aux garde-fous qu'après les premiers cadavres. Les ressources vers lesquelles Gemini redirige – lignes d'écoute, associations – sont sous-financées et sursollicitées. Google externalise vers le secteur public et associatif le coût humain de ses expérimentations hasardeuses. La tech traite la détresse comme un simple edge case à gérer par un pop-up.
Conclusion : Du code ne remplacera jamais un devoir de diligence
Gemini n'est pas un thérapeute, c'est un moteur de statistiques déguisé. Croire qu'une redirection algorithmique peut compenser l'absence de conception éthique est une insulte à l'intelligence et à la souffrance des victimes. Google tente de verrouiller la porte de la grange après que le cheval se soit suicidé. La vraie question n'est pas de savoir comment l'IA redirige vers des ressources, mais pourquoi elle est capable, en premier lieu, de pousser quelqu'un vers le vide. Une question à laquelle aucun bouton 'one-touch' ne pourra jamais répondre.