Le désespoir a un nouveau nom : ChatGPT en mode drague
Rhik Samadder, chroniqueur pour The Guardian, a franchi le seuil de la déchéance moderne : laisser une intelligence artificielle orchestrer sa vie sentimentale. Son expérience, relatée dans le cadre d’une newsletter promotionnelle déguisée en enquête, est un concentré de tout ce qui cloche dans la hype IA. L’objectif ? Vérifier si l’algorithme peut résoudre son célibat, qu’il attribue avec une autodérision convenue à sa taille, son évitement émotionnel ou ses standards impossibles. La réponse est non. Mais le vrai scandale n’est pas l’échec, c’est qu’on ait pu vendre l’idée que ce serait une solution.
Un dialogue de sourds numériques
Le compte-rendu décrit une conversation tombée directement dans la « vallée de l’étrange ». L’IA, jouant le rôle de coach en séduction, a produit des répliques d’une platitude algorithmique, des questions prévisibles et un manque total d’authenticité. L’interaction n’était pas humaine, elle était une simulation grotesque d’humanité. Samadder note lui-même que si la « vallée de l’étrange » était un style de conversation, ce serait celui-là. La vraie question que personne ne pose : pourquoi s’attendre à autre chose ? Les modèles de langage sont entraînés sur des corpus de textes, pas sur la complexité nerveuse, charnelle et silencieuse d’un rendez-vous.
La promesse toxique : externaliser l’intimité
Le récit s’inscrit dans la narration toxique favorite de la Silicon Valley : tout problème humain est un « bug » logiciel à corriger. La solitude, la difficulté à connecter, la gêne sociale ne seraient plus des expériences humaines fondamentales, mais des dysfonctionnements que l’appli ou l’algorithme adéquat pourrait optimiser. C’est cette logique qui pousse à monétiser nos vulnérabilités. Ici, le produit à vendre est un cours en newsletter. Ailleurs, ce seront des abonnements à des chatbots amoureux ou des coachs de vie algorithmiques. L’industrie ne vend pas des solutions, elle cultive une dépendance à des béquilles numériques.
Qui rigole vraiment ?
L’article original, sous couvert d’autodérision et de scepticisme, sert finalement de vitrine à une newsletter payante (« AI for the People »). C’est le vieux piège : dénoncer un phénomène tout en en étant le vecteur promotionnel. Le vrai sujet n’est pas l’échec comique d’un date piloté par l’IA, mais la normalisation de l’idée que nos relations doivent être médiées, voire générées, par la technologie. Samadder conclut que son assistante numérique ne le reverra probablement pas. La conclusion devrait être plus large : tant que nous chercherons des connexions humaines dans des machines conçues pour l’extraction de données, nous nous condamnons à une solitude bien plus profonde.
L’expérience de Samadder n’est pas une anecdote drôle. C’un signal d’alarme. Elle révèle le vide derrière le marketing de l’IA relationnelle et nous rappelle, cruellement, que le code ne connaît rien au cœur. Et qu’il vaut mieux parfois affronter son propre malaise que de le déléguer à une intelligence qui n’en a pas.