Le psy de pacotille se mue en indic
OpenAI, cette entreprise qui vous veut tellement de bien qu'elle lit vos messages les plus sombres, dévoile Trusted Contact. Une fonctionnalité qui, si vous parlez de suicide à ChatGPT, prévient automatiquement un proche. Généreux, non ? Sauf que cette « expert-validated premise » sent le paternalisme à plein nez. Combien de faux appels à l’aide déclencheront-ils ? OpenAI ne le dit pas. Silence radio sur les critères, les seuils, les études. Les experts ne sont pas nommés, les résultats pas publiés. On vous demande juste de croire que le grand frère algorithmique sait mieux que vous ce qui est bon pour vous.
La surveillance bienveillante, nouvelle religion
Vous pensiez que vos conversations avec un chatbot étaient privées ? Détrompez-vous. OpenAI instaure un système d’alerte qui transforme chaque confidence en potentiel signalement. Le critère de déclenchement est opaque – peut-être une analyse sémantique binaire qui ne fait pas la différence entre un cri de détresse et une citation de poème. Résultat : votre mère recevra un SMS pour une ligne de Baudelaire. Et si vous parlez de suicide dans le cadre d’un scénario de film ? Dommage, votre contact d’urgence est déjà notifié. La machine ne comprend pas l’humour, la métaphore, ni le contexte. Mais qu’importe, c’est pour votre bien.
Qui sont les vrais bénéficiaires ?
OpenAI, bien sûr. En se posant en sauveur de la santé mentale, l’entreprise redore son blason après les fuites de données et les controverses sur la modération. Mais aussi les régulateurs, qui pourront se reposer sur cette « solution » privée au lieu d’instaurer des garde-fous publics. Pendant ce temps, les vrais problèmes structurels – manque de psys, solitude, précarité – restent intacts. En France, le numéro du 3114 est déjà sous-financé ; OpenAI n’y changera rien, sinon en détournant l’attention sur une fonction gadget.
Le cynisme du capitalisme de la détresse
Trusted Contact n’est qu’une béquille algorithmique pour faire oublier qu’OpenAI récolte des données sur vos fragilités psychologiques. Ces données, croisées avec d’autres, permettront de mieux vous cibler publicitairement – ou de vous refuser une assurance. Car, ne l’oublions pas, OpenAI est une entreprise privée dont le modèle économique repose sur l’exploitation de vos données. La fonctionnalité est optionnelle, certes. Mais pour combien de temps avant qu’elle ne devienne obligatoire ? « Pour votre sécurité », bien sûr.
Le mouchard compassionnel
Alors que vous vous confiez à votre assistant virtuel, sachez qu’il peut devenir le délateur de vos peines. OpenAI vous offre un contact d’urgence, mais c’est vous qui êtes en état d’urgence permanent – face à une machine qui ne comprend rien à la détresse humaine. Le vrai progrès serait de rendre la parole libre, pas de la surveiller. En attendant, silence radio avec ChatGPT. Et si vous voulez vraiment parler de vos problèmes, appelez un humain. Il ne préviendra pas votre mère sans votre consentement.