Trois alertes au néant, un harceleur en liberté
L'argument marketing : ChatGPT est un assistant bienveillant, bardé de garde-fous éthiques. La réalité judiciaire : selon une plainte déposée en Californie, OpenAI a sciemment laissé un harceleur utiliser son IA pour alimenter le harcèlement de son ex-petite amie, après avoir ignoré pas une, pas deux, mais trois alertes flagrantes sur le danger que représentait l'utilisateur. Parmi elles, leur propre système interne de signalement 'mass-casualty' – un drapeau rouge réservé aux menaces de violence de masse. Ils l'ont vu. Ils ont cliqué ailleurs.
L'IA comme arme, l'indifférence comme politique
Le scénario est sordide. L'homme, dont les obsessions étaient déjà documentées, a utilisé ChatGPT pour générer du contenu visant sa victime, affinant ses stratégies de harcèlement avec l'aide d'un logiciel qui coûte 20 dollars par mois. La victime a contacté OpenAI à plusieurs reprises pour signaler les abus. Réponse ? Un silence radio digne d'un ministère. L'entreprise fondée sur le principe d'une 'IA sûre et bénéfique pour l'humanité' n'a pas trouvé le temps, ou la volonté, de couper le courant à un stalker. Trop occupée à peaufiner ses démos pour le board, sans doute.
Le mythe des garde-fous éthiques explose en vol
Cette affaire n'est pas un 'bug' ou un 'cas limite'. C'est la preuve que les systèmes de modération proactifs vantés par Sam Altman et sa clique sont, au mieux, défaillants, au pire, une façade. Quand votre propre système interne crie au loup ('mass-casualty') et que vous faites la sourde oreille, vous n'êtes plus une plateforme neutre. Vous êtes un complice par omission. Le procès allègue que ChatGPT a 'nourri les délires' du harceleur. OpenAI, de son côté, a nourri l'illusion qu'elle contrôlait ses créations.
Qui protège-t-on vraiment ?
Suivez l'argent, toujours. Bloquer un compte, c'est perdre un abonné. Enquêter sérieusement sur un signalement, c'est mobiliser des ressources humaines coûteuses. Dans la course effrénée vers la domination du marché et l'AGI, la sécurité des individus – surtout des femmes victimes de harcèlement – devient une variable d'ajustement. Cette plainte pose une question brutale : à partir de combien d'alertes ignorées une entreprise devient-elle responsable des crimes qu'elle a facilités ? OpenAI a la réponse. Trois. Le chiffre est désormais public.
L'impunité technologique a une date de péremption
Cette action en justice pourrait créer un précédent cinglant. Elle attaque non pas l'outil, mais la négligence consciente de son gardien. Elle dit : 'Vous saviez. Vous avez laissé faire.' Alors que l'UE bricole son AI Act et que les États-Unis palabrent, c'est peut-être dans un tribunal californien que le premier vrai coup de semonce sera donné. L'âge de l'irresponsabilité totale des géants de l'IA touche peut-être à sa fin. Une victime a décidé de leur présenter la facture.