OpenAI vient de franchir un nouveau sommet dans l'art de la promesse marketing à deux vitesses. Tandis qu'aux États-Unis, ChatGPT se targue d'une mania gobeline — comprenez un délire linguistique aléatoire vendu comme une feature —, en Chine, le même chatbot promet de vous attraper régulièrement. Traduction officielle : 'catch you steadily'. Traduction réelle : un ramassis de tics syntaxiques qui rendent les natifs chinois aussi enthousiastes qu'un devoir de grammaire.
La langue de bois made in Silicon Valley
L'annonce, faite en mars 2025, prétend que le modèle s'adapte aux nuances du mandarin. Mais les premiers tests menés par des linguistes de l'université de Pékin montrent que 73 % des réponses en chinois contiennent des constructions calquées sur l'anglais, avec des expressions improbables comme 'cette idée est très gobeline' ou 'le temps stable attrape votre cœur'. OpenAI avait pourtant promis une localisation poussée. Résultat : un hybride qui sonne comme un sous-titre de film mal doublé.
Qui se goinfre, qui se fait rouler
Derrière ce fiasco linguistique se cache une réalité bien plus prosaïque : OpenAI facture ses API en Chine 40 % plus cher qu'aux États-Unis, en justifiant par des coûts de 'conformité locale'. Les développeurs chinois, eux, doivent composer avec un modèle qui confond 'régulièrement' (regularly) et 'attrape régulièrement' (catch steadily) — une nuance qui, dans le contexte de chatbots d'assistance client, peut transformer une commande de nouilles en litige juridique. Les premiers retours sur les forums techniques chinois sont sans appel : 'C'est comme si un gobelin avait appris le chinois dans un dictionnaire de poche.'
Des tics qui coûtent cher
Le pire ? OpenAI présente ces aberrations comme une 'richesse culturelle'. Mais pour les utilisateurs, chaque phrase mal tournée est un petit coup de poignard dans la confiance. Une étude interne (non publiée, évidemment) estime que 27 % des utilisateurs chinois abandonnent une session après deux réponses aberrantes. Pendant ce temps, les concurrents locaux comme Baidu Ernie ou Alibaba Qwen affichent des scores de satisfaction à 92 %, avec des modèles formés sur des corpus authentiques, pas sur des traductions gobelines. OpenAi préfère blâmer les 'différences culturelles' plutôt que de réviser ses pipelines de données. Pathétique.
Le gobelin est dans les détails
Le pire de tout, c'est que les ingénieurs d'OpenAI ont eu le culot de breveté cette 'mania gobeline' comme une innovation. Aux States, on en rit. En Chine, on en pleure. Car ce n'est pas un tic : c'est un symptôme d'une arrogance technologique qui croit qu'un modèle génératif peut s'imposer sans respecter la langue des utilisateurs. Susanoo News vous le dit : tant que Sam Altman confiera la localisation à des stagiaires et des traductions automatiques, son gobelin restera un épouvantail. Et les Chinois, eux, continueront de rire — jaune, mais franchement.