Voilà un petit jeu qui amuse beaucoup les grands comptes : publier des publicités clairement générées par de l'IA sur TikTok, et se garder bien de le mentionner. Notre confrère de The Verge a passé des semaines à scruter son feed, cherchant en vain la moindre étiquette « AI-generated » sur des vidéos de marques comme Samsung. Devinez quoi ? Il n’en a trouvé aucune. Pourtant, les « tells » – ces imperfections trahissant la synthèse – sautaient aux yeux de quiconque sait regarder.
La politique fantôme de TikTok
TikTok a pourtant une politique écrite noir sur blanc : toute publicité utilisant de l'IA générative doit être clairement étiquetée. Un engagement pris en septembre 2023, grand moment de communication sur la « transparence ». Sur le papier, c'est beau. Dans la pratique, c'est du vent. La plateforme, qui vante ses algorithmes de modération ultra-performants, semble soudainement frappée de cécité sélective dès qu'il s'agit de contenus sponsorisés par ses clients les plus rentables.
Samsung, l'élève pas très appliqué
Prenons Samsung, partenaire tech de premier plan. La marque a diffusé plusieurs vidéos sur son compte TikTok officiel présentant des artefacts visuels typiques de l'IA générative – textures baveuses, physiques improbables, cohérence lumineuse douteuse. Aucune mention en petit caractère, aucun label « AI ». Rien. Ils savent. Leur agence sait. TikTok, théoriquement, pourrait savoir. Mais l'utilisateur, lui, doit rester dans le flou. C'est pratique, un pigeon qui ne sait pas qu'on lui fait avaler du synthétique.
Le double langage de l'éthique à la carte
Le plus savoureux dans cette histoire, c'est le discours des entreprises concernées. Elles sont toutes pour l'étiquetage de l'IA… en théorie. Dans les colloques, les chartes éthiques, les communiqués. Mais quand il s'agit de leurs propres campagnes, la « transparence » devient soudainement un frein à la « créativité » ou un « défi opérationnel ». Traduction : étiqueter, c'est reconnaître que votre produit est si banal qu'il a besoin d'être fabriqué par une machine. Et ça, ça fait mauvais genre sur le feed.
Qui surveille les gardiens ? Personne.
La vraie question n'est pas de savoir si ces vidéos sont faites par l'IA – elles le sont. La question est : qui a intérêt à ce que ce flou persiste ? TikTok, qui ne veut pas froisser ses annonceurs ? Les annonceurs, qui ne veulent pas que leur manque d'inspiration crasse soit exposé ? Le système repose sur une autorégulation qui n'a jamais fonctionné. Les règles existent pour donner l'illusion du contrôle, pas pour être appliquées. L'utilisateur est le dindon de la farce, oscillant entre méfiance et résignation, pendant que les plateformes et les marques se partagent le gâteau publicitaire, étiqueté ou non.
En attendant, le feed de TikTok devient le laboratoire parfait d'un monde où la frontière entre réel et synthétique est volontairement brouillée – par ceux-là mêmes qui prétendent vouloir la clarifier. Belle leçon de cynisme en temps réel.