Ah, YouTube a décidé de jouer les grands frères protecteurs. À partir de maintenant, tous les utilisateurs majeurs pourront utiliser leur détection de deepfakes basée sur une scanette de selfie. Une vraie révolution ? Ou plutôt un coup de com' qui sent le renfermé.
Un selfie pour la vie privée — le nouveau marché juteux
Pour chasser les sosies numériques, YouTube vous demande rien de moins qu'une photo de votre tronche. Une selfie-style scan, disent-ils. Traduction : un fichier biométrique de votre visage, confié à Google — qui l'utilisera probablement pour entraîner ses IA tout en vous promettant que c'est pour votre bien. Comme si votre vie privée n'était pas déjà assez malmenée par leurs algorithmes. Le piège est parfait : vous leur donnez vos données en échange d'une protection qui, on le verra, est surtout symbolique.
Le chiffre qui tue : un nombre de demandes de retrait « très faible »
YouTube l'admet lui-même : le nombre de demandes de retrait après détection est « very small ». Autrement dit, même leur outil ne trouve presque rien à signaler. Soit les deepfakes sont inexistants (ce qui est faux), soit leur détection est aussi efficace qu'une moustiquaire en papier. Mais chut, il ne faut pas casser l'illusion marketing. Cette fonctionnalité n'existe que pour faire joli dans les rapports RSE avant les élections américaines.
Un accès réservé aux adultes — et les mineurs, on s'en tape ?
Bien sûr, la détection est réservée aux plus de 18 ans. Parce que les deepfakes de mineurs, ce n'est pas un problème ? Les chatbots sexuels générés par IA qui imitent des ados, laissez tomber. YouTube préfère s'occuper de la réputation des adultes influents (journalistes, politiciens, créateurs) qui ont déjà été testés en bêta. Les vrais utilisateurs lambda, eux, peuvent toujours courir.
Un outil pour sauver la face, pas les victimes
En réalité, cette expansion est un écran de fumée. YouTube cherche à montrer qu'il agit contre les deepfakes sans jamais s'attaquer aux racines : la modération en amont, les modèles génératifs qui permettent de créer ces images, et surtout le business de la désinformation. Pendant ce temps, les vrais outils de détection open source sont ignorés, et les victimes de deepfakes non consentis (souvent des femmes) continuent de galérer. Mais non, rassurez-vous, vous pouvez maintenant faire un selfie pour Google. Quelle belle époque.