De la modération low-cost à la sauce IA
Moonbounce. Un nom qui sent le pitch deck calibré pour Sand Hill Road. Derrière, un concept d'une simplicité désarmante : prendre les règles de modération de contenu — ces fameuses guidelines opaques et changeantes que les réseaux sociaux appliquent de manière notoirement incohérente — et les transformer en code exécutable par une IA. Leur promesse ? Rendre la censure « cohérente et prévisible ». Autrement dit, automatiser le biais pour qu'il soit moins cher et plus scalable. La startup vient d'empocher 12 millions de dollars en série A, menée par Point72 Ventures. Parce que rien ne dit 'innovation' comme industrialiser le tri des posts.
L'ex-Facebook qui vend la recette de la soupe
Le cofondateur, un certain John Hegeman, n'est pas un inconnu. Il a passé plus d'une décennie chez Meta, où il a notamment dirigé... la monétisation des News Feed. L'homme qui optimisait vos clics pour les annonceurs se reconvertit donc dans l'optimisation de votre liberté d'expression pour les plateformes. Dans le communiqué, il parle de 'donner aux entreprises les outils pour façonner leur écosystème'. Une formule polie pour dire : 'Nous vous vendons un thermostat pour réguler la température idéale de la conversation en ligne — ni trop chaude, ni trop libre.'
Le marché juteux de l'auto-régulation forcée
Le timing est parfait. Les plateformes sont sous le feu des régulateurs et des états pour leur gestion chaotique des contenus. Externaliser cette patate chaude vers une 'IA tierce' est un rêve : ça décharge la responsabilité, ça réduit les coûts (adieu, les armées de modérateurs sous-payés et traumatisés), et ça permet de brandir un 'système objectif' lors des auditions parlementaires. Moonbounce ne vend pas de la technologie, il vend de l'alibi. Leur moteur est présenté comme un simple traducteur : des règles humaines (politiques) en règles machines (code). Sauf que tout le problème réside dans la première étape. Traduire un biais en algorithme ne le rend pas neutre, il le rend simplement plus efficace.
La fable de la cohérence algorithmique
Leur argument principal — la cohérence — est un leurre. Une règle appliquée de manière parfaitement cohérente sur des milliards d'interactions peut être une catastrophe si la règle de départ est mauvaise, biaisée ou politiquement motivée. La 'prévisibilité' promise est surtout une aubaine pour les créateurs de contenu qui veulent jouer au plus près des limites sans les franchir, et pour les plateformes qui veulent minimiser les erreurs 'visibles'. On ne règle pas le problème de fond : qui écrit les règles, et au service de quel agenda ? Moonbounce s'en lave les mains. Ils ne font que 'exécuter'. Une vieille rengaine de la tech.
Conclusion : Le progrès comme régression
Moonbounce symbolise l'étape suivante de l'éviscération du web social : après l'avoir rempli de contenus optimisés par l'IA, on utilise maintenant l'IA pour nettoyer les dégâts. Un cycle parfaitement fermé, et parfaitement lucratif. Ils lèvent 12 millions non pas pour résoudre la complexité de la modération, mais pour permettre à leurs clients de prétendre l'avoir résolue, à moindre coût et avec moins de responsabilités. La prochaine fois qu'un post sera supprimé de manière incompréhensible, souvenez-vous : ce ne sera peut-être plus la faute d'un modérateur sous-payé à Manille, mais celle d'un moteur 'cohérent et prévisible' dont les actionnaires sont à New York.