12 March 2025
Temps de lecture : 2 min
C’est Sarah Brandt, Executive Vice President, Partnerships de NewsGuard, qui a mis le sujet du “LLM Laundering” sur la table: dans une étude publiée début mars, son organisation a identifié un réseau de sites internet aux contenus générés par l’IA, nommé “Pravda”. Sa particularité ? Contrairement aux campagnes de désinformations classiques ou aux sites “Made-For-Advertising” (MFA), conçus pour générer des revenus publicitaires, ces sites ne sont pas destinés à être consultés par des humains…
“Ces sites utilisent l’IA pour générer des millions d’articles dans le seul but d’inonder le web, en espérant que les LLM absorberont leurs contenus et les restitueront en réponse aux requêtes des utilisateurs,” explique Sarah Brandt, qui définit ainsi la pratique du “LLM Laundering”. L’existence de ce réseau avait également été documentée en février 2025 dans un rapport détaillé de l’association à but non lucratif “American Sunlight Project” (ASP), mais celle-ci privilégie le terme de “LLM grooming”.
D’après NewsGuard, plus de 3,6 millions d’articles produits par le réseau Pravda sont désormais intégrés dans les résultats des outils d’IA occidentaux. Avec des conséquences déjà quantifiables: lors de tests menés avec les dix principaux chatbots du marché (ChatGPT-4o d’Open AI, Smart Assistant de You.com, Grok de xAI, Pi de Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Gemini de Google et Perplexity), “les agents conversationnels ont repris les faux récits dans 33% des cas”. Plus inquiétant encore, “les chatbots ont directement redirigé les utilisateurs vers ces sites de désinformation dans 12% des cas.”
“Je suis certaine que d’autres acteurs malveillants vont suivre cet exemple, voyant l’efficacité de ce que le réseau Pravda a réussi à accomplir,” alerte la représentante de NewGuard.
“Il y a eu une vraie évolution depuis l’époque des premières ‘fake news’ grossières”, observe Mike Wendling, reporter tech de la BBC, qui intervenait lui aussi dans la table-ronde. “Aujourd’hui, nous sommes confrontés à des techniques beaucoup plus sophistiquées qui exploitent les failles des nouvelles technologies”, explique-t-il.
Pour sa consœur du Washington Post, Naomi Nix, ces nouvelles menaces qui pèsent sur la confiance dans les médias et l’information renforcent encore la nécessité d’étudier les mécanismes qui permettent la dissémination de tels contenus. “Il est essentiel de mettre en lumière les mécanismes qui sont à l’œuvre sur les plateformes en ligne, ainsi que les groupes et les diffuseurs qui contribuent aux désinformations les plus problématiques,” souligne-t-elle.
Ceci étant, même si les grands modèles de langage représentent un nouveau vecteur de désinformation, les participants à la table-ronde ont également tenu à souligner leur potentiel positif. Sarah Brandt a notamment évoqué “des expérimentations qui utilisent les LLM pour le fact-checking, ce qui pourrait accélérer et rendre plus efficace la vérification, pour la faire à plus grande échelle.”
Mais cela ne pourra fonctionner qu’à condition que les informations sur lesquelles s’appuient ces outils soient fiables et vérifiées. Ce qui est encore loin d’être le cas, selon les données partagées par Mike Wendling, qui s’appuie sur une étude publiée en février 2025 par la BBC: “les chatbots et les assistants IA sont incapables de résumer avec précision les articles d’actualité. Selon notre étude, 51% des réponses d’IA à des questions sur l’actualité présentaient des problèmes importants,” souligne-t-il.
Avec la multiplication des manœuvres de manipulation à grande échelle et sans la mise en place des garde-fous nécessaires, il est peu probable que la situation s’améliore.
Topics
LES NEWSLETTERS DU GROUPE INFLUENCIA : MINTED — LA QUOTIDIENNE INFLUENCIA — THE GOOD — WHAT'S UP ? MEET IN. RECEVEZ UNE DOSE D'EVENEMENTS, D'INNOVATIONS, MEDIA, MARKETING, ADTECH...
Je découvre les news !