Wikipédia engage un vaste nettoyage de ses sources après la révélation de l’existence de plus de 1 500 faux sites d’information, dont certains avaient été cités comme références dans ses articles. Ces plateformes, générées par intelligence artificielle ou reprenant illégalement du contenu existant, ont été repérées grâce à une enquête menée par le journaliste Jean-Marc Manach pour Next et Libération. Depuis début février, les bénévoles de l’encyclopédie en ligne traquent et suppriment ces liens frauduleux pour garantir la fiabilité des informations diffusées.
Ces faux sites, souvent conçus pour imiter des médias reconnus, exploitent des noms similaires à ceux de journaux existants afin de tromper les internautes. Certains reprennent même d’anciens noms de domaines abandonnés, comme La Voix de France, pour se donner une légitimité apparente. L’enquête a révélé que 105 d’entre eux utilisent l’IA pour générer des articles, tandis que d’autres recourent au plagiat ou à des pratiques promotionnelles déguisées.
Face à ce phénomène, Wikipédia a mis en place une liste noire pour recenser ces sites frauduleux et empêcher leur utilisation comme sources. L’objectif est de restaurer la crédibilité de l’encyclopédie, qui repose sur la transparence et la vérification des informations publiées. Certains faux médias faisaient même partie des 100 sites d’actualités les plus consultés en France, selon des analyses de trafic.
Cette affaire met en lumière un problème plus large : l’essor des contenus générés par IA et des stratégies de désinformation. Elle pose également la question des mécanismes de contrôle des sources d’information en ligne et de la vigilance nécessaire face aux nouvelles formes de manipulation numérique.