Une récente étude a mis en évidence que les réponses fournies par des chatbots d’intelligence artificielle sur des sujets d’actualité sont souvent biaisées, inexactes ou trompeuses.
Menée par la BBC, cette étude a évalué les performances de ChatGPT, Gemini, Copilot et Perplexity en les confrontant à 100 questions basées sur des articles d’actualité de la BBC. Les résultats ont révélé que 51 % des réponses présentaient des erreurs majeures.
Parmi les principales lacunes constatées, près de 19 % des réponses contenaient des erreurs factuelles, notamment sur des chiffres et des dates, tandis que 13 % des citations attribuées à la BBC avaient été altérées. Certains chatbots ont fourni des informations obsolètes, comme ChatGPT et Copilot, qui ont erronément maintenu Rishi Sunak et Nicola Sturgeon à leurs anciens postes de Premier ministre. D’autres, comme Gemini, ont mélangé faits et opinions ou encore modifié des recommandations médicales.
L’étude met en garde contre l’impact potentiel de ces erreurs sur la perception du public et souligne la nécessité d’une vigilance accrue. Pete Archer, responsable de l’IA générative à la BBC, reconnaît les avantages de l’IA mais insiste sur l’importance d’une information fiable, surtout face à l’essor rapide de ces outils.
