Imaginez demander à votre amie IA les derniers gros titres—pour obtenir seulement la moitié de l'histoire correcte. C'est exactement ce qu'une nouvelle recherche menée par l'Union Européenne de Radiodiffusion (UER) et la BBC a révélé lorsqu'ils ont analysé 3 000 réponses d'assistants leaders dans 14 langues.
Ils ont testé des grands noms comme ChatGPT, Copilot, Gemini et Perplexity, en vérifiant l'exactitude, les sources et leur capacité à distinguer les faits des opinions. Le verdict ? Un stupéfiant 45 pour cent des réponses avaient au moins une erreur majeure, et 81 pour cent contenaient une forme quelconque d'erreur.
Les erreurs allaient de sources manquantes ou trompeuses à des faits dépassés ou complètement erronés. Une IA signalait encore le Pape François comme vivant des mois après sa mort, tandis qu'une autre confondait les nouvelles lois sur les cigarettes électroniques jetables. Gemini s'en sortait le pire, avec 72 pour cent de ses réponses marquées pour de graves problèmes de sources—bien au-dessus de la moyenne des autres.
Avec 7 pour cent de tous les lecteurs de nouvelles en ligne—et 15 pour cent de ceux âgés de moins de 25 ans—se tournant maintenant vers les IA pour les nouvelles, l'UER avertit que la baisse d'exactitude pourrait miner la confiance et éloigner les jeunes de la participation civique.
Le rapport exhorte les développeurs d'IA à assumer leurs responsabilités : citer clairement les sources, mettre à jour l'information rapidement, et s'attaquer directement aux « hallucinations ». Sinon, nos flux d'informations numériques risquent de devenir de la fiction, laissant les communautés de Dakar à Delhi et São Paulo se demander : qui peut-on faire confiance ?
Pour les jeunes à travers le Sud Global, rester attentif à ces faux pas de l'IA est essentiel. En exigeant de meilleurs outils d'information IA, nous pouvons garder nos faits—et nos voix—forts.
Reference(s):
New research shows AI assistants make widespread errors about the news
cgtn.com




