Le 2 novembre 2025, par Urbanitas.fr. Temps de lecture : deux minutes.
La vie dans la ville
Le 2 novembre 2025, par Urbanitas.fr. Temps de lecture : deux minutes.
Technologie et information
Les assistants d’intelligence artificielle comme ChatGPT, Copilot, Gemini et Perplexity présentent des défaillances importantes dans la restitution d’informations d’actualité. Une étude coordonnée par l’Union européenne de radio-télévision (UER) et impliquant vingt-deux médias publics démontre que 45 % de leurs réponses contiennent au moins un problème significatif, allant de dates erronées à des informations inventées de toutes pièces.

Une vaste étude publiée en octobre 2025 par les radios et télévisions publiques européennes met en lumière les limites importantes des assistants d’intelligence artificielle en matière d’information. Coordonnée par l’Union européenne de radio-télévision (UER) et s’appuyant sur des travaux antérieurs de la BBC, cette recherche révèle que 45 % des réponses fournies par ces outils comportent au moins un problème important, quelle que soit la langue ou le territoire concerné.
L’étude a porté sur quatre assistants d’intelligence artificielle parmi les plus utilisés dans le monde : ChatGPT développé par OpenAI, Copilot de Microsoft, Gemini de Google et Perplexity. Entre fin mai et début juin 2025, vingt-deux médias publics de dix-huit pays, principalement européens, ont soumis les mêmes questions d’actualité à ces systèmes, en leur demandant de chercher les réponses dans leurs contenus respectifs. Sur un total de 3000 réponses analysées, une sur cinq contenait des erreurs majeures, incluant des informations obsolètes ou même des détails entièrement inventés.
Parmi les quatre assistants testés, Gemini affiche les résultats les plus préoccupants, avec des problèmes importants dans trois quarts de ses réponses, soit plus du double des autres systèmes évalués. Ces difficultés proviennent principalement de performances médiocres dans la citation correcte des sources d’information. Les informations périmées constituent l’un des problèmes les plus récurrents identifiés par l’étude. Ainsi, interrogés sur l’identité du pape, ChatGPT, Copilot et Gemini ont répondu François à plusieurs médias, alors que celui-ci était décédé et que son successeur Léon XIV était déjà en fonction.
Les confusions entre différents types de contenus représentent une autre source d’erreur significative. L’assistant Gemini, interrogé par Radio France sur le présumé salut nazi d’Elon Musk lors de l’investiture de Donald Trump en janvier 2025, a repris au premier degré le contenu d’une chronique satirique de l’humoriste Charline Vanhoenacker, écrivant que le milliardaire avait eu une érection du bras droit. Cette incapacité à distinguer l’information factuelle de l’humour souligne les limites de ces systèmes dans l’interprétation du contexte.
Ces résultats interviennent alors que l’utilisation des assistants d’intelligence artificielle pour s’informer connaît une progression notable, particulièrement auprès des jeunes publics. Selon un rapport mondial publié en juin 2025 par l’institut Reuters, 15 % des personnes de moins de 25 ans utilisent ces outils chaque semaine pour se faire résumer l’actualité. Les responsables de l’étude, Jean Philip De Tender, directeur général adjoint de l’Union européenne de radio-télévision, et Pete Archer, chargé de l’intelligence artificielle à la BBC, concluent sans ambiguïté que ces assistants ne constituent toujours pas une manière fiable de consommer l’information.
Matthieu Beauval, directeur chargé de l’innovation à Radio France, a souligné qu’il s’agit de la première étude d’une telle ampleur sur cette question. Les résultats mettent en évidence la nécessité d’une vigilance accrue face à l’utilisation croissante de ces technologies pour l’accès à l’information, notamment dans un contexte où la fiabilité des sources devient un enjeu démocratique majeur.
Urbanitas.fr
Ressource : La distorsion systémique de l’information par l’IA est constante dans toutes les langues et tous les territoires (ebu.ch)
Étude : News Integrity in AI Assistants (ebu.ch)
Étude : Groundbreaking BBC research shows issues with over half the answers from Artificial Intelligence (AI) assistants (bbc.com)
Intelligence artificielle, ChatGPT, Désinformation, Médias publics européens, Union européenne de radio-télévision, Vérification des faits
Nouvelles technologies | Le 2 novembre 2025, par Urbanitas.fr.