L'étude menée par la BBC et l'UER est la plus vaste jamais réalisée sur la relation entre intelligence artificielle et information. Elle a impliqué 22 radiodiffuseurs publics de 18 pays et a testé quatre des principaux assistants d'intelligence artificielle actuellement utilisés : ChatGPT, Copilot, Gemini et Perplexity . Le résultat est loin d'être encourageant. Selon l'analyse, 45 % des réponses fournies par ces systèmes contiennent au moins une erreur significative . Dans un tiers des cas, les sources sont manquantes ou incorrectes , tandis qu'une réponse sur cinq contient des informations fausses ou fabriquées . Ces données sont indépendantes de la langue ou du pays, mais elles confirment la nature systémique du problème : chaque fois que l'IA est invitée à résumer une information, la réponse est susceptible d'être biaisée, déformée ou inexacte. Jean Philip De Tender , directeur des médias de l'UER, a qualifié ce phénomène de « risque pour la confiance du public ». Lorsque les lecteurs ne peuvent plus distinguer le vrai du faux, a-t-il ajouté, « ils finissent par ne plus rien croire », ce qui a des conséquences directes sur la participation démocratique. Et ce problème, à notre avis, deviendra de plus en plus grave dans un avenir proche.
Derrière ce pourcentage de 45 %, on observe cependant des différences significatives entre les différents assistants. Gemini , l'IA de Google, est celui qui a présenté le plus de problèmes , avec des erreurs dans 76 % de ses réponses . Ce résultat est plus de deux fois supérieur à celui des autres modèles, mais il est principalement dû à des problèmes d'attribution des sources : les références sont souvent manquantes, ou citées de manière incorrecte ou trompeuse. Cela n'est pas de bon augure et justifie les inquiétudes que nous avons exprimées à maintes reprises quant à l' appauvrissement du Web par Google . ChatGPT, Copilot et Perplexity ne font pas beaucoup mieux, même s'ils conservent un niveau de précision légèrement supérieur. Dans de nombreux cas, les réponses contiennent des informations obsolètes ou des détails jamais publiés par aucun média . Ce sont de véritables hallucinations, présentées comme des faits avec une assurance absolue, qui peuvent facilement dérouter les utilisateurs moins expérimentés. Les journalistes impliqués dans les évaluations se sont basés sur des critères clairs : exactitude , exhaustivité des sources , distinction entre opinion et fait , et capacité à fournir un contexte . Pourtant, aucun outil n’a passé le test avec succès. Pour beaucoup, la conclusion est claire : les assistants d’IA ne sont pas encore prêts à remplacer le journalisme humain , mais, grâce à l’impulsion des géants du web en ce sens, ils le font déjà .
La réaction des médias publics européens a été immédiate. Après la publication des résultats de l'étude, l' UER a également publié une « Boîte à outils pour l'intégrité de l'information dans les assistants IA » , un ensemble de lignes directrices conçues pour aider les développeurs et les rédactions à améliorer la qualité des réponses générées par l'IA . L'objectif est double : apprendre à l'IA à respecter les normes journalistiques et, parallèlement, former les utilisateurs à la vérification des sources . L'organisation, ainsi que ses membres participant, appellent également l' Union européenne et les gouvernements nationaux à appliquer rigoureusement les lois sur l'intégrité de l'information et le pluralisme des médias. Selon la BBC, qui a coordonné l'étude, le risque n'est pas seulement technologique, mais culturel : si les citoyens commencent à douter de tout ce qu'ils lisent, l'écosystème de l'information tout entier perd sa crédibilité . Sans parler des conséquences possibles s'ils croient à des faussetés ou, du moins, à des informations inexactes.
Pourtant, les radiodiffuseurs publics ne se disent pas hostiles à l'IA. Comme l'a souligné Peter Archer , directeur du programme IA générative de la BBC, l'objectif est que ces outils deviennent des alliés de l'information , et non des générateurs de confusion. Mais tant qu'ils n'auront pas appris à distinguer les faits des opinions, la prudence reste la meilleure forme d'intelligence. Et peut-être que quelques règles supplémentaires , véritablement appliquées, ne feraient pas de mal. (
Lire la suite)