|

L’IA face à la vérité : se trompent plus d’une fois sur deux

L’intelligence artificielle est censée nous aider à y voir plus clair, mais une étude de la BBC’s Responsible AI Team jette un pavé dans la mare : plus de la moitié des réponses fournies par les IA interrogées sur des articles de la BBC sont factuellement incorrectes, trompeuses ou potentiellement dangereuses. Pire encore, un cinquième de ces réponses comportaient des inexactitudes ajoutées par l’IA elle-même, qui ne figuraient même pas dans les articles d’origine.

Ce constat inquiète au plus haut point. Dans une tribune alarmante, Deborah Turness, PDG de BBC News, dénonce une « distorsion » de l’information qui pourrait miner la confiance déjà fragile du public. Son avertissement est clair : « Les entreprises qui développent des outils d’IA générative jouent avec le feu. »

Une étude pour mesurer l’ampleur du problème

Afin d’évaluer la gravité du phénomène, la BBC a mené une expérience sur quatre des IA les plus populaires : ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) et Perplexity. Pendant un mois, 100 questions sur l’actualité leur ont été posées, avec une consigne précise : se baser sur les articles de la BBC.

Malgré cette directive, les résultats sont sans appel :

  • 51 % des réponses présentaient des erreurs importantes.
  • 19 % des réponses citant des articles de la BBC y ajoutaient des erreurs factuelles.
  • 13 % des citations issues des articles de la BBC avaient été modifiées ou inventées de toutes pièces.

Autrement dit, même en accédant aux sources fiables, les IA « hallucinent » et altèrent l’information.

Une menace pour la fiabilité de l’information

Deborah Turness met en garde : « Combien de temps avant qu’un titre déformé par une IA ne cause un préjudice réel ? »

La BBC plaide donc pour un dialogue entre les acteurs de l’IA et les grands médias, afin de trouver des solutions pour garantir l’exactitude des informations diffusées par ces outils.

Lire aussi : Google et YouTube misent sur l’IA pour deviner votre âge.

Vers une régulation de l’IA dans les médias ?

Face à ces dérives, une question brûlante se pose : faut-il réglementer l’usage des IA dans la diffusion d’informations ? Certains experts appellent déjà à une meilleure transparence sur les sources utilisées et les mécanismes d’apprentissage de ces systèmes.

En attendant, les journalistes restent un rempart essentiel contre la désinformation, et les utilisateurs doivent garder un esprit critique face aux réponses générées par ces IA. Une IA n’est pas infaillible, et cette étude de la BBC nous rappelle à quel point il est crucial de vérifier ses sources.

Lire aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *