Les assistants d’intelligence artificielle s’imposent aujourd’hui comme une source d’information pour des millions de personnes, une étude récente met en lumière des lacunes préoccupantes dans leur fiabilité.
Menée par l’Union européenne de radio-télévision, en collaboration avec la BBC et 22 médias publics de 18 pays, cette enquête internationale, dévoilée lors de l’Assemblée de l’UER à Naples, révèle que près de la moitié des réponses fournies par les IA populaires comportent des erreurs significatives.
Alors que 2026 approche et que l’IA s’intègre toujours plus dans nos vies, ces résultats soulignent un défi majeur : comment garantir une information fiable à l’ère des algorithmes ? L’équipe de Yiaho revient sur cette étude.
Une analyse approfondie des failles de l’IA
Pour évaluer la performance des assistants IA, des journalistes professionnels ont soumis quatre plateformes populaires, ChatGPT, Copilot, Gemini et Perplexity, à un test rigoureux.
Près de 3 000 réponses ont été générées à partir de 30 questions d’actualité, puis analysées selon des critères stricts : exactitude, qualité de la source, clarté éditoriale et contextualisation.
Les conclusions sont troublantes : 45 % des réponses contiennent au moins une erreur notable, qu’il s’agisse d’inexactitudes factuelles, de sources douteuses ou de distorsions contextuelles.
Parmi les problèmes identifiés ;
- 31 % des réponses souffrent de défauts graves dans l’attribution des sources, avec des références absentes, erronées ou trompeuses.
- Plus inquiétant encore, 20 % des réponses présentent des inexactitudes majeures, incluant des informations obsolètes ou totalement inventées, un phénomène souvent qualifié d’« hallucination » dans le jargon de l’IA.
- Gemini se distingue malheureusement comme le moins performant, avec des erreurs significatives dans 76 % de ses réponses, un taux bien supérieur à celui de ses concurrents.
Un autre point préoccupant est la baisse des « taux de refus ». Contrairement à leurs versions antérieures, qui pouvaient décliner de répondre face à une question complexe, les assistants IA actuels ont tendance à fournir une réponse, même au risque de propager des informations peu fiables.
Ce comportement amplifie le risque de désinformation, surtout dans un contexte où la confiance dans les médias est déjà fragile.
Pourquoi cela nous concerne tous ?
Les assistants IA ne sont plus de simples gadgets technologiques : ils remplacent progressivement les moteurs de recherche traditionnels pour une part croissante de la population.
Selon le Digital News Report 2025 de l’Institut Reuters, 15 % des moins de 25 ans se tournent vers ces outils pour s’informer, contre seulement 7 % de l’ensemble des utilisateurs en ligne.
Cette tendance, particulièrement marquée chez les jeunes, rend cruciale la fiabilité de ces technologies.
Vers des solutions pour une IA plus fiable ?
Parmi les pistes envisagées : une meilleure traçabilité des sources, des mécanismes pour signaler les incertitudes et une intégration plus poussée des standards journalistiques dans les algorithmes.
Alors que 2026 se profile, il est probable que les technologies d’IA continuent d’évoluer, potentiellement en corrigeant certaines de ces lacunes. Mais les résultats actuels rappellent que la course à l’innovation ne doit pas se faire au détriment de la fiabilité.
Pour que les assistants IA deviennent de véritables alliés dans l’accès à l’information, ils devront non seulement imiter l’autorité des médias, mais aussi en adopter les valeurs fondamentales : rigueur, transparence et responsabilité.
En attendant, les utilisateurs sont invités à faire preuve de vigilance. Vérifier les sources, croiser les informations et privilégier les médias de confiance restent des réflexes essentiels dans un monde où l’IA, malgré ses promesses, n’est pas encore infaillible.
Source :
…Team Yiaho…
Ce contenu ainsi que les informations et les opinions qui y sont exprimées sont ceux de leurs auteurs et ne reflètent pas nécessairement mon opinion. Tout commentaire négatif ou inapproprié sera systématiquement supprimé et l’auteur bloqué.