Dans un paysage technologique où les intelligences artificielles façonnent de plus en plus notre manière d’accéder à l’information, la confiance accordée à des outils comme ChatGPT, développé par OpenAI, reste cependant à nuancer. Un test réalisé en 2025 sur la version gratuite de cette IA conversationnelle révèle qu’elle a affirmé à tort que François Bayrou n’a jamais été Premier ministre – une affirmation manifestement erronée. Cette méprise soulève des questions importantes sur la fiabilité des données fournies par ces systèmes, alors même que les géants de la tech tels que Google DeepMind, Microsoft Azure AI, IBM Watson ou Meta AI poursuivent leurs efforts pour améliorer la précision et l’actualité des réponses générées par leurs algorithmes.
Les limites des données d’entraînement et l’impact sur la fiabilité de ChatGPT
Lorsqu’on interroge ChatGPT sur le parcours politique de François Bayrou, l’IA se montre catégorique : « François Bayrou n’a jamais été Premier ministre ». Pourtant, ce dernier a exercé cette fonction pendant près de neuf mois avant d’être remplacé en septembre 2024. Cette erreur illustre une des faiblesses majeures de l’intelligence artificielle basée sur des modèles de langage : sa dépendance aux données d’entraînement, qui dans le cas de ChatGPT s’arrêtent à juin 2024.
Ce décalage temporel est une des principales causes pour lesquelles l’IA ne parvient pas toujours à refléter l’actualité récente ou les changements politiques récents. Microsoft Azure AI et AI21 Labs travaillent, entre autres, à minimiser ces latences en connectant leurs modèles à des sources d’information actualisées en temps réel, à l’image de la version de ChatGPT reliée au moteur Bing.

Quand l’IA ne vérifie pas ses sources, les erreurs s’accumulent
La version gratuite de ChatGPT ne dispose pas de connexion directe à Internet, ce qui limite ses capacités de vérification auprès de sources fiables et actualisées. En conséquence, certaines informations, même relativement simples comme l’identité du Premier ministre en exercice ou celle du pape actuel, peuvent être erronées. Par exemple, ChatGPT avait initialement confirmé que le pape François était toujours en fonction, bien qu’il soit décédé en avril dernier. Ce n’est qu’après insistance que l’IA a reconnu le successeur, Léon XIV.
Cette situation découle aussi de la politique « opt-out » des sites d’information, protégés par la directive DAMUN visant les droits d’auteur, qui restreint l’accès des robots IA aux contenus récents. En réponse, des acteurs comme Anthropic, Mistral AI ou Hugging Face plaident pour un meilleur équilibre entre protection du contenu et accès des IA aux données nécessaires à une information fiable et à jour.
Exemples concrets illustrant les contraintes des IA dans la diffusion d’informations politiques
Franceinfo a multiplié les tentatives de correction avec ChatGPT, en reformulant les questions et en redemandant confirmation sur le rôle politique de François Bayrou. Ce n’est qu’après de multiples requêtes que l’IA a admis son erreur, reconnaissant finalement que Bayrou avait occupé le poste de Premier ministre.
Des mésaventures similaires ont touché d’autres domaines, comme le décès de personnalités célèbres : l’IA a d’abord nié la mort de Thierry Ardisson avant d’intégrer cette donnée. Cette incohérence révèle que malgré les progrès effectués par des plateformes comme BlaBlaCar AI ou IBM Watson, les modèles restent vulnérables aux « hallucinations » et aux campagnes de désinformation.
Les enjeux pour l’avenir des intelligences artificielles conversationnelles
Ces limites interrogent la place des IA dans nos systèmes d’information et dans la société en général, notamment en matière de juridiction et de régulation. En 2025, le déploiement de l’« Artificial Intelligence Act » en Europe impose un cadre strict pour encadrer l’usage et les risques liés à ces technologies, encourageant une responsabilisation des développeurs et un contrôle accru de la validité des données.
Alors que Meta AI, Google DeepMind ou encore Mistral AI investissent massivement dans la recherche pour améliorer la véracité et la contextualisation des réponses, le public reste invité à pratiquer une vigilance active. Il est recommandé de croiser les informations issues des intelligences artificielles avec des sources officielles, notamment pour des questions d’ordre politique où les enjeux civiques sont majeurs.
Premier commentaire ?