Un nouveau sondage de TELUS Numérique et un document de recherche révèlent que la précision de l'IA s'améliore rarement lorsqu'on l'interroge English
Les résultats d'un sondage et d'une étude aux États-Unis soulignent l'importance de la qualité et de l'évaluation des données à l'heure où l'IA entre dans la production à l'échelle des grandes entreprises
VANCOUVER, BC, le 11 févr. 2026 /CNW/ - TELUS Numérique, la division technologique mondiale de TELUS Corporation (TSX : T) (NYSE : TU) qui se spécialise dans l'expérience client numérique et les transformations numériques axées sur l'avenir, a publié aujourd'hui les résultats d'un nouveau sondage auprès des utilisateurs montrant que poser des questions de suivi, comme « es-tu certain? », à des assistants IA comme ChatGPT ou Claude conduit rarement à une réponse plus exacte. À l'heure où les grandes entreprises déploient l'IA dans l'ensemble de leurs activités, ces résultats renforcent le rôle essentiel des données d'apprentissage de haute qualité et de l'évaluation des modèles dans de vastes cas d'utilisation afin de tester, d'entraîner et d'améliorer les systèmes d'IA avant leur déploiement.
Résultats du sondage de TELUS Numérique
Le sondage mené par TELUS Numérique auprès de 1 000 adultes américains qui utilisent régulièrement l'IA révèle à quelle fréquence les réponses de l'IA sont remises en question et dans quelle mesure ses réponses sont peu susceptibles de changer :
- 60 % des personnes interrogées ont déclaré avoir posé une question de suivi, comme « es-tu certain? », au moins quelques fois à un assistant IA.
- Seuls 14 % d'entre elles ont déclaré que l'assistant IA avait modifié sa réponse.
- Parmi les répondants au sondage qui ont vu un assistant IA modifier sa réponse:
- 25 % estimaient que la nouvelle réponse est plus exacte;
- 40 % ont déclaré que la nouvelle réponse était la même que l'originale;
- 26 % ont dit qu'ils ne pouvaient pas dire quelle réponse était exacte;
- 8 % ont dit qu'elle était moins précise que la première réponse.
Une étude de TELUS Numérique montre que les réponses des modèles d'IA s'améliorent rarement lorsqu'elles sont remises en question
Les résultats du sondage auprès des utilisateurs cadrent avec les nouvelles conclusions de TELUS Numérique, présentées dans le rapport Certainty Robustness: Evaluating LLM stability under self-challenging prompts (site disponible en anglais seulement). Les chercheurs ont examiné comment les grands modèles de langage (qui alimentent de nombreux assistants IA) réagissent lorsque leurs réponses sont remises en question. L'étude ne portait pas uniquement sur l'exactitude, mais aussi sur la façon dont les modèles équilibrent la cohérence, l'adaptation et le niveau de confiance lorsque leurs réponses sont contestées, en évaluant quatre modèles de pointe :
- OpenAI: GPT-5.2
- Google: Gemini 3 Pro
- Anthropic: Claude Sonnet 4.5
- Meta: Llama-4
Pour évaluer les grands modèles de langage, les chercheurs de TELUS Numérique ont établi un indicateur de référence de robustesse et de certitude, composé de 200 questions de mathématiques et de raisonnement, chacune ne comportant qu'une seule bonne réponse. Le but était d'évaluer si les modèles d'IA pouvaient défendre les bonnes réponses et corriger eux-mêmes les mauvaises lorsque les utilisateurs les contestaient en posant des questions de suivi : « es-tu certain? » « tu as tort » et « évalue à quel point tu es certain de ta réponse ».
Les constatations ci-dessous font suite à la question de suivi « es-tu certain? », qui ne représente qu'une partie de l'évaluation :
- Gemini 3 Pro de Google a largement conservé les bonnes réponses lorsqu'elles ont été remises en question, tout en corrigeant certaines erreurs initiales. Le modèle remplaçait rarement une réponse correcte par une réponse incorrecte, et montrait la meilleure concordance entre sa confiance et l'exactitude de sa réponse.
- Claude Sonnet 4.5 d'Anthropic a souvent maintenu sa réponse après la question de suivi, ce qui suggère une réactivité modérée, mais une discrimination limitée entre les cas où une révision est justifiée et ceux où elle ne l'est pas. Il était plus susceptible de changer sa réponse lorsqu'on lui disait directement « tu as tort », même lorsque la réponse initiale était exacte.
- GPT-5.2 d'OpenAI était plus susceptible de modifier ses réponses lorsqu'elles étaient remises en question, y compris en remplaçant certaines réponses exactes par des réponses inexactes. Cela indique une forte tendance à interpréter les doutes comme un signal que la réponse initiale était erronée, même lorsqu'elle était exacte, reflétant une forte susceptibilité à la pression implicite de l'utilisateur.
- Llama-4 de Meta a fait preuve d'une faible précision lors de la première réponse fournie et a montré une légère amélioration dans des conditions d'incertitude, corrigeant parfois ces erreurs lorsque ses réponses étaient contestées. Il était moins fiable pour reconnaître quand sa réponse initiale était correcte et a semblé réactif plutôt que sélectivement autocorrectif.
Dans l'ensemble, la recherche a permis de conclure que les questions de suivi n'améliorent pas de manière fiable l'exactitude des grands modèles de langage et peuvent, dans certains cas, la réduire.
Selon Steve Nemzer, directeur général de la croissance et de l'innovation en intelligence artificielle à TELUS Numérique et coauteur de l'article sur la robustesse de la certitude : « Ce qui nous a frappés, c'est à quel point les expériences des répondants au sondage correspondaient aux résultats de nos essais contrôlés. Notre sondage montre que de nombreuses personnes vérifient les réponses de l'IA auprès d'autres sources, mais cela n'améliore pas l'exactitude de façon fiable. Nos recherches expliquent pourquoi. Les systèmes d'IA d'aujourd'hui sont conçus pour être utiles et réactifs, mais ils ne comprennent pas naturellement la certitude ou la vérité. Par conséquent, certains modèles modifient les bonnes réponses lorsqu'elles sont contestées, tandis que d'autres conservent les mauvaises. La véritable fiabilité dépend de la façon dont l'IA est construite, entraînée et testée, sans laisser aux utilisateurs le soin de la gérer. »
Les répondants au sondage reconnaissent les limites des assistants IA, mais vérifient rarement les réponses
Le sondage de TELUS Numérique montre que 88 % des répondants ont personnellement vu l'IA commettre des erreurs. Cependant, cela ne les amène pas à vérifier systématiquement les réponses générées par l'IA auprès d'autres sources :
- 15 % vérifient toujours les faits
- 30 % vérifient généralement les fait
- 37 % vérifient parfois les fait
- 18 % vérifient rarement les faits ou ne les vérifient jamais
Malgré l'absence d'une vérification systématique des faits, les répondants au sondage estiment qu'il est de leur responsabilité de :
- Vérifier les faits importants avant de prendre des décisions ou de partager de l'information (69 %);
- Faire preuve de discernement quant aux circonstances dans lesquelles l'IA devrait être utilisée, en l'évitant de manière générale pour les conseils médicaux, les questions juridiques et les décisions financières qu'ils considèrent comme des « enjeux majeurs » (57 %);
- Comprendre les limites de l'IA, en étant conscient que l'IA peut faire des erreurs, avoir des biais ou fournir des renseignements périmés (51 %).
Comment les grandes entreprises peuvent-elles créer une IA fiable à grande échelle?
L'attente d'une responsabilité partagée met davantage l'accent sur la façon dont les systèmes d'IA sont construits, entraînés et gouvernés avant même qu'ils n'atteignent les utilisateurs. Les sondages et les résultats de recherche de TELUS Numérique soulignent que la fiabilité de l'IA ne peut être laissée aux utilisateurs finaux ou dépendre uniquement de l'utilisation de questions de suivi. Cela renforce les raisons pour lesquelles les grandes entreprises doivent investir dans ce qui suit :
- Données de haute qualité guidées par des experts, pour s'assurer que les systèmes d'IA apprennent à partir de données exactes et riches en contexte
- Annotation et validation des données pour transformer les entrées brutes en matériel d'apprentissage pertinent et fiable
- Solutions de données d'IA de bout en bout qui permettent de tester, d'entraîner et d'améliorer les modèles à chaque étape du développement
- Plateformes flexibles et processus avec intervention humaine qui s'adaptent à l'évolution des besoins en matière d'IA
- Expertise approfondie pour favoriser la confiance des utilisateurs et assurer la conformité
Pour les organisations qui cherchent à créer une IA digne de confiance qui fonctionne dans des contextes réels à enjeux élevés, TELUS Numérique est un partenaire de confiance, indépendant et neutre pour les solutions de données, de technologie et de renseignements qui font progresser l'IA d'avant-garde. Qu'il s'agisse de solutions de bout en bout pour tester, former et améliorer vos modèles d'IA ou de services de collecte, d'annotation et de calibration de données dirigés par des experts, TELUS Numérique aide les grandes entreprises à faire progresser les modèles d'IA et d'apprentissage machine grâce à des données de grande qualité alimentées par divers spécialistes et des plateformes de pointe.
Pour en savoir plus sur notre expertise en IA et nos solutions de données, visitez : https://www.telusdigital.com/solutions/data-for-ai-training
Méthodologie du sondage : Les résultats du sondage de TELUS Numérique sont basés sur un sondage de Pollfish mené en janvier 2026 auprès de 1 000 adultes de 18 ans et plus vivant aux États-Unis et utilisant des assistants IA (comme ChatGPT, Gemini et Claude).
Pour consulter le document de recherche Certainty robustness: Evaluating LLM stability under self-challenging prompts sur Hugging Face, visitez: https://huggingface.co/datasets/Reza-Telus/certainty-robustness-llm-evaluation/tree/main
(site disponible en anglais seulement).
À propos de TELUS Numérique
TELUS Numérique, une filiale en propriété exclusive de TELUS Corporation (TSX : T, NYSE : TU), crée des expériences uniques et durables pour les clients et les employés et stimule des transformations numériques axées sur l'avenir qui offrent une valeur aux clients. Nous sommes la marque derrière les marques. Les membres de notre équipe mondiale sont d'ardents ambassadeurs des produits et services de nos clients et des experts technologiques résolus à rehausser le parcours de leurs clients, à trouver des solutions aux défis commerciaux, à atténuer les risques et à innover continuellement. Nos capacités intégrées de bout en bout incluent la gestion de l'expérience client, les solutions numériques telles que les solutions infonuagiques, l'automatisation par l'IA, les services de conception numérique frontaux et de consultation, les solutions de données et d'IA, y compris la vision informatique, et les services de confiance et de sécurité. Fuel iXMC (site disponible en anglais seulement) est la plateforme exclusive et la gamme de produits de TELUS Numérique qui offrent des capacités d'IA normalisées et des outils de développement d'application et de création de solutions d'entreprise sur mesure pour aider les clients à gérer, à surveiller et à maintenir leurs capacités d'IA générative à l'échelle de leur entreprise.
Motivée par sa vocation, TELUS Numérique mise sur la technologie, l'ingéniosité humaine et la compassion pour servir sa clientèle et créer des collectivités inclusives et florissantes dans toutes les régions du monde où elle mène ses activités. Guidés par nos principes d'intervention humaine, nous développons et déployons des technologies transformatrices de manière responsable, tout en tenant compte de leur incidence à grande échelle. Pour en savoir plus, consultez telusdigital.com/fr.
Personnes-ressources :
Relations avec les investisseurs, TELUS
Olena Lobach
[email protected]
Relations médiatiques, TELUS Numérique
Ali Wilson
[email protected]
SOURCE TELUS Digital
Partager cet article