Une étude démontre que l'utilisation des requêtes fondées sur des personas peut provoquer des changements dans les jugements moraux des grands modèles de langage et entraîner des réponses inattendues et incohérentes
Pour les entreprises, il est donc essentiel de sélectionner les modèles avec minutie et d'effectuer des tests rigoureux et des évaluations continues pour garantir un comportement fiable et cohérent de l'IA en production
VANCOUVER, BC, le 25 févr. 2026 /CNW/ - Une nouvelle étude publiée par TELUS Numérique, « The Robustness Paradox: Why Better Actors Make Riskier Agents » (site disponible en anglais seulement), révèle que l'utilisation de requêtes fondées sur des personas, une méthode consistant à demander aux grands modèles de langage de « jouer un rôle » dans le cadre d'une requête ou d'une conversation, peut causer des changements dans le jugement moral, ce qui entraîne des réponses inattendues et incohérentes. De plus, la recherche démontre que la cohérence morale dans un ensemble d'essais répétés est principalement stimulée par la famille de modèles (c.-à-d. les modèles fabriqués par un même fournisseur), alors que la susceptibilité à la divergence morale augmente avec la taille d'un grand modèle de langage au sein d'une famille de modèles. Ces résultats mettent en évidence un risque caché qui nécessite une attention particulière lors de la sélection d'un modèle d'IA, de la conception de la solution, et de la mise à l'essai et de la surveillance continues.
« Lorsque les modèles d'IA adoptent des personas différents, ils ne changent pas seulement leur manière de parler, ils peuvent fondamentalement modifier leur raisonnement et leur prise de décision, explique Renato Vicente, directeur général, Centre de recherche de TELUS Numérique. Dans les environnements d'entreprise, cela est important, car ces systèmes sont de plus en plus utilisés pour appuyer la prise de décisions importantes et produire des résultats pouvant avoir une incidence sur les clients, les employés et les entreprises à grande échelle. Sachant que le jugement d'un modèle d'IA peut changer selon le persona qu'un utilisateur lui demande d'adopter, les entreprises doivent évaluer si ce changement est acceptable ou engendre trop de risque et choisir un fournisseur de modèle d'IA et la taille du modèle en conséquence. Aussi, les constructeurs doivent concevoir des garde-fous appropriés, et mettre à l'essai et évaluer le comportement des modèles d'IA dans différentes conditions de requêtes fondées sur des personas de manière continue, en particulier lorsque les entreprises se fient à ces modèles dans des cas d'utilisation à forte incidence. »
Que sont des requêtes fondées sur des personas?
Les requêtes fondées sur des personas font référence à la manière de demander à un modèle d'IA de répondre comme s'il était un type particulier de personne ou occupait un type particulier de rôle et, de ce fait, avait une expertise ou des connaissances particulières, comme un chef d'entreprise, un enseignant ou un agent de soutien à la clientèle, plutôt que de répondre comme un système neutre. Par exemple : « Vous êtes un planificateur financier certifié. Dites-moi où investir pour mon épargne-retraite. »
Cette fonction est couramment utilisée par les concepteurs de modèles dans la conception et la production de systèmes afin de coder en dur des personas et de leur attribuer des rôles fixes qui définiront le comportement de l'IA. Mentionnons par exemple, un robot de service à la clientèle alimenté par l'IA et configuré pour agir comme un agent de soutien utile ayant une connaissance approfondie des caractéristiques des produits et des politiques de retour. En pratique, les personas rendent les résultats générés par l'IA plus cohérents et plus utiles, et tiennent davantage compte du contexte sans modifier le modèle sous-jacent.
Comment la recherche de TELUS Numérique a-t-elle été menée?
L'étude, menée par des chercheurs travaillant au Centre de recherche de TELUS Numérique (site disponible en anglais seulement), au sein du Center for Artificial Intelligence and Machine Learning (CIAAM) de l'Université de São Paulo, a évalué 16 grandes familles de modèles d'IA, y compris OpenAI GPT, Anthropic Claude, Google Gemini et X.ai Grok. L'équipe de recherche a demandé aux modèles d'adopter un éventail de personas, y compris des paires contrastantes, comme celle de la « grand-mère traditionnelle » et du « libertarien radical », puis l'équipe a observé comment chaque modèle réagissait pour chaque persona.
Pour évaluer les réponses, l'équipe de recherche a utilisé le questionnaire sur les fondements moraux (site disponible en anglais seulement), un outil très utilisé en psychologie sociale pour mesurer la façon dont les jugements sont portés sur des dimensions telles que les préjudices, l'équité, l'autorité et la loyauté. Au lieu d'analyser les réponses individuelles, l'équipe de recherche a examiné les tendances parmi des dizaines de milliers de réponses pour comprendre dans quelle mesure les jugements de chaque modèle étaient cohérents ou changeants lorsqu'ils passaient d'un persona à l'autre.
L'étude fait ressortir deux éléments importants :
- La force morale décrit dans quelle mesure les jugements d'un modèle demeurent cohérents tant que le modèle conserve le même persona.
- La susceptibilité morale indique à quel point les jugements d'un modèle changent lorsqu'il passe d'un persona à un autre.
Lorsqu'elles sont évaluées ensemble, la force morale et la susceptibilité morale indiquent si un modèle d'IA maintient un raisonnement moral cohérent ou produit des jugements contradictoires en fonction du persona assigné.
Principales conclusions de TELUS Numérique sur l'incidence des personas sur le comportement des modèles d'IA
Bien qu'il soit bien compris que les extrants d'un grand modèle de langage puissent changer lorsque des personas sont ajoutés aux requêtes, l'étude de TELUS Numérique met en lumière une tendance plus particulière. La force morale relève principalement de la famille de modèles, tandis que la susceptibilité morale a tendance à augmenter avec la taille du modèle au sein d'une même famille lorsque le persona change. Le risque devient plus élevé lorsque les changements dans les jugements touchent les décisions d'affaires dans lesquelles la cohérence et la supervision importent le plus (conformité, finances, soins de santé, ressources humaines, etc.).
La recherche fait ressortir d'autres tendances récurrentes dans la façon dont les modèles d'IA réagissent lorsqu'on leur demande d'adopter des personas différents. L'équipe de recherche a décrit ces résultats comme un « paradoxe de la force », car les modèles qui réussissaient mieux à rester dans leur personnage ont aussi montré des changements plus importants dans leurs jugements moraux lorsque le persona changeait.
- Les requêtes fondées sur les personas peuvent influencer systématiquement le raisonnement moral en IA : Les changements de jugement des modèles ne sont pas aléatoires; ils varient de manière prévisible, en adéquation avec les rôles attribués.
- La stabilité du jugement repose principalement sur la famille de modèles : Voici quelques-unes des constatations :
- Claude a fait preuve de la plus grande force morale globale
- Gemini et GPT ont fait preuve d'une force morale modérée
- Grok a fait preuve d'une force morale relativement faible
Quels sont les effets réels des requêtes fondées sur les personas lors de la création d'une IA?
Les résultats de la recherche de TELUS Numérique soulignent l'importance de tester et de superviser les modèles d'IA de façon continue selon un cadre de gouvernance solide. Cela est particulièrement important lorsque les modèles d'IA sont utilisés dans des situations où les décisions ont une incidence sur la vie, la sécurité ou les droits des gens, ainsi que dans des environnements réglementés, comme les services bancaires et financiers, les assurances et les soins de santé. La compréhension du comportement des modèles selon le persona est une information clé pour aider les constructeurs de modèles et les entreprises à déterminer les champs d'action où la variabilité est acceptable et où elle présente un risque.
« Les résultats de notre recherche montrent pourquoi le déploiement de l'IA en entreprise ne se limite pas seulement à choisir le modèle le plus avancé ou le plus gros. Les organisations doivent évaluer comment les modèles individuels répondent aux variables, comme les requêtes fondées sur les personas, et choisir des options qui fournissent des extrants fiables et cohérents sans présenter de risque inattendu, explique Bret Kinsella, directeur exécutif et premier vice-président de Fuel iXMC, TELUS Numérique. Chaque fois qu'une requête du système est modifiée dans le modèle ou que le modèle est modifié, il faut le tester à nouveau pour vérifier son jugement, sa cohérence et sa sécurité. La portée et la fréquence de ces essais, de cette surveillance et de cette vérification sont importantes. TELUS Numérique a développé Fuel iX Fortify pour assurer l'application continue et automatisée de la méthode de l'équipe rouge, comprenant des tests de contrainte sur la façon dont les systèmes d'IA se comportent selon différents personas. »
Connaissez-vous toutes les vulnérabilités de vos applications d'IA générative? Pour en savoir plus : https://www.fuelix.ai/products/fuel-fortify (site disponible en anglais seulement).
Le Centre de recherche de TELUS Numérique réunit des chercheurs universitaires et des professionnels du secteur pour étudier le fonctionnement des modèles d'IA avancés dans un contexte humain, le monde réel. Pour en savoir plus, visitez : https://www.telusdigital.com/research-hub (site disponible en anglais seulement).
Consultez les communiqués de presse connexes :
TELUS Numérique lance Fuel iX Fortify, une application automatisée en matière d'équipe rouge
Dévoilement du Centre de recherche de TELUS Numérique à l'Université de São Paulo
Foire aux questions
Que sont des requêtes fondées sur les personas dans les modèles d'IA?
Les requêtes fondées sur les personas font référence à la manière de demander à un modèle d'IA de répondre comme s'il était un type particulier de personne ou occupait un type particulier de rôle, comme un responsable de la conformité, un chef d'entreprise, un enseignant, un médecin ou un agent de soutien à la clientèle, plutôt que de répondre comme un système neutre. Cette méthode est couramment utilisée pour rendre les résultats générés par l'IA plus pertinents, adaptés au contexte et harmonisés au ton ou aux attentes de l'organisation.
Que révèle l'étude de TELUS Numérique au sujet des requêtes fondées sur les personas?
L'étude de TELUS Numérique, « The Robustness Paradox: Why Better Actors Make Riskier Agents » (site disponible en anglais seulement), a révélé que le jugement ou la décision d'un modèle d'IA peut changer selon le persona qu'un utilisateur lui demande d'adopter, même si la question sous-jacente ne change pas. Ce changement suit un schéma cohérent associé au persona utilisé, ce qui démontre que les requêtes fondées sur les personas peuvent influencer la prise de décisions des modèles, et pas seulement leur ton et leur façon de communiquer.
Qu'est-ce que la force morale dans les modèles d'IA?
La force morale décrit dans quelle mesure les jugements moraux d'un modèle d'IA demeurent cohérents tant que le modèle conserve le même persona. Par exemple, si on demande à un modèle de répondre en tant que responsable de la conformité, la force morale indique si son jugement reste cohérent dans ses réponses à une série de questions, dans son rôle de responsable de la conformité.
Qu'est-ce que la susceptibilité morale dans les modèles d'IA?
La susceptibilité morale décrit dans quelle mesure les jugements moraux d'un modèle d'IA changent lorsqu'il passe d'un persona à un autre. Par exemple, un modèle peut répondre d'une certaine façon à une certaine question lorsqu'on lui demande d'adopter le rôle d'un responsable de la conformité, mais fournir une réponse différente à la même question si on lui demande d'adopter le rôle d'un chef d'entreprise soucieux de l'efficacité.
Pourquoi les résultats de l'étude de TELUS Numérique « The Robustness Paradox: Why Better Actors Make Riskier Agents » (site disponible en anglais seulement), sont-ils importants pour les entreprises qui déploient des systèmes d'IA?
L'étude de TELUS Numérique révèle des risques liés à l'utilisation de l'IA par les entreprises. Elle indique que lorsque les utilisateurs demandent aux grands modèles de langage à source ouverte ou exclusifs d'adopter un rôle particulier dans le cadre d'une requête ou d'une conversation (méthode appelée « requêtes fondées sur les personas »), la mesure dans laquelle le jugement moral des grands modèles de langage change est principalement dictée par la famille de modèles et par la taille du modèle au sein d'une même famille. Les résultats mettent en évidence un risque caché pour les concepteurs de système d'IA au sein des entreprises qui doit être pris en compte lors de la sélection et de la conception d'un modèle, et lors de la mise à l'essai et de la surveillance continues une fois dans l'environnement de production.
Comment l'étude de TELUS Numérique éclaire-t-elle les cadres de gouvernance et de gestion des risques de l'IA?
TELUS Numérique souligne l'importance de mener des essais et des activités de surveillance continues dans le cadre de la gestion des risques de l'IA d'une entreprise. La compréhension du comportement des modèles selon le persona est un élément clé de la gouvernance responsable de l'IA. Les organisations peuvent ainsi déterminer les champs d'action où la variabilité est acceptable et où elle présente un risque.
Comment l'outil Fuel iXMC Fortify assure-t-il l'application continue et automatisée de la méthode de l'équipe rouge et l'exécution de tests pour vérifier la conformité de l'utilisation de personas aux politiques?
Fuel iX Fortify (site disponible en anglais seulement), prend en charge les essais relatifs à l'IA en appliquant de manière automatisée la méthode de l'équipe rouge et une surveillance continue, dans le cadre des efforts de gouvernance de l'entreprise en matière d'IA. Il aide les équipes à évaluer la réponse des modèles d'IA dans un large éventail de conditions du monde réel, y compris les requêtes antagonistes, les situations à risque élevé et les requêtes fondées sur les personas.
À propos de TELUS Numérique
TELUS Numérique, une filiale en propriété exclusive de TELUS Corporation (TSX : T) (NYSE : TU), crée des expériences uniques et durables pour les clients et les employés et stimule des transformations numériques axées sur l'avenir qui offrent une valeur aux clients. Nous sommes la marque derrière les marques. Les membres de notre équipe mondiale sont d'ardents ambassadeurs des produits et services de nos clients et des experts technologiques résolus à rehausser le parcours de leurs clients, à trouver des solutions aux défis commerciaux, à atténuer les risques et à innover continuellement. Nos capacités intégrées de bout en bout incluent la gestion de l'expérience client, les solutions numériques telles que les solutions infonuagiques, l'automatisation par l'IA, les services de conception numérique frontaux et de consultation, les solutions de données et d'IA, y compris la vision informatique, et les services de confiance et de sécurité. Fuel iXMC (site disponible en anglais seulement) est la plateforme exclusive et la gamme de produits de TELUS Numérique qui offrent des capacités d'IA normalisées et des outils de développement d'application et de création de solutions d'entreprise sur mesure pour aider les clients à gérer, à surveiller et à maintenir leurs capacités d'IA générative à l'échelle de leur entreprise.
Motivée par sa vocation, TELUS Numérique mise sur la technologie, l'ingéniosité humaine et la compassion pour servir sa clientèle et créer des collectivités inclusives et florissantes dans toutes les régions du monde où elle mène ses activités. Guidés par nos principes d'intervention humaine, nous développons et déployons des technologies transformatrices de manière responsable, tout en tenant compte de leur incidence à grande échelle. Pour en savoir plus, consultez telusdigital.com/fr.
Personnes-ressources :
Relations médiatiques, TELUS Numérique
Ali Wilson
[email protected]
Relations avec les investisseurs, TELUS
Olena Lobach
[email protected]
SOURCE TELUS Digital
Partager cet article