Vous êtes sur la page 1sur 24

Intégration des agents carrefourrh.

org

conversationnels et
ChatGPT dans la GRH :
maximiser les utilisations,
saisir les occasions et
anticiper les défis
Alina N. Stamate, Ph. D.,
CRHA et psychologue, professeure au Département
d’organisation et ressources humaines, ESG UQAM
Geneviève Sauvé, Ph. D.,
professeure au Département d’éducation et pédagogie, UQAM
Geneviève Robert-Huot, Ph. D.,
professeure au Département de management et gestion des
ressources humaines, Université de Sherbrooke

Cet article est rendu possible grâce à la


RÉSUMÉ..................................................................................... 4

INTRODUCTION......................................................................... 5

1. QU’EST-CE QU’UN AGENT CONVERSATIONNEL ?................... 6

2. CHATGPT : UN AGENT CONVERSATIONNEL DE POINTE........... 7

3. UTILISATION DES AGENTS


CONVERSATIONNELS DANS LA GRH......................................... 11
RECRUTEMENT ET SÉLECTION..................................................... 12
INTÉGRATION ET FORMATION INITIALE......................................... 12
SOUTIEN AUX EMPLOYÉS............................................................ 13
PERFORMANCE AU TRAVAIL......................................................... 13

4. DÉFIS ET ENJEUX ÉTHIQUES DE L’UTILISATION


DES AGENTS CONVERSATIONNELS DANS LA GRH.................... 14

CONCLUSION.......................................................................... 16
RÉFÉRENCES............................................................................ 17

ANNEXE 1 | LIMITES POTENTIELLES


DE CHATGPT ET LEURS DESCRIPTIONS ........................................ 18

ANNEXE 2 | BIAIS POTENTIELS


DU CHATGPT ET LEURS DESCRIPTIONS ........................................ 21

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 2
Remerciements
L’auteure principale de cet article souhaite exprimer sa reconnaissance envers
la Fondation CRHA pour la bourse de recherche offerte, ce qui a permis la réalisation de ce travail.

Auteures
Alina N. Stamate, Ph. D., CRHA,
psychologue, professeure au Département d’organisation
et ressources humaines, ESG UQAM

Droit d’auteur Geneviève Sauvé, Ph. D.,


La reproduction, la publication et communication de ce document dans son intégralité sous quelque forme ou par professeure au Département d’éducation et pédagogie, UQAM
quelque moyen (électronique, mécanique ou autre, y compris la photocopie, l’enregistrement ou l’introduction
dans tout système informatique de recherche documentaire) est interdite sans le consentement écrit de l’Ordre Geneviève Robert-Huot, Ph. D.,
des conseillers en ressources humaines agréés.
professeure au Département de management
et gestion des ressources humaines, Université de Sherbrooke

Avis d’utilisation
Dans le cadre de sa mission de protection du public, l’Ordre des conseillers en ressources humaines agréés vous
propose ce document. Les propos qui y sont exprimés n’engagent que leur auteur et l’Ordre des conseillers en
ressources humaines et en relations industrielles agréés décline toute responsabilité à leurs égards.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 3
Résumé
Le monde évolue à une vitesse vertigineuse et la technologie progresse de concert. Une
révolution est en cours, et les agents conversationnels, dont ChatGPT est le chef de file,
jouent un rôle prépondérant dans ce changement. Grâce à ses aptitudes remarquables en
traitement du langage naturel, ChatGPT ouvre de nouvelles perspectives de communication
entre humains et machines, générant un intérêt sans pareil dans de nombreux domaines, y
compris la gestion des ressources humaines (GRH).
Dans cet article, nous explorerons le concept des agents conversationnels, en mettant l’accent
sur le ChatGPT, l’un des modèles les plus avancés de cette technologie, développé par la
compagnie OpenAI. Nous analyserons également comment ces agents conversationnels
révolutionnent la GRH et de quelle façon ils peuvent être utilisés de manière bénéfique pour
les entreprises et les employés. Enfin, nous aborderons les limites, les enjeux éthiques et
la responsabilité qui accompagnent le recours aux agents conversationnels dans la GRH.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 4
Les agents conversationnels peuvent apporter une valeur ajoutée à la GRH, qui
réunit l’ensemble des pratiques relatives à la gestion des employés pour atteindre
Introduction les objectifs de l’organisation (Robert-Huot & Cloutier, 2020). En effet, les agents
conversationnels peuvent faciliter la communication entre les gestionnaires, les
recruteurs, les employés et les services RH. Plusieurs organisations ont adopté
Les avancées technologiques ont permis l’émergence des agents conversationnels en GRH et en tirent des avantages (Laumer &
d’outils révolutionnaires tels que les agents Morana, 2022). Par exemple, Siemens a lancé Carl, un agent virtuel qui permet
conversationnels, aussi appelés agents virtuels, de rehausser la qualité du service RH en diminuant le nombre de demandes de
chatbots ou systèmes de dialogue automatisés. Ce soutien des employés et en libérant du temps aux professionnels RH pour des
sont des programmes informatiques qui interagissent tâches plus stratégiques (IBM, 2019). La recherche se penche également sur les
avec les utilisateurs de manière naturelle et efficace, meilleurs usages possibles des agents conversationnels en GRH (Listikova et al.,
en utilisant des technologies comme le traitement du 2020). Les agents conversationnels permettent d’optimiser les processus de
langage naturel (natural language processing - NLP) recrutement, de formation, de développement et de gestion des performances
et l’apprentissage automatique (machine learning - des employés et peuvent assister les employés au quotidien (Laumer & Morana,
ML). Ils ont de nombreuses applications dans divers 2022). Leurs capacités à comprendre le langage naturel et à fournir des réponses
domaines, notamment les actualités, le divertissement rapides et précises les rendent particulièrement adaptés à ces tâches.
ou le contrôle des maisons intelligentes (Bavaresco Grâce à l’intégration judicieuse des agents conversationnels dans la GRH, les
et al., 2020). Ils sont également utilisés en contexte entreprises peuvent espérer optimiser leurs processus, renforcer l’engagement
professionnel, comme celui de la GRH (Maurer, 2019 ; des employés et améliorer la satisfaction au travail. Cependant, il est crucial de
Sheth, 2018). comprendre les tenants et aboutissants de cette technologie afin de l’exploiter
de manière responsable et éthique.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 5
Ils utilisent des bases de données, des connaissances
diversifiées et une logique de décisions pour répondre
aux questions des utilisateurs, imitant ainsi la
conversation humaine par le biais de canaux de
communication tels que la parole, le texte, et parfois
les expressions faciales et les gestes.

1. Qu’est-ce (LARANJO ET AL., 2018)

qu’un agent Les agents conversationnels se distinguent donc selon leur mode de

conversationnel ? communication (verbale ou écrite) et leur contexte d’utilisation (général ou


particulier à un domaine) (Laumer & Morana, 2022). Les agents conversationnels
basés sur la parole sont appelés assistants personnels intelligents ; Alexa, Siri et
Cortana en sont les représentations les plus connues. En parallèle, les agents
Les agents conversationnels sont des basés sur le texte sont appelés chatbots et sont utilisés dans divers domaines
programmes informatiques conçus pour comme le service à la clientèle ou la santé. Certains agents conversationnels sont
interagir avec les utilisateurs. Leur également personnifiés, offrant une représentation visuelle d’allure humaine
principal objectif est de simuler une en plus de l’interaction texte ou parole. C’est le cas de Replika, qui se présente
conversation humaine, en comprenant comme un ami virtuel et qui adapte sa personnalité et son apparence aux
des demandes et en générant des préférences de l’utilisateur (CBC, 2021).
réponses cohérentes et pertinentes au Il est important de noter que les agents conversationnels peuvent adopter
moyen d’une interface textuelle ou différentes architectures de programmation et approches de conception, en
vocale. fonction des objectifs et des contraintes spécifiques (Korngiebel & Mooney,
2021). Certains agents conversationnels sont basés sur des règles prédéfinies, où
(LAUMER & MORANA, 2022)
chaque type de requête a une réponse correspondante programmée à l’avance
(p. ex., le chatbot de Sephora qui aide les clients à trouver le produit de beauté
adapté à leurs besoins). D’autres agents conversationnels plus avancés (p. ex.,
ChatGPT) utilisent des modèles de langage préentraînés (p. ex., GPT-3 et ses
versions ultérieures) (Floridi & Chiriatti, 2020), qui sont capables d’apprendre
de manière automatique et non supervisée, à partir de grandes quantités de
données textuelles et de générer des réponses plus flexibles et adaptatives,
dans un langage naturel (Korngiebel & Mooney, 2021).

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 6
Parmi les avancées majeures
2. ChatGPT : un agent dans le domaine des
conversationnel de agents conversationnels,
pointe ChatGPT occupe une place
prépondérante depuis son
ChatGPT est un agent conversationnel qui génère du texte naturel pour lancement en novembre 2022.
interagir avec les utilisateurs. Il utilise un modèle de langage préentraîné sur
(SMITH, 2023)
des corpus textuels massifs, le GPT (Generative Pre-trained Transformer), qui
est le plus volumineux et le plus sophistiqué à ce jour (OpenAI, 2022). Par
exemple, le modèle de langage GPT-3, qui compte plus de 175 milliards Selon une étude récente (Hassani & Silva, 2023), ChatGPT est
de paramètres, a été amélioré avec son itération toujours active GPT-3.5, capable d’aider dans de nombreuses tâches de science des
qui en compte plus de 200 milliards. Cette version a été suivie par GPT-4, données, telles que la traduction, l’analyse et la classification,
un modèle de langage multimodal qui dispose de plus de 300 milliards de menant à une amélioration du flux de travail et l’obtention
paramètres et qui peut traiter des entrées d’images et de texte, offrant une de meilleurs résultats. Il peut être utilisé par divers types
fiabilité, une créativité et une collaboration améliorées, ainsi qu’une plus d’utilisateurs, tels que les utilisateurs de réseaux sociaux,
grande capacité à traiter des instructions plus nuancées (OpenAI, 2023). les auteurs de fiction, les journalistes, les chercheurs et les
spécialistes du marketing (Singh, 2023).

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 7
En plus des capacités particulières mentionnées précédemment, ChatGPT en possède
également d’autres, qui en font un outil polyvalent et puissant. Par exemple :
ƒ Génération de texte similaire à celui écrit par des humains : il est capable de
produire du texte qui ressemble à celui écrit par des humains. Cela est particulièrement
utile pour la création de contenu tel que des articles, des descriptions de produits,
des scénarios, etc. Il peut aider à générer des idées, des titres, des descriptions et des Il est en constante
paragraphes complets.
évolution afin d’améliorer
ƒ Assistance à la rédaction : il peut fournir des suggestions et compléter automatiquement
le texte lors de la rédaction de courriels, d’essais, de rapports ou de code de programmation. ses compétences
Il peut aider à améliorer la clarté et la cohérence du texte. linguistiques et
ƒ Réponse à des questions sur divers sujets : il est en mesure de répondre à des
questions portant sur des sujets précis qu’il s’agisse d’événements historiques, de concepts
offrir des expériences
scientifiques, d’informations générales, etc. Il peut fournir des définitions, des explications utilisateurs de haute
et des exemples pour aider à la compréhension.
qualité. Cependant,
ƒ Traduction de texte entre plusieurs langues : il peut être utilisé comme un outil de
traduction pour faciliter la communication dans différentes langues. Il peut traduire des ChatGPT peut présenter
phrases, des paragraphes ou des documents entiers.
plusieurs limites qu’il
ƒ Assistance au codage : il peut aider les développeurs en proposant des suggestions de
codes informatiques, en donnant des explications sur des concepts de programmation, faut comprendre afin d’en
en résolvant des problèmes courants et en fournissant des exemples de code. Cela peut assurer un usage adéquat.
accélérer le processus de développement de logiciels et aider à surmonter les obstacles
techniques. (MARR, 2023)

ChatGPT est donc un modèle avancé capable de générer du texte de manière pertinente
en réponse à une sollicitation ou à un contexte donné, grâce à son architecture puissante et
à son apprentissage sur de vastes ensembles de données (Bar, 2023).

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 8
De plus, les données sur lesquelles ChatGPT est entraîné proviennent de textes accessibles
au public et peuvent contenir des informations biaisées, périmées ou inexactes, car ces
données s’arrêtent en 2021 (OpenAI, 2022). Il est important de reconnaître que ChatGPT
Bien qu’il soit capable de générer
peut manquer de discernement dans certaines situations. En raison de la diversité des sources
des réponses qui s’inscrivent
de données utilisées pour l’entraînement, il peut fournir des informations trompeuses ou
naturellement dans la conversation, reproduire certains biais présents dans ces données (Billon, 2023 ; Cousins, 2023). Par
il ne possède pas une véritable exemple, lorsqu’on lui demande d’insérer des références dans un texte pour soutenir les
compréhension du contenu et du affirmations, la majorité est fictive, donc inexistante, même si leur forme respecte les normes
contexte des conversations. en vigueur. ChatGPT s’appuie sur un modèle de langage de grande envergure et n’a pas la
Au lieu de cela, il génère compétence de sélectionner des sources pertinentes pour un sujet donné (Hillier, 2023).
des réponses basées sur des Il peut réussir avec certains sujets ou sources, mais il peut également créer des sources
associations statistiques apprises plausibles, mais qui n’existent pas (Welborn, 2023).
à partir de vastes ensembles de Dans sa revue de littérature, Ray (2023) présente d’autres limites de ChatGPT, comme
données d’entraînement. Cela peut une incapacité à s’assurer de la véracité des faits. Le modèle a aussi du mal à raisonner de
parfois entraîner des erreurs façon éthique. En outre, ChatGPT peut ne pas savoir comment répondre à des demandes
d’interprétation ou l’ignorance insuffisamment expliquées et comment donner un retour personnalisé aux besoins de chaque
d’éléments importants du contexte, personne. Les limites incluent aussi des problèmes avec les langues différentes, le langage
ce qui peut se traduire par des figuré (p. ex., les expressions ou les métaphores), la créativité et la qualité constante (pour
réponses inexactes ou inappropriées. la liste exhaustive et la description de limites répertoriées par Ray, 2023, voir l’Annexe 1).
Pour aller un peu plus loin au sujet des informations trompeuses, il est également nécessaire
(MARR, 2023)
de s’intéresser aux biais pouvant être présents dans les réponses de ChatGPT (les lecteurs
qui le souhaitent peuvent consulter la liste des biais répertoriés par Ray, 2023 à l’Annexe 2).

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 9
Le biais de fenêtre d’Overton.
Un article publié par Forbes (Cousins, 2023), présente quelques catégories de biais
que ChatGPT peut manifester, dont certains proviennent d’entrées reçues par le Ce biais souligne que ChatGPT est susceptible de se limiter à des
programme, tandis que d’autres viennent avec sa nature générative ou sont générés affirmations qui sont considérées comme socialement acceptables
par les utilisateurs. et non controversées, conformément à ce que l’on appelle la fenêtre
d’Overton. Ce biais peut conduire à ignorer ou à rejeter les idées
Voici quatre de ces catégories : qui se situent en dehors de cette fenêtre, même si elles sont fondées
ou pertinentes (Dupont, 2022). Cela signifie qu’il peut éviter des
Le biais de moralité programmatique. sujets délicats ou donner des réponses reposant sur des informations
contradictoires ou peu fiables, mais présentes dans ses données
Il s’agit d’un biais introduit par l’entreprise lors de la programmation de ChatGPT.
d’entraînement. Il est donc important d’exercer un esprit critique lors
OpenAI a pris des décisions pour influencer les réponses du modèle afin qu’il reflète
de l’utilisation des réponses de ChatGPT et de se rappeler qu’il peut
une sorte de norme ou de perspective morale particulière. Cela peut être fait dans le
ne pas toujours fournir une perspective équilibrée ou complète, en
but de rendre le logiciel plus politiquement correct ou d’éviter de donner des réponses
particulier sur des sujets controversés.
qui pourraient être considérées comme controversées ou offensantes. Cependant, cela
signifie que les réponses de ChatGPT peuvent être influencées par les valeurs ou les
opinions émanant de l’entreprise, ce qui peut ne pas correspondre à celles de tous les Les préjugés de déférence.
utilisateurs. Certains peuvent apprécier cette orientation vers la « correction sociale »,
Ce biais souligne que les êtres humains peuvent accorder une
tandis que d’autres peuvent préférer une approche plus neutre ou diversifiée.
confiance excessive et aveugle à l’IA, en se reposant sur elle comme
une autorité suprême. Cela peut se manifester par une dépendance
Le préjugé de l’ignorance. excessive à la technologie, une soumission à l’autorité perçue de l’IA,
voire une défense fervente de son rôle vertueux. Ce biais peut être
Bien que ChatGPT puisse fournir des informations provenant de sources existantes,
alimenté par des facteurs tels que la charge de travail élevée, les défis
il ne possède pas une compréhension approfondie ou une capacité à raisonner
rencontrés dans le monde et les circonstances stressantes, comme
logiquement comme un être humain. Il peut utiliser ses connaissances encyclopédiques
la pandémie de COVID-19. Il est important de maintenir un équilibre
pour récupérer des informations déjà disponibles, mais il ne peut pas générer de
et de conserver son autonomie intellectuelle lors de l’utilisation de
nouvelles connaissances ou faire preuve de raisonnement abstrait. De plus, il peut
l’IA, en évitant de céder trop facilement à son influence et en gardant
ne pas être en mesure de répondre de manière approfondie ou de résoudre des
un esprit critique et indépendant.
problèmes complexes qui nécessitent une réflexion critique et créative. Il est donc
préférable de considérer ChatGPT comme une ressource complémentaire pouvant
contribuer à trouver des informations existantes, mais il est toujours important de faire
Il faut donc être vigilant et s’assurer que ChatGPT et sa famille
appel à son propre jugement et de faire preuve de discernement lors de l’évaluation
d’agents conversationnels sont régulièrement audités et améliorés
des réponses fournies par le modèle.
pour minimiser les risques de biais et de discrimination.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 10
Figure 1. Types d'agents conversationnels et leur usage dans la GRH
(inspirée de Laumer et Morana, 2022. p. 236)

3. Utilisation AGENTS CONVERSATIONNELS

des agents Communication automatisée entre les individus et les services de GRH
basée sur différentes technologies
conversationnels (chatbots, agents conversationneles personnifiés, NLP, exploration de données,
apprentissage automatique, apprentissage profond, algorithmes de renforcement)

dans la GRH
D’après une récente recension de la documentation Applications pour Applications pour Applications pour
scientifique existante sur l’utilisation des interfaces les candidats les employés les professionnels RH
conversationnelles et des agents conversationnels
dans le domaine de la GRH (Laumer & Morana, 2022),
il a été constaté que ces agents peuvent apporter un Soutien lors de l'intégration Gestion de la dotation
Recherche d'emploi et des talents
soutien aux services de GRH en utilisant le traitement Gestion de la santé
Création de CV Accompagnement dans
du langage naturel (NLP) et d’autres technologies, Gestion des connaissances la performance au travail
tout en automatisant la communication entre les Préparation aux entrevues Gestion des rencontres Formation et
prestataires de services de GRH et les individus qui en Entrevues de sélection Gestion des journées libres développement
font la demande. Les auteurs de cette recension ont
classifié les utilisations des agents conversationnels en
GRH en trois catégories : ceux destinés aux candidats,
ceux destinés aux employés et ceux destinés aux Au-delà du schéma descriptif ci-dessus, les agents conversationnels semblent offrir
professionnels de la GRH (voir Figure 1). Ces agents de nombreux autres avantages et applications dans le domaine de la GRH (Koivunen
conversationnels permettent aux individus de demander et al., 2022). Ils peuvent améliorer les processus de recrutement, de formation, de
différents services de GRH ou de poser des questions développement et de gestion des performances des employés (Goirand, 2023). Ils
pertinentes à la GRH. peuvent également automatiser les tâches quotidiennes, libérant le personnel des
ressources humaines qui peut alors se concentrer sur des tâches plus stratégiques
(Camilleri & Troise, 2023 ; Majumder & Mondal, 2021). Dans ce texte, nous allons
présenter quelques exemples d’utilisation des agents conversationnels dans la GRH.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 11
Recrutement et sélection Intégration et formation initiale
Lorsqu’un nouvel employé se joint à une entreprise, il est confronté
Les agents conversationnels à de nombreux défis. Il doit apprendre à connaître ses collègues,
comprendre les politiques et les procédures de l’entreprise et
peuvent jouer un rôle clé dans s’adapter à son nouvel environnement de travail.
le processus de recrutement
et de sélection des candidats.
(GOIRAND, 2023)
Cela peut être un processus
long et difficile, mais les
Ils peuvent interagir avec les candidats, poser des questions sur leur expérience,
agents conversationnels peuvent
leurs compétences et leurs préférences, et fournir des informations sur l’entreprise
et les postes vacants. Ils peuvent trier et préqualifier les candidatures reçues, faciliter cette transition.
réduisant la charge de travail des recruteurs tout en accélérant le processus de
(FØLSTAD ET AL., 2021 ; MAJUMDER & MONDAL, 2021)
présélection (Allal-Chérif et al., 2021).
Les agents conversationnels peuvent également mener des entrevues virtuelles
Les agents conversationnels peuvent répondre aux questions des
avec les candidats, poser des questions préétablies, évaluer les réponses et
nouveaux employés et les aider à se familiariser avec leur nouvel
fournir une première évaluation. Cela permet aux recruteurs d’économiser du
environnement de travail (Clark, 2020 ; Majumder & Mondal,
temps et des ressources en cernant rapidement les candidats les plus prometteurs
2021 ; TalentLyft, 2020). Ils peuvent également être utilisés pour
pour passer aux étapes de sélection suivantes (Allal-Chérif et al., 2021).
dispenser des formations initiales aux nouveaux employés (Clark,
De plus, les agents conversationnels peuvent aider à la collecte et à l’analyse des 2020 ; Majumder & Mondal, 2021 ; TalentLyft, 2020) et fournir des
données des candidats, facilitant ainsi la prise de décision lors du processus de informations sur les politiques et les procédures de l’entreprise, ainsi
sélection (Allal-Chérif et al., 2021). que sur les ressources internes pertinentes.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 12
Soutien aux employés Performance au travail
Les agents conversationnels peuvent avoir de nombreuses
Les agents conversationnels peuvent jouer un rôle
applications dans la performance au travail. Ils peuvent aider
important dans le soutien aux employés en répondant à
à alléger la charge de travail des services aux clients en
leurs questions fréquentes sur les avantages sociaux, les
répondant aux questions simples et en écourtant les temps
congés, les politiques internes, et autres. d’attente (Curiale et al., 2022).
(CAMILLERI & TROISE, 2023 ; MAJUMDER & MONDAL, 2021)

Ils peuvent automatiser les tâches


En fournissant une assistance et un soutien continu, ils peuvent améliorer l’expérience
à faible valeur ajoutée, permettant
des employés ce qui peut conduire à un engagement et une satisfaction accrus au travail
ainsi aux professionnels des RH de
(Taule et al., 2022). En facilitant le quotidien des collaborateurs, ils peuvent améliorer
se concentrer sur des tâches plus
leur expérience (Adamopoulou & Moussiades, 2020).
stratégiques.
De plus, les agents conversationnels sont disponibles 24 heures sur 24, 7 jours sur 7,
365 jours par année. Cela signifie qu’ils peuvent offrir un soutien continu aux employés, (DELOITTE, 2019)

même en dehors des heures de travail normales. Ceci peut être particulièrement utile
pour les personnes travaillant le soir, la nuit ou les fins de semaine. Les employés peuvent De plus, ils ont le potentiel de fournir des données claires sur
poser des questions à tout moment et obtenir des réponses rapidement, ce qui peut les exigences et les préférences des employés, qui peuvent
améliorer leur satisfaction et leur productivité (Camilleri & Troise, 2023 ; Majumder & ensuite être utilisées pour guider la prise de décision en
Mondal, 2021 ; Wilson & Marasoiu, 2022). matière de ressources humaines (Taule et al., 2022).
Ainsi, ils peuvent contribuer à réduire les coûts en optimisant le service, en limitant le ChatGPT et sa famille élargie d’agents conversationnels
recours à des employés humains et en améliorant la satisfaction des employés (Mydyti peuvent apporter de nombreux avantages aux entreprises sur
& Kadriu, 2021). Par exemple, un agent conversationnel peut informer le client ou le plan de la GRH, comme démontré ci-dessus. Cependant, il
l’utilisateur sur un produit, un service ou une procédure, sans qu’il soit nécessaire de faut reconnaître que les agents conversationnels ne peuvent
solliciter un agent humain. Cela permet de faire des économies sur les coûts liés au pas se substituer totalement à l’interaction humaine et qu’ils
recrutement, à la formation et au salaire des employés humains, ainsi que d’éviter des doivent être utilisés de manière avertie en complément des
tâches routinières ou pénibles. processus de GRH existants.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 13
L’une des préoccupations principales
concerne la protection de la vie
privée des employés. Les agents
conversationnels traitent souvent
des informations délicates sur
4. Défis et les employés, comme leurs données
enjeux éthiques personnelles, leurs évaluations
de l’utilisation de performance ou leurs problèmes
des agents personnels.

conversationnels (HILL, 2023)

dans la GRH Il faut donc mettre en place des mesures de sécurité appropriées pour protéger
la confidentialité de ces données et garantir la conformité aux réglementations
en matière de protection des données, comme la Loi sur l’accès aux documents
L’utilisation des agents conversationnels en GRH soulève des organismes publics et sur la protection des renseignements personnels
également des questions importantes en termes (RLRQ, chapitre A-2.1, 2023) et la Loi sur la protection des renseignements
d’éthique et de responsabilité. personnels dans le secteur privé (RLRQ, chapitre P-39.1, 2023) au Québec. Les
organisations doivent s’assurer que les agents conversationnels sont conçus
avec des protocoles de sécurité robustes et que seules les personnes autorisées
ont accès aux informations confidentielles. De plus, les entreprises doivent être
transparentes sur les données collectées par les agents conversationnels et
informer les employés de leur utilisation. Les employés doivent aussi pouvoir
contrôler les données collectées à leur sujet et avoir le droit de supprimer ces
données s’ils le souhaitent. Le consentement libre et éclairé est donc de mise.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 14
Les entreprises ont la responsabilité de garantir que les données
collectées sont utilisées de manière éthique et responsable, et
que les décisions prises par les agents conversationnels sont La nature des modèles linguistiques avancés de
équitables et objectives. Dans cette optique, il est essentiel pour l’IA peut rendre difficile la détermination de la
les entreprises d’évaluer régulièrement l’incidence du recours à
responsabilité en cas d’erreurs ou de préjudices.
des agents conversationnels sur les employés, et sur l’entreprise
L’autonomie croissante des systèmes d’IA rend
dans son ensemble, afin de s’assurer qu’ils sont utilisés de manière
plus complexe la question de l’imputation de la
efficace et éthique. Ainsi, il est primordial que les entreprises
responsabilité aux développeurs, aux utilisateurs ou à
établissent des politiques claires concernant l’utilisation des agents
conversationnels, et qu’elles forment leurs employés à leur utilisation. l’IA elle-même. Il est donc nécessaire de définir des
En outre, la surveillance continue de des répercussions des agents lignes directrices claires et des cadres juridiques
conversationnels sur les employés et sur l’entreprise est indispensable afin de répondre à ce défi.
pour veiller à leur utilisation responsable et éthique.
(RAY, 2023)
Les agents conversationnels avancés sont capables de générer du
contenu hautement persuasif ou émotionnellement saisissant (Ray,
Enfin, notons que cet article présente seulement quelques-uns des nombreux
2023). Cette capacité soulève des préoccupations éthiques quant au
défis éthiques auxquels ChatGPT et sa famille élargie d’agents conversationnels,
potentiel de manipulation, car le contenu généré par l’IA pourrait être
en tant que modèles de langage IA avancés, sont confrontés (Ray, 2023). Ces
utilisé pour exploiter les émotions des personnes, influencer leurs
défis variés nécessitent une attention particulière afin d’assurer un développement
croyances ou comportements, ou promouvoir la désinformation. Les
et une utilisation responsables de cette technologie. Pour garantir que ChatGPT et
organisations devraient s’assurer que ChatGPT ou tout autre agent
ses homologues répondent aux normes éthiques les plus élevées, il est primordial
conversationnel, lorsqu’adopté, est utilisé de manière responsable
de les prendre en compte et de remédier à ces défis.
pour prévenir de tels abus.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 15
Conclusion
Les agents conversationnels en général, mais surtout ChatGPT, en tant
que modèle avancé, offrent un grand potentiel pour réformer la GRH en
relevant l’efficacité des processus et en offrant une meilleure expérience
aux employés. Les avantages du recours aux agents conversationnels
sont nombreux, entre autres la réduction des coûts, l’amélioration de
l’expérience utilisateur et la possibilité d’automatiser les tâches répétitives.
Cependant, l’utilisation des agents conversationnels en GRH pose
également des défis importants, notamment sur le plan du respect de la
vie privée, de biais algorithmiques et de responsabilité des entreprises.
Les entreprises doivent être conscientes de ces défis et mettre en place
des lignes directrices, des politiques et des pratiques qui garantissent
l’utilisation responsable et éthique des agents conversationnels afin de
ne pas nuire aux humains.
En fin de compte, il est important de souligner que l’utilisation des agents
conversationnels doit être guidée par des considérations éthiques et
sociales. Les entreprises doivent être responsables des répercussions
de l’utilisation des agents conversationnels sur leurs employés et sur
l’ensemble de la société. En adoptant une approche responsable et
éthique, les entreprises peuvent mieux s’assurer que les avantages des
agents conversationnels seront pleinement obtenus et que leurs employés
bénéficieront d’une expérience améliorée dans les processus de GRH.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 16
Références Laranjo, L., Dunn, A. G., Tong, H. L., Kocaballi, A. B., Chen, J., Bashir, R., Surian, D., Gallego, B., Magrabi, F., Lau, A. Y. S.,
Adamopoulou, E., & Moussiades, L. (2020). Chatbots : History, technology, and applications. Machine Learning with
& Coiera, E. (2018). Conversational agents in healthcare : A systematic review. Journal of the American Medical Informatics
Applications, 2, 100006. https ://doi.org/10.1016/j.mlwa.2020.100006
Association, 25(9), 1248‑1258. https ://doi.org/10.1093/jamia/ocy072
Allal-Chérif, O., Yela Aránega, A., & Castaño Sánchez, R. (2021). Intelligent recruitment : How to identify, select, and retain
Laumer, S., & Morana, S. (2022). HR natural language processing—Conceptual overview and state of the art on
talents from around the world using artificial intelligence. Technological Forecasting and Social Change, 169, 120822.
conversational agents in human resources management. Dans Handbook of Research on Artificial Intelligence in Human
https ://doi.org/10.1016/j.techfore.2021.120822
Resource Management (p. 226‑242). Edward Elgar Publishing. https ://www.elgaronline.com/display/edcoll/978183910
Bar, B. (2023). ChatGPT : le guide pour tout comprendre. https ://www.journaldunet.com/solutions/ 7528/9781839107528.00022.xml
dsi/1518183-chatgpt-le-guide-pour-tout-comprendre/
Listikova, A. V., Egorov, E. E., Lebedeva, T. E., Bulganina, S. V., & Prokhorova, M. P. (2020). Research of the Best Practices of
Bavaresco, R., Silveira, D., Reis, E., Barbosa, J., Righi, R., Costa, C., Antunes, R., Gomes, M., Gatti, C., Vanzin, M., Junior, Artificial Intelligence in the Formation and Development of Personnel. Dans E. G. Popkova (Éd.), Growth Poles of the Global
S. C., Silva, E., & Moreira, C. (2020). Conversational agents in business : A systematic literature review and future research Economy : Emergence, Changes and Future Perspectives (p. 1345‑1352). Springer International Publishing. https ://doi.
directions. Computer Science Review, 36, 100239. https ://doi.org/10.1016/j.cosrev.2020.100239 org/10.1007/978-3-030-15160-7_137
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots : Can Language Long, Y., Hui, B., Ye, F., Li, Y., Han, Z., Yuan, C., Li, Y., & Wang, X. (2023). SPRING : Situated Conversation Agent Pretrained
Models Be Too Big ?. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610‑623. with Multimodal Questions from Incremental Layout Graph (arXiv :2301.01949). arXiv. https ://doi.org/10.48550/
https ://doi.org/10.1145/3442188.3445922 arXiv.2301.01949
Billon, J. (6 mars 2023). Limites de ChatGPT  : 7 inconvénients à connaître. BDM. https ://www.blogdumoderateur.com/ Majumder, S., & Mondal, A. (2021). Are chatbots really useful for human resource management ? International Journal of
limites-chatgpt-inconvenients/ Speech Technology, 24(4), 969‑977. https ://doi.org/10.1007/s10772-021-09834-y
Camilleri, M. A., & Troise, C. (2023). Live support by chatbots with artificial intelligence : A future research agenda. Service Marr, B. (2023). The Top 10 Limitations of ChatGPT. Forbes. https ://www.forbes.com/sites/bernardmarr/2023/03/03/
Business, 17(1), 61‑80. https ://doi.org/10.1007/s11628-022-00513-9 the-top-10-limitations-of-chatgpt/
CBC. (2021). After her best friend died, this programmer created an AI chatbot from his texts to talk to him again Maurer, R. (30 avril 2019). HR and Chatbots Are Learning Together. SHRM. https ://www.shrm.org/resourcesandtools/
| CBC Documentaries. CBC Tea Nature of Things. https ://www.cbc.ca/documentaries/the-nature-of-things/ hr-topics/technology/pages/hr-chatbots-are-learning-together.aspx
after-her-best-friend-died-this-programmer-created-an-ai-chatbot-from-his-texts-to-talk-to-him-again-1.6252286
Metz, C. (15 mars 2021). Who Is Making Sure the A.I. Machines Aren’t Racist ? The New York Times. https ://www.nytimes.
Clark, S. (2020). 5 Ways Chatbots Improve Employee Experience. Reworked. Co ; Simpler Media Group, Inc. https ://www. com/2021/03/15/technology/artificial-intelligence-google-bias.html
reworked.co/employee-experience/5-ways-chatbots-improve-employee-experience/
Mydyti, H., & Kadriu, A. (2021). The Impact of Chatbots in Driving Digital Transformation. International Journal of E-Services
Cousins, B. (2023). Council Post : Uncovering The Different Types Of ChatGPT Bias. Forbes. https ://www.forbes.com/ and Mobile Applications (IJESMA), 13(4), 88‑104. https ://doi.org/10.4018/IJESMA.2021100106
sites/forbestechcouncil/2023/03/31/uncovering-the-different-types-of-chatgpt-bias/
OpenAI. (2022). Introducing ChatGPT. https ://openai.com/blog/chatgpt
Curiale, T., Acquatella, F., Gros, L., Cosquer, M., & Tisseron, S. (2022). L’anthropomorphisme, enjeu de performance pour
OpenAI. (2023). GPT-4. https ://openai.com/product/gpt-4
les chatbots. Revue internationale de psychosociologie et de gestion des comportements organisationnels, XXVIII(72),
101‑123. https ://doi.org/10.3917/rips1.072.0101 Ray, P. P. (2023). ChatGPT : A comprehensive review on background, applications, key challenges, bias, ethics, limitations
and future scope. Internet of Things and Cyber-Physical Systems, 3, 121‑154. https ://doi.org/10.1016/j.iotcps.2023.04.003
Deloitte. (2019). Transform HR with intelligent chatbots. https ://www2.deloitte.com/content/dam/Deloitte/global/
Documents/Technology/gx-tech-transform-hr-with-intelligent-chatbots.pdf RLRQ, chapitre A-2.1. (2023). Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements
personnels (RLRQ, chapitre A-2.1). https ://www.legisquebec.gouv.qc.ca/fr/document/lc/A-2.1
Dupont, M. (16 février 2022). La fenêtre d’Overton ou le champ de l’acceptable en politique. Le Monde.fr. https ://www.
lemonde.fr/idees/article/2022/02/16/la-fenetre-d-overton-ou-le-champ-de-l-acceptable-en-politique_6113836_3232. RLRQ, chapitre P-39.1. (2023). Loi sur la protection des renseignements personnels dans le secteur privé (RLRQ, chapitre
html P-39.1). https ://www.legisquebec.gouv.qc.ca/fr/document/lc/p-39.1
Floridi, L., & Chiriatti, M. (2020). GPT-3 : Its Nature, Scope, Limits, and Consequences. Minds and Machines, 30(4), 681‑694. Robert-Huot, G., & Cloutier, J. (2020). La gestion des ressources humaines dans les PME  : Une analyse systématique de la
https ://doi.org/10.1007/s11023-020-09548-1 littérature. Revue internationale P.M.E., 33(1), 101‑146. https ://doi.org/10.7202/1069285ar
Følstad, A., Araujo, T., Law, E. L.-C., Brandtzaeg, P. B., Papadopoulos, S., Reis, L., Baez, M., Laban, G., McAllister, P., Ischen, Sheth, B. (2018). Chat bots are the new HR managers. 17(3), 162‑163. https ://doi.org/10.1108/SHR-03-2018-0024
C., Wald, R., Catania, F., Meyer von Wolff, R., Hobert, S., & Luger, E. (2021). Future directions for chatbot research : An
Singh, D. (2023). ChatGPT  : A New Approach to Revolutionise Organisations. International Journal of New Media Studies
interdisciplinary research agenda. Computing, 103(12), 2915‑2942. https ://doi.org/10.1007/s00607-021-01016-7
(IJNMS), 10(1), Article 1.
Goirand, T. (10 février 2023). Chat GPT  : 12 exemples de son utilisation en recrutement. DigitalRecruiters, A Cegid company.
Smith, P. (30 mars 2023). Evolution Of ChatGPT  : From Chats To Powerful Collaboration. https ://imeetify.com/blog/
https ://www.digitalrecruiters.com/blog/12-exemples-chatgpt-transformation-recrutement
evolution-of-chatgpt-from-chats-to-powerful-collaboration/
Hassani, H., & Silva, E. S. (2023). The Role of ChatGPT in Data Science : How AI-Assisted Conversational Interfaces Are
TalentLyft. (2020). How Can Chatbots Improve Employee Experience ? Blog. https ://www.talentlyft.com/en/blog/
Revolutionizing the Field. Big Data and Cognitive Computing, 7(2), Article 2. https ://doi.org/10.3390/bdcc7020062
article/405/how-can-chatbots-improve-employee-experience
Hill, M. (22 mars 2023). Sharing sensitive business data with ChatGPT could be risky. CSO Online. https ://www.csoonline.
Taule, T., Følstad, A., & Fostervold, K. I. (2022). How Can a Chatbot Support Human Resource Management ?
com/article/3691115/sharing-sensitive-business-data-with-chatgpt-could-be-risky.html
Exploring the Operational Interplay. Dans A. Følstad, T. Araujo, S. Papadopoulos, E. L.-C. Law, E. Luger, M. Goodwin,
Hillier, M. (20 février 2023). Why does ChatGPT generate fake references ? TECHE. https ://teche.mq.edu.au/2023/02/ & P. B. Brandtzaeg (Éds.), Chatbot Research and Design (p. 73‑89). Springer International Publishing. https ://doi.
why-does-chatgpt-generate-fake-references/ org/10.1007/978-3-030-94890-0_5
IBM. (2019). Siemens AG : A one-of-a-kind AI-based virtual agent innovates employee support. https ://www.ibm.com/ The AI Article Project. (27 mars 2023). The Ethics of ChatBots  : Addressing Bias and
case-studies/siemens-ag-watson-ai Discrimination in ChatGPT’s Responses. Medium. https ://the-ai-article-project.medium.com/
the-ethics-of-chatbots-addressing-bias-and-discrimination-in-chatgpts-responses-4974305b6426
Koivunen, S., Ala-Luopa, S., Olsson, T., & Haapakorpi, A. (2022). The March of Chatbots into Recruitment : Recruiters’
Experiences, Expectations, and Design Opportunities. Computer Supported Cooperative Work (CSCW), 31(3), 487‑516. Welborn, A. (9 mars 2023). ChatGPT and Fake Citations. Duke University Libraries Blogs. https ://blogs.library.duke.edu/
https ://doi.org/10.1007/s10606-022-09429-4 blog/2023/03/09/chatgpt-and-fake-citations/
Korngiebel, D. M., & Mooney, S. D. (2021). Considering the possibilities and pitfalls of Generative Pre-trained Transformer 3 Wilson, L., & Marasoiu, M. (2022). The Development and Use of Chatbots in Public Health : Scoping Review. JMIR Human
(GPT-3) in healthcare delivery. npj Digital Medicine, 4(1), 93. https ://doi.org/10.1038/s41746-021-00464-x Factors, 9(4), e35882. https ://doi.org/10.2196/35882

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 17
ANNEXE 1
Tableau 1. Limites potentielles de ChatGPT et leurs descriptions
(CONTENU TRADUIT ET ADAPTÉ DE RAY, 2023, P. 148)

LIMITE DESCRIPTION

Il peut générer du contenu erroné ou biaisé, car il se base sur des données d’entraînement plutôt que sur une compréhension
Informations inexactes ou trompeuses approfondie du sujet.

La sortie du modèle peut varier selon la formulation de l’entrée, conduisant à des réponses incohérentes ou à des niveaux de
Sensibilité à la formulation de l’entrée détail variables.

Verbosité et surutilisation de certaines expressions Il peut parfois produire des réponses verbeuses ou répétitives, rendant le contenu généré moins naturel.

Incapacité à vérifier les faits ou à accéder à des Les connaissances de ChatGPT sont limitées aux données sur lesquelles il a été entraîné, avec une date limite en 2021. Il ne
informations en temps réel peut pas fournir d’informations en temps réel ou vérifier l’exactitude de ses réponses.

Il peut avoir du mal avec les requêtes ambiguës ou les questions qui nécessitent une compréhension nuancée du contexte. Il
Difficulté à gérer les requêtes ambiguës peut générer du contenu qui ne répond pas directement à l’intention de l’utilisateur.

Il peut parfois générer du contenu qui manque de conscience contextuelle ou qui ne tient pas compte des ramifications plus
Manque de conscience contextuelle étendues d’un sujet donné. Cela peut entraîner un contenu qui semble superficiel ou qui ne tient pas compte de la complexité
des situations réelles.

En tant que modèle de langage, il peut avoir du mal à s’engager dans un raisonnement éthique ou moral. Il peut générer du
Raisonnement éthique et moral contenu qui est moralement ambigu ou qui ne respecte pas les normes éthiques, le rendant inadapté à certaines applications
sans une supervision humaine appropriée.

ChatGPT peut avoir du mal à maintenir la cohérence et la consistance dans les contextes conversationnels longs ou lorsqu’il
Contextes conversationnels longs répond à une série de questions interconnectées. Cela peut entraîner des réponses disjointes ou contradictoires qui peuvent
confondre les utilisateurs.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 18
ANNEXE 1 | Tableau 1. Limites potentielles de ChatGPT et leurs descriptions [SUITE]

LIMITE DESCRIPTION

En tant que modèle de langage basé sur le texte, il ne peut pas créer du contenu visuel, tel que des images, des vidéos ou des
Incapacité à créer du contenu visuel graphiques, limitant son applicabilité dans la création de contenu multimédia et les tâches de communication visuelle.

Il peut avoir du mal à reconnaître et à gérer systématiquement les entrées inappropriées, nuisibles ou offensantes, générant
Réponse aux demandes inappropriées ou nuisibles potentiellement du contenu qui viole les lignes directrices éthiques ou les attentes des utilisateurs.

Il peut ne pas adapter efficacement son contenu généré au degré d’expertise ou à la familiarité de l’utilisateur avec un sujet
Difficulté à reconnaître et à s’adapter au degré
précis, entraînant potentiellement des réponses trop simplistes ou trop techniques qui peuvent ne pas convenir aux besoins
d’expertise de l’utilisateur de l’utilisateur.

En tant que modèle de langage artificiel, ChatGPT a une intelligence émotionnelle limitée, ce qui peut entraîner la génération
Intelligence émotionnelle limitée d’un contenu qui manque d’empathie ou qui ne reconnaît pas et ne répond pas de manière appropriée au contexte
émotionnel d’une requête d’utilisateur.

En tant que modèle de langage généraliste, il peut ne pas fournir une rétroaction personnalisée adaptée aux besoins ou
Manque de rétroaction personnalisée aux objectifs d’apprentissage des utilisateurs individuels. Cela peut limiter son efficacité dans les contextes éducatifs ou
d’encadrement où un accompagnement individualisé est essentiel.

Bien que ChatGPT puisse générer du contenu sur un large éventail de sujets, il peut manquer de profondeur de connaissance
Expertise limitée dans des domaines particuliers ou d’expertise trouvées dans des modèles d’intelligence artificielle particuliers à un domaine. Cela peut limiter son utilité dans
des domaines spécialisés ou des applications où l’exactitude et la précision sont primordiales.

Étant un modèle d’intelligence artificielle basé sur le texte, il ne possède pas la capacité d’interagir directement avec des
Incapacité à interagir avec des systèmes externes systèmes externes, tels que des bases de données, des API ou d’autres logiciels. Cela limite ses capacités dans les applications
qui nécessitent un accès en temps réel aux informations ou la capacité de manipuler ou traiter des données externes.

Bien que ChatGPT ait une certaine capacité à générer du contenu dans plusieurs langues, il peut avoir du mal à gérer
Incapacité à gérer les requêtes multilingues efficacement les requêtes qui impliquent plusieurs langues au sein d’une même entrée ou nécessitent des traductions entre les
langues, ce qui pourrait limiter son utilité dans les contextes multilingues.

Il peut avoir du mal à interpréter ou à générer correctement le langage non littéral, tel que les idiomes, les métaphores ou le
Difficulté avec le langage non littéral sarcasme. Cela peut entraîner des réponses trop littérales, manquer le sens voulu ou ne pas transmettre le ton souhaité.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 19
ANNEXE 1 | Tableau 1. Limites potentielles de ChatGPT et leurs descriptions [SUITE]

LIMITE DESCRIPTION

Bien qu’il puisse générer du contenu qui semble créatif, sa créativité est finalement limitée par les données d’entraînement.
Créativité limitée Cela peut entraîner un contenu qui est dérivé ou qui manque de nouveauté et d’originalité trouvées dans les œuvres créatives
générées par l’homme.

Il peut parfois surgénéraliser lorsqu’il génère du contenu, conduisant à des réponses qui manquent de nuance ou simplifient
Surgénéralisation excessivement des sujets complexes. Cela peut entraîner un contenu qui semble plausible en surface, mais qui ne traite pas
avec précision les subtilités d’un sujet donné.

La qualité de la sortie de ChatGPT peut varier en fonction de l’entrée et du sujet abordé. Cela peut entraîner des incohérences
Incohérence dans la qualité sur le plan des détails, de la cohérence ou la pertinence du contenu généré. Cela peut rendre difficile la prévision de la
performance du modèle dans différents contextes ou applications.

L’entraînement et l’exécution de modèles d’intelligence artificielle comme ChatGPT peuvent consommer beaucoup d’énergie,
Consommation d’énergie et incidence
contribuant aux préoccupations environnementales et soulevant des questions sur la durabilité et les implications éthiques de
environnementale leur utilisation généralisée.

En tant que modèle de langage artificiel, il peut avoir du mal à capturer l’intuition humaine. Cela rend difficile pour le modèle
Difficulté à capturer l’intuition humaine de générer du contenu qui reflète les connaissances implicites sur lesquelles les humains s’appuient souvent lorsqu’ils
communiquent ou prennent des décisions.

Il manque de conscience de soi. Il ne possède pas une compréhension de ses propres limites, biais ou lacunes. Cela rend
Manque de conscience de soi difficile pour le modèle de générer du contenu qui reconnaît l’incertitude ou indique quand il fournit des informations
incomplètes ou incorrectes.

L’entraînement et le déploiement de modèles d’intelligence artificielle comme ChatGPT peuvent nécessiter beaucoup
Exigences en matière de ressources pour
de ressources informatiques. Cela peut être un obstacle pour les petites organisations ou les particuliers qui souhaitent
l’entraînement et le déploiement développer ou personnaliser des modèles pour leurs besoins particuliers.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 20
ANNEXE 2
Tableau 2. Biais potentiels du ChatGPT et leurs descriptions
(CONTENU TRADUIT ET ADAPTÉ DE RAY, 2023, P. 147)

TYPE DESCRIPTION

Il peut favoriser certaines cultures ou langues plus représentées en ligne, car il est entraîné sur des données provenant
Préjugés culturels et linguistiques principalement d’internet. Cela peut entraîner la génération de contenu qui ne reflète pas fidèlement la diversité des
expériences ou des langues humaines.

Il peut involontairement perpétuer des stéréotypes de genre et de race en raison des biais dans les données d’entraînement.
Préjugés sexistes et raciaux Par exemple, le modèle peut associer certaines professions ou certains rôles à des genres ou des ethnies particuliers,
renforçant ainsi les stéréotypes existants.

Il peut biaiser les recommandations de contenu en fonction des croyances ou des préférences existantes de l’utilisateur,
Biais dans les recommandations de contenu contribuant potentiellement à la création de bulles de filtres et de polarisation.

Il peut refléter les opinions ou les points de vue dominants trouvés dans ses données d’entraînement. Cela peut conduire
Biais idéologique à la génération de contenu qui penche vers des idéologies politiques, sociales ou économiques précises, renforçant
potentiellement les biais existants ou créant une représentation déséquilibrée des différentes perspectives.

ChatGPT peut apprendre des schémas liés au contenu sensationnaliste ou clickbait, car il s’entraîne sur des données provenant
Biais de sensationnalisme et de clickbait d’internet. Cela pourrait entraîner la génération de titres accrocheurs, d’exagérations ou d’autres formes de sensationnalisme
dans le contenu qu’il produit.

Ses réponses peuvent confirmer des croyances, des hypothèses ou des stéréotypes existants dans les données
Biais de confirmation d’entraînement. Cela peut limiter la diversité des perspectives et renforcer les points de vue biaisés.

Il peut être biaisé par les données provenant de périodes données. Cela peut conduire à la génération de contenu qui reflète
Biais temporel les tendances, les croyances ou les points de vue prévalents à ces époques, qui peuvent ne pas être pertinents ou appropriés
pour le contexte actuel.

ChatGPT peut exclure ou marginaliser certaines perspectives ou certains groupes sous-représentés dans ses données
Biais d’exclusion d’entraînement. Cela peut conduire à un contenu qui manque d’inclusivité et qui ne reflète pas les expériences de tous les
utilisateurs.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 21
ANNEXE 2 | Tableau 2. Biais potentiels du ChatGPT et leurs descriptions [SUITE]

TYPE DESCRIPTION

Les données d’entraînement de ChatGPT, qui proviennent principalement d’internet, peuvent contenir un biais commercial,
Biais commercial car elles reflètent les objectifs et les intérêts des entités commerciales. Cela peut conduire à la génération de contenu qui
promeut involontairement des produits, des services ou des marques, même lorsque ce n’est pas l’intention de l’utilisateur.

Il peut adopter des biais cognitifs présents dans les données, car il apprend du contenu humain. Ces biais peuvent biaiser le
Biais cognitif contenu vers un raisonnement erroné ou des généralisations.

ChatGPT peut développer un biais d’attention en apprenant du contenu qui a reçu plus d’attention en ligne. Cela peut biaiser
Biais d’attention le contenu vers les points de vue populaires ou largement discutés, éclipsant les perspectives moins courantes ou les voix
sous-représentées.

Les données d’entraînement de ChatGPT peuvent contenir un biais de format, car elles sont principalement composées de
Biais de format contenu textuel provenant d’internet. Cela peut entraîner le modèle étant moins habile à générer du contenu qui reflète
d’autres formes de communication, telles que le langage parlé ou les signaux non verbaux.

Il peut être biaisé par les données qui proviennent de sources en ligne qui peuvent ne pas être fiables, crédibles ou faisant
Biais de source autorité. Cela peut biaiser le contenu vers des informations basées sur des sources moins dignes de confiance ou accordant
trop d’importance à certaines sources.

Il peut générer du contenu qui est plus similaire aux sujets populaires ou tendance, en négligeant ou en minimisant les
Biais de nouveauté perspectives moins connues ou émergentes, car il apprend à partir des schémas et associations trouvés dans ses données
d’entraînement.

Son contenu peut être orienté vers un sentiment positif ou négatif, en fonction de la prévalence d’un tel sentiment dans ses
Biais de sentiment positif/négatif données d’entraînement. Cela peut biaiser le contenu vers une vision trop optimiste ou pessimiste de certains sujets ou
certaines situations.

Des exemples extrêmes ou inhabituels qui ne sont pas représentatifs des situations ou perspectives typiques peuvent être
Biais d’extrême valeur utilisés. Cela peut biaiser le contenu vers des vues extrêmes ou exagérées, déformant la compréhension d’un sujet.

Ses réponses peuvent contenir des biais qui ne sont pas explicitement présents dans les données, mais qui émergent des
Biais implicite relations entre les concepts et les idées. Ces biais peuvent influencer subtilement le contenu, les rendant difficiles à détecter et
à traiter.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 22
ANNEXE 2 | Tableau 2. Biais potentiels du ChatGPT et leurs descriptions [SUITE]

TYPE DESCRIPTION

Il peut accorder plus de poids au contenu ou aux points de vue provenant de sources perçues comme faisant autorité ou
influentes dans ses données d’entraînement. Cela peut conduire à la priorisation du modèle des informations provenant
Biais d’autorité d’individus ou d’organisations bien connus, négligeant potentiellement des informations précieuses provenant de sources
moins prestigieuses.

Il peut accorder plus d’importance aux événements récents ou actuels, aux tendances ou aux croyances dans son contenu
Biais de récence généré. Cela peut conduire le modèle à négliger le contexte historique ou à sous-estimer la pertinence des expériences et
connaissances passées.

Il peut involontairement générer du contenu qui reflète les points de vue ou opinions consensuels trouvés dans ses données
Biais de conformisme d’entraînement. Cela peut limiter la diversité des perspectives et entraver l’exploration des points de vue alternatifs ou
dissidents.

Ce biais se produit lorsque le modèle accorde trop d’importance à des éléments précis d’information ou à des impressions
Biais d’ancrage initiales provenant de ses données d’entraînement. Cela peut entraîner la génération de contenu qui est indûment influencé
par certains détails ou exemples, conduisant potentiellement à des perspectives déformées ou déséquilibrées.

Ses réponses peuvent être affectées par le biais de disponibilité, qui se réfère à la tendance à prioriser les informations qui sont
plus facilement rappelées ou aisément disponibles dans ses données d’entraînement. Cela peut amener le modèle à générer
Biais de disponibilité du contenu qui surestime les exemples communs ou bien connus tout en négligeant les informations moins évidentes, mais
également pertinentes.

Il peut développer un biais de faux consensus en surestimant la mesure dans laquelle ses données d’entraînement
Biais de faux consensus représentent un consensus plus large ou une compréhension partagée. Cela peut conduire à la génération de contenu qui
suppose un degré plus élevé d’accord sur certains sujets ou points de vue qu’il n’existe réellement.

Il peut présenter un biais de rétrospective, qui se produit lorsque le modèle surestime la prévisibilité ou l’inévitabilité des
Biais de rétrospective événements passés en fonction des informations disponibles dans ses données d’entraînement. Cela peut entraîner la
génération de contenu qui présente une vision biaisée des événements ou des résultats historiques.

Intégration des agents conversationnels et ChatGPT dans la GRH : maximiser les utilisations, saisir les occasions et anticiper les défis 23
carrefourrh.org

1200, av. McGill College - 14e étage


Montréal QC H3B 4G7

514-879-1636 / 1-800-214-1609

info@ordrecrha.org

Cet article est rendu possible grâce à la Une initiative de

Édité en juin 2023 | Tous droits réservés

Vous aimerez peut-être aussi