L’intelligence artificielle n’est plus réservée aux ingénieurs ou aux départements tech. Aujourd’hui, des outils comme ChatGPT s’invitent dans le quotidien des salariés de bureau. Mais une question se pose : faut-il le dire à son manager quand on y a recours ? Et surtout, les managers sont-ils capables de faire la différence ?
Une expérience grandeur nature menée chez un cabinet d’audit
Trois chercheurs de HEC Paris ont eu une idée originale : observer comment des managers réagissent face à des contenus rédigés (ou non) avec l’aide de ChatGPT. Pour cela, ils ont collaboré avec un cabinet d’audit où les consultants facturent leurs heures aux clients. Des analystes juniors ont été invités à produire huit notes – certaines entièrement rédigées par eux-mêmes, d’autres partiellement ou totalement avec ChatGPT.
Ces documents ont ensuite été évalués par 130 managers, dans le cadre d’une fausse session de formation. Leur mission : deviner si l’IA avait été utilisée ou non.
Quand l’humain imite trop bien la machine… ou l’inverse
Les résultats sont surprenants. Les managers ont jugé que 77 % des documents avaient été rédigés avec l’aide de ChatGPT… même lorsque ce n’était pas le cas. Et parmi les notes 100 % humaines, près d’un sur deux (44 %) pensait malgré tout qu’elles étaient le fruit d’une intelligence artificielle.
« Les managers sont non seulement incapables de détecter l’usage de l’IA, mais en plus, ils deviennent méfiants », souligne David Restrepo Amariles, co-auteur de l’étude. Cela illustre un flou grandissant entre la production humaine et générative, mais aussi un biais : lorsque le manager sait qu’il y a eu recours à ChatGPT, il a tendance à sous-estimer le temps et l’effort fournis.
Transparence ou discrétion : que gagne le salarié à avouer ?
Face à ce constat, une vraie question se pose pour les collaborateurs : doit-on signaler l’usage de ChatGPT ? Selon les chercheurs, cela ne semble pas être dans leur intérêt. D’une part, le manager ne détecte pas la différence. D’autre part, s’il l’apprend, il pourrait conclure que le salarié a “gagné du temps”… et donc lui confier plus de tâches, au lieu de valoriser sa productivité.
Autrement dit, être transparent n’est pas récompensé, bien au contraire.
Des risques invisibles pour l’entreprise
Ce petit jeu du « je garde ça pour moi » a pourtant des conséquences à plus grande échelle. L’entreprise s’expose à des fuites de données sensibles si les salariés utilisent ChatGPT avec des informations confidentielles. Et le gain de productivité individuel – pourtant précieux – n’est ni partagé, ni intégré dans les processus collectifs.
En somme, tout le monde y perd : l’employeur, les collègues… et même, à long terme, le salarié.
Vers une politique IA plus juste et motivante ?
Pour sortir de cette impasse, les auteurs de l’étude plaident pour une politique d’usage encadrée et incitative. L’idée ? Imposer la transparence, mais en récompensant les gains de productivité. Par exemple : offrir des formations, une augmentation, voire expérimenter la semaine de 4 jours pour les équipes qui optimisent leur temps grâce à l’IA.
Mais surtout, éviter le réflexe de punir la performance par une charge de travail plus lourde. L’IA, bien utilisée, peut devenir un véritable levier d’innovation organisationnelle – encore faut-il en créer les bonnes conditions.


