L’introduction de nouvelles technologies comme l’IA est corrélée à une hausse de 10 points de l’engagement des employés
Les nouveaux investissements technologiques laissent présager un engagement accru des employés. Et les études le montrent. Tant mieux ! En même temps, les usages à l’insu de l’employeur augmentent aussi…
L’utilisation de l’IA par les employés ne cesse d’augmenter. On peut s’en féliciter. Qualtrics chiffre la hausse de la fréquence d’utilisation au cours de l’année écoulée à 7 points. Cependant, seulement 20 % des employés utilisent exclusivement les outils fournis par leur entreprise, contre 22 % il y a un an…
Le « 2026 Global Employee Experience Trends » sur les tendances en matière d’expérience employé repose sur une enquête menée auprès de 33 831 employés à temps plein et à temps partiel en septembre et octobre 2025. Les participants représentaient 24 pays répartis sur cinq continents et 30 secteurs d’activité, au sein d’organisations comptant de 100 à plus de 50 000 employés. L’échantillon était composé à 51 % d’hommes et à 49 % de femmes.
Les usages de l’IA ? Dans son étude, Qualtrics cerne trois grands objectifs : accomplir les tâches plus rapidement (65 % des employés), améliorer la qualité du travail (58 %) et accroître la productivité globale (51 %)
De plus, 37 % des employés affirment que l’IA leur permet d’accomplir des choses qu’ils ne pouvaient pas faire auparavant. Ce qui indique que l’IA va au-delà de l’automatisation ou de l’accélération des compétences existantes et qu’elle élargit les capacités des individus.
Politiques internes contournées
A priori, tout va bien. Et c’est heureux. L’IA permet aux employés de travailler plus vite et d’accomplir des tâches auparavant impossibles. Sauf lorsque les outils utilisés ne respectent pas les politiques en vigueur, constate Benjamin Granger, Chief Workplace Psychologist, Qualtrics. Le risque, alors, s’étend aux clients et à l’ensemble de l’organisation.
« Ce constat est particulièrement vrai pour les employés soumis à une forte pression de productivité, ce qui suggère qu’ils contournent les politiques internes pour répondre à ces exigences. »
IT et HR doivent collaborer davantage
Pour Qualtrics, le réflexe habituel est de traiter -à tort- le shadow AI comme un problème de gouvernance à confier à la direction IT, au DPO ou au CISO. Le cadrage est commode, notamment parce qu’il exonère la fonction formation de toute responsabilité. Il est pourtant inexact. Quand un collaborateur ouvre ChatGPT depuis un compte personnel pour rédiger une note, résumer un contrat ou préparer une présentation, on ne peut pas considérer qu’il contourne une politique de sécurité, car, de fait, il comble un vide faute de pouvoir utiliser un outil officiel ou opérationnel dans l’entreprise, faute également d’avoir appris à s’en servir. Le shadow AI pourrait ainsi révéler, en creux, que la formation à l’IA est soit absente de l’organisation, soit inadaptée, soit arrivée trop tard.
Benjamin Granger est formel : « il est essentiel que les responsables HR collaborent avec les responsables IT pour mesurer régulièrement l’utilisation de l’IA et la perception des employés, afin de garantir que les outils mis à leur disposition répondent aux attentes des employés et des dirigeants. »


