Une question de confiance, mais pas un problème technologique. Une approche originale du sujet
Le Shadow AI apparaît dès que cette confiance disparaît, estime Erol Çakular, Director, Global Specialty Sales, Dell Technologies Benelux. « Expliquez et formez ! », conseille-t-il.
« Le Shadow AI n’est pas motivé par la malveillance. Il apparaît principalement lorsque les employés recherchent des solutions qui fonctionnent là et où la technologie officielle fait défaut ! »
En attendant, le Shadow AI se développe. Selon Gartner, l’utilisation de la technologie par les employés échappant au contrôle des services IT augmente fortement. En 2027, environ 75 % des employés utiliseront des outils publics de GenAI non approuvés, pronostique le cabinet. Cela comporte des risques pour les organisations…
Les risques en matière de sécurité, de confidentialité et de conformité sont connus. Ils sont aussi aisément identifiables. « L’utilisation non autorisée des outils d’IA n’est pas motivée par la malveillance, insiste Erol Çakular. Dans une organisation axée sur l’IA, une utilisation mature ne repose pas sur la surveillance, mais sur la confiance ! »
De fait, le Shadow AI apparaît principalement lorsque les employés recherchent des solutions qui fonctionnent lorsque la technologie officielle fait défaut.
Tout est question de confiance
Pour instaurer la confiance, il est important que les employeurs tiennent compte de trois aspects essentiels.
Tout d’abord, ils doivent garantir la transparence et une gouvernance claire. Les collaborateurs doivent connaître les règles en vigueur, leur raison d’être et la manière dont leurs données sont protégées. Mais cela va au-delà des simples règles, continue Erol Çakular. « Ils doivent également comprendre le fonctionnement des systèmes d’IA et les décisions qu’ils soutiennent. En faisant preuve d’ouverture sur les algorithmes, l’utilisation des données et les risques potentiels, on favorise la compréhension et donc la confiance ». On l’a compris : le manque de clarté à ce sujet est un terrain fertile pour le shadow AI.
En outre, une formation pratique est indispensable. L’IA fait désormais partie du travail quotidien. Une étude précédente d’Acerta Consult montre qu’un employeur sur trois n’a encore dispensé aucune formation à l’IA et n’a pas l’intention d’en organiser. « Il existe pourtant un intérêt sur le lieu de travail : 60 % des travailleurs belges sont ouverts à l’idée de suivre une formation sur l’utilisation de l’IA dans leur travail. »
Une formation efficace
Le service informatique doit donc expliquer en permanence comment, quand et avec quels outils les employés peuvent utiliser l’IA en toute sécurité. Cela nécessite plus qu’une explication théorique ou un apprentissage en ligne standard.
« Une formation efficace donne des exemples concrets, montre les conséquences d’une utilisation abusive et offre la possibilité d’expérimenter en toute sécurité, assure Erol Çakular. Ce n’est qu’alors que les employés choisiront les outils officiels plutôt que leurs propres solutions. »
Enfin, une excellente expérience utilisateur est indispensable. Les solutions d’IA lentes, peu claires ou fastidieuses ne pourront jamais rivaliser avec les alternatives personnalisées. Les organisations doivent investir dans des systèmes à la fois puissants et faciles à utiliser. « Pensez à des interfaces claires, à une bonne intégration avec les flux de travail existants et à un accès rapide aux données pertinentes. Un système fiable, efficace et convivial est le meilleur remède contre le Shadow AI. »
De la fracture de confiance à une organisation numérique forte
En résumé, une stratégie d’IA efficace ne fonctionne que si les employés comprennent le fonctionnement de la technologie, lui font confiance et participent activement à son utilisation responsable. « Chaque organisation est différente, mais l’objectif reste le même, nuance Erol Çakular. En clair : tirer parti des avantages de l’IA, tels que la rapidité, la créativité et l’efficacité, tout en maîtrisant les risques. Les dirigeants doivent reconnaître une chose : la plus grande vulnérabilité à l’ère de l’IA n’est pas la technologie, mais le manque de confiance. »
Le Shadow AI apparaît dès que cette confiance disparaît. « Ceux qui parviennent à combler ce fossé par la transparence, la protection et une expérience utilisateur solide construisent une organisation numérique prête pour l’avenir », conclut Erol Çakular.


