Les identités numériques des agents d’IA deviendront aussi courantes que les identités humaines

Selon Keyfactor, 86 % des professionnels de la cybersécurité affirment que les agents d’IA et les systèmes autonomes ne sont pas dignes de confiance sans identités numériques uniques et dynamiques. La crise de l’identité s’intensifie.

Identité, gouvernance et capacité d’arrêt des systèmes autonomes apparaissent désormais comme les angles morts les plus critiques de la cybersécurité d’entreprise. Les organisations déploient des agents d’IA de plus en plus puissants sans disposer des fondements d’identité nécessaires pour vérifier qui ou quoi agit, ce qui est autorisé à faire et comment son comportement peut être interrompu ou audité en cas d’incident.

Ce fossé de confiance grandissant se transforme rapidement en risque de sécurité. 69 % des professionnels de la cybersécurité estiment que les vulnérabilités des agents d’IA et des systèmes autonomes constituent une menace plus importante pour la sécurité et la gestion des identités de leur entreprise que les abus humains liés à l’IA, a chiffré Keyfactor. L’étude repose sur un panel de 450 professionnels de la cybersécurité aux Etats-Unis et en Europe interrogés par Wakefield.

« Alors que les entreprises se précipitent pour déployer des systèmes d’IA autonomes, l’infrastructure de sécurité nécessaire à leur protection accuse un retard dangereux », estime Jordan Rackie, CEO, Keyfactor.

Identités numériques et identités humaines

Au cœur de ce risque se trouve l’identité. 86 % des professionnels de la cybersécurité s’accordent à dire que, sans identités numériques uniques et dynamiques, les agents d’IA et les systèmes autonomes ne peuvent être considérés comme totalement fiables. Pourtant, malgré ce constat, de nombreuses organisations ne disposent pas de l’infrastructure d’identité ni des modèles de gouvernance nécessaires pour gérer les agents d’IA à grande échelle en toute sécurité.

Ce manque devient de plus en plus urgent à mesure que l’adoption s’accélère : 85 % des professionnels de la cybersécurité prévoient que les identités numériques des agents d’IA seront aussi courantes que les identités humaines et celles des machines d’ici cinq ans.

Un fossé entre la reconnaissance et l’action en matière de sécurité des IA

Si les professionnels de la cybersécurité reconnaissent les vulnérabilités liées à l’IA, seulement la moitié d’entre eux ont mis en place des cadres de gouvernance pour y remédier. Et à peine 28 % pensent pouvoir empêcher un agent malveillant de causer des dommages. De ce fait, la sécurité de l’IA agentique représente une priorité pour la direction, et pourtant, 55 % des responsables de la sécurité affirment que leur direction ne prend pas suffisamment au sérieux les risques liés à l’IA agentique, créant ainsi un décalage entre la prise de conscience et l’action qui rend les organisations vulnérables.

« La direction doit fournir les ressources et le soutien nécessaires aux équipes de sécurité pour permettre à leurs organisations de faire confiance à leurs IA, de vérifier leur bon fonctionnement et de les interrompre en cas de besoin, estime encore Jordan Rackie. Il s’agit du prochain défi de la confiance numérique, et l’identité déterminera les acteurs qui réussiront au cours de la prochaine décennie de l’IA. »