Les programmes Zero Trust stagnent. Comment les faire évoluer ?
Le modèle Zero Trust est passé du stade de concept à celui de priorité, pourtant de nombreuses organisations peinent à dépasser le stade des programmes pilotes. A Cybersec Europe, Stefaan Hinderyckx, NTT Data, expliquera comment l’IA transforme le modèle.
Un concept hier, une priorité aujourd’hui. Mais néanmoins des limites. En effet, nombreuses sont les organisations qui peinent à dépasser le stade des programmes pilotes. En cause, la fragmentation des outils, l’incohérence des politiques et le manque de visibilité sur les environnements hybrides…
A l’occasion de Cybersec Europe à Bruxelles, les 20 et 21 mai 2026, Stefaan Hinderyckx, Senior VP, Cybersecurity, NTT DATA, expliquera comment les entreprises peuvent déployer le modèle Zero Trust à grande échelle et renforcer leur résilience au niveau des utilisateurs, des appareils, des charges de travail et des données.
La détection ne suffit plus
Si les organisations délaissent les hypothèses de confiance implicites au profit d’une vérification continue, la complexité opérationnelle demeure un obstacle majeur. Qui plus est, vérifier qui se connecte ne suffit plus. La question devient celle du comportement : ce qu’un programme fait réellement une fois exécuté, ce qu’il cherche à atteindre, les privilèges qu’il mobilise et les écarts qu’il manifeste par rapport à sa fonction attendue.
Un logiciel signé ou distribué par une source reconnue ne peut plus bénéficier d’une présomption d’innocence. Une connexion inattendue, un accès injustifié à certains fichiers, une élévation de privilèges sans justification métier ou une exécution en mémoire sans trace sur disque doivent désormais déclencher le contrôle.
Une compromission devient critique par ce qu’elle permet ensuite. La phase de post-exploitation repose largement sur l’usage détourné d’outils légitimes déjà présents dans l’environnement. Lorsqu’un attaquant récupère une identité ou un programme autorisé, il exploite des capacités déjà ouvertes, souvent invisibles tant qu’elles ne sont pas détournées.
Réduire la surface d’attaque devient une exigence
Restreindre les privilèges au strict nécessaire, ajuster les accès aux usages réels et limiter les capacités ouvertes par défaut ne relèvent plus de bonnes pratiques secondaires, mais de conditions de résilience. Les organisations qui disposent déjà de capacités avancées d’analyse comportementale, de contrôle des privilèges et de réduction dynamique de la surface d’attaque sont, de fait, mieux armées pour absorber ce basculement.
« Deux forces accélèrent la prochaine phase d’adoption du modèle Zero Trust, continue Stefaan Hinderyckx. L’IA transforme la détection et la réponse, tout en élargissant la surface d’attaque, ce qui nécessite des décisions d’accès adaptatives et une vérification continue. Parallèlement, la consolidation technologique simplifie les opérations en réduisant les difficultés d’intégration et en permettant une télémétrie et une application cohérentes. »
Il s’agit donc, pour les organisations, de voir comment concilier ces opportunités avec les considérations de gouvernance et les risques de dépendance, tout en construisant un cadre Zero Trust évolutif.
Trouver un juste équilibre entre automatisation et supervision humaine
L’IA permet n’invente pas la convergence entre réseau et sécurité, qui se construit depuis une décennie autour du SASE et du Zero Trust. Elle accélère la cadence d’adoption en multipliant les vecteurs d’attaque, en élargissant le périmètre à protéger et en imposant aux équipes une charge analytique que seules des plateformes intégrées peuvent absorber.
Intégrer proactivement l’IA à une architecture Zero Trust favorise le tri des incidents, améliore la précision de détection, facilite la recherche de menaces (threat hunting), répond à la complexité et au volume croissants des cybermenaces et aide les analystes à renforcer les défenses, analyser et contrer des techniques d’attaque avancées.
Lors de l’intégration de l’IA à la cybersécurité, il importe de trouver un juste équilibre entre automatisation et supervision humaine. Une attention particulière doit être portée à la protection de la vie privée, à la transparence, aux biais et aux effets inattendus des décisions prises par l’IA. L’adhésion à des cadres éthiques, la redevabilité et des pratiques d’IA responsable s’imposent et doivent être gouvernées pour garantir son usage fiable et responsable en cybersécurité.


