L’IA ne se contente plus d’assister l’entreprise. Elle commence à agir de manière autonome

A Cybersec Europe 2026, Loïc Lejoly, Founder of Pseudia, Data scientist & MLOps Engineer, abordera l’une des questions les plus urgentes en cybersécurité aujourd’hui : « qui contrôle réellement vos systèmes d’IA » ?

A mesure que l’IA générative évolue vers des systèmes agents capables d’accéder à des données sensibles, d’interagir avec des applications et de prendre des décisions autonomes, les frontières traditionnelles de la sécurité informatique sont redéfinies.

« Les organisations sont soumises à une forte pression pour tirer parti de l’IA tout en conservant le contrôle de leurs données et de leurs systèmes », explique Loïc Lejoly. La vraie question : comment concevoir des architectures d’IA sécurisées qui concilient innovation et gouvernance ?

« Des stratégies de prévention des pertes de données aux déploiements LLM privés ou locaux, il s’agit de voir comment, concrètement, atténuer les risques tout en favorisant une adoption à grande échelle de l’IA ! »

Un levier de résilience

La sécurité des agents IA ne doit pas être perçue comme un paramétrage ponctuel, mais comme un processus itératif et évolutif. Face à des menaces qui ne cessent de gagner en sophistication, l’intégration de ces outils au sein des architecture doit s’accompagner d’une rigueur technique sans faille et d’une gouvernance humaine active.

En combinant la puissance de l’IA pour la défense et le maintien d’un contrôle humain systématique, les organisations peuvent non seulement anticiper les risques, mais aussi et surtout transformer ces nouveaux défis technologiques en un véritable levier de résilience face aux menaces numériques de demain.

Les questions que les entreprises devraient se poser

La question à aborder lors d’une revue d’architecture n’est pas de savoir quel modèle d’IA utiliser, car ce débat est relativement clos. La question la plus difficile et la plus cruciale est de savoir où se trouvent les données par rapport à l’IA, et ce qui se passe lorsque le système doit être disponible en permanence, à grande échelle et avec une traçabilité totale.

Les entreprises qui répondront correctement à cette question s’appuieront sur une infrastructure convergée, axée sur la gouvernance, offrant la fiabilité que leurs charges de travail agentiques finiront par exiger. Elles disposeront d’une solution durable lorsque la vague actuelle d’expérimentation en IA se concrétisera en production. Celles qui ne le feront pas devront procéder à une refonte sous pression, au pire moment possible.

Comprendre le contrôle dans un environnement d’IA autonome

À mesure que les agents d’IA gagnent en autonomie, les questions de responsabilité et de prise de décision deviennent incontournables. La session examinera le protocole MCP (Model Context Protocol) et son impact sur l’interopérabilité, le comportement et les limites de sécurité. « Vous comprendrez mieux comment gérer les systèmes pilotés par l’IA, garantir la conformité et maintenir le contrôle dans des environnements de plus en plus automatisés. »

Le MCP sert de moyen normalisé pour que les applications d’IA découvrent et interagissent avec des outils et des sources de données externes au moment de l’exécution. Plutôt que de coder en dur les connexions à chaque service externe, les agents d’IA utilisant le MCP peuvent découvrir dynamiquement les outils disponibles, comprendre leurs capacités via des appels structurés et les invoquer avec les autorisations d’outils appropriées.

Le MCP est utilisé parce qu’il transforme la manière dont les outils basés sur l’IA accèdent aux informations. Les systèmes d’IA traditionnels sont limités par leurs données d’entraînement, qui deviennent rapidement obsolètes. Le protocole de contexte permet aux développeurs de créer des agents d’IA capables d’effectuer des tâches en utilisant des données en temps réel provenant de systèmes d’entreprise populaires, d’environnements de développement et d’autres sources externes, le tout via un protocole unique et normalisé.