Pour les entreprises, il est difficile de suivre le rythme effréné d’Agentic AI, mais il le faudra
La capacité de l’Agentic AI à agir de manière autonome ouvre de nouvelles perspectives dans divers domaines, à condition de la maîtriser. Mise au point de Véronique Van Vlasselaer, Analytics & AI Lead, South West & East Europe, SAS
L’Agentic AI est présentée comme la prochaine révolution que les organisations ne peuvent pas se permettre d’ignorer. On parle même de véritables « collaborateurs numériques » qui travailleraient aux côtés du personnel humain. Mais faut-il vraiment s’attendre à une telle évolution ? Et où se situe la limite en matière d’autonomie qu’on souhaite accorder aux agents IA?
Pour répondre à ces questions, il faut d’abord comprendre ce que font réellement les agents IA d’entreprise. Leur base repose en réalité sur les mêmes données d’entreprise et actifs d’IA que nous utilisons depuis des années, précise d’emblée Véronique Van Vlasselaer. Mais les agents vont un pas plus loin que les simples applications de chatbot développées avec des modèles de langage de grande taille (LLM), qui atteignent rapidement leurs limites. En effet, un LLM n’a pas accès à des outils et ne se connecte pas aux données, aux rapports analytiques ou aux modèles d’IA.
« Si l’on demande par exemple à un LLM pourquoi un client souhaite quitter l’entreprise, le modèle sera incapable de répondre. En revanche, un agent IA d’entreprise peut utiliser dans sa réponse des informations spécifiques au client. Un agent IA est un système qui connecte différents modules intelligents et les utilise pour vous assister de manière optimale. »
Perception et interprétation
Plusieurs composants sont essentiels dans ce cadre. D’abord, la perception. Un agent doit tout d’abord percevoir la situation. Cela commence par la collecte d’informations provenant de différentes sources. « Cela nous ramène à la base, essentielle à toute forme d’IA : les données. Sans données de qualité, aucun système d’IA ne peut produire des résultats pertinents, continue Véronique Van Vlasselaer. Un agent IA ne fait pas exception ! »
Dans une deuxième étape, l’agent doit donner un sens à la question. Il doit l’interpréter et déterminer quelles informations sont nécessaires pour fournir une réponse correcte. « C’est ici que les LLM traditionnels atteignent leurs limites : ils comprennent souvent la question, mais manquent des connaissances spécifiques au domaine ou du contexte pour formuler une réponse précise. C’est là que les actifs d’entreprise comme les bases de données, les banques de connaissances et les modèles d’IA existants deviennent essentiels. »
Décision, action… et gouvernance !
Le troisième composant est le processus de décision. Sur la base des informations de l’étape précédente, l’agent IA d’entreprise décide de la meilleure stratégie ou action à entreprendre. « Ce qui distingue vraiment les agents, c’est la quatrième composante : la capacité à transformer une décision en action. Un agent le fait de manière plus autonome que ce à quoi nous sommes habitués, avec un besoin limité de supervision humaine. » Enfin, pour garantir la fiabilité des agents IA, une cinquième couche est nécessaire : la gouvernance. Elle est essentielle si l’on souhaite accroître l’autonomie des agents. Les agents IA d’entreprise sont avant tout des accélérateurs de productivité pour les collaborateurs. « En pratique, continue Véronique Van Vlasselaer, ce sont donc toujours les humains qui font le lien entre ce que l’agent produit et ce qui est effectivement communiqué ou décidé. En collectant des données sur les performances, il est possible d’affiner l’agent et de le rendre plus précis. L’Agentic AI demande une approche progressive, où l’on laisse les agents agir de plus en plus de manière autonome. Il faut bien délimiter leur champ d’autonomie dès le départ, et construire ensuite étape par étape. »
Détection de fraude
Du point de vue de l’augmentation de la productivité et en tant qu’assistants des humains, les agents IA existent en réalité depuis longtemps. « Ce qui manquait jusqu’à récemment, c’était l’intégration avec les LLM. Dans le secteur financier, par exemple, les banques utilisent depuis des décennies des systèmes de détection de fraude – une tâche presque impossible à gérer manuellement, et idéale pour l’automatisation via l’IA, et donc via des agents IA. »
Un modèle d’IA doit pour cela collecter des données pertinentes, comme le lieu, l’heure et le montant d’une transaction. Il a également accès à l’historique des transactions du client. À partir de ces données, l’IA recherche des motifs ou des anomalies pour décider si une carte de crédit doit être bloquée ou non.
« Il y a vingt à trente ans, on appelait cela du data mining, il y a dix ans du machine learning, et il y a cinq ans simplement de l’IA, schématise Véronique Van Vlasselaer. Aujourd’hui, on parle d’un agent IA qui, à l’instar d’un collègue humain, analyse si vos transactions par carte de crédit sont fiables. Pour la détection de fraude, un LLM n’est pas indispensable. Cependant, dans certains cas, une banque peut tout de même bénéficier de l’intégration avec un LLM. La Banque nationale de Grèce, par exemple, tire profit d’un modèle capable de traduire automatiquement les informations en grec, ce qui permet aux agents de communiquer et d’analyser dans la langue maternelle des clients. »
Comment rendre un agent IA fiable ?
En substance, les agents IA d’entreprise ne diffèrent pas beaucoup des modèles que nous utilisons depuis des années. Mais dès que ces systèmes gagnent en autonomie et qu’ils sont enrichis par des applications LLM, il faut porter une attention particulière à la gouvernance.
Première étape : définir le niveau d’autonomie souhaité. Tous les agents n’ont pas besoin d’être entièrement autonomes. Il est donc important de définir les capacités de l’agent et de les gérer de manière appropriée. Demandez-vous toujours s’il est nécessaire de connecter l’agent à un LLM. « Ces outils sont coûteux et énergivores, il faut donc les utiliser de manière ciblée. En principe, un LLM n’est utile que lorsqu’il s’agit de traiter du langage humain naturel. »
Ensuite, mettre en place des garde-fous pour encadrer le comportement des agents. Comme tout collaborateur humain, un agent IA a besoin de règles précises dans lesquelles il peut évoluer. La gouvernance permet de fixer ces limites. Que peut faire un agent IA ? Et surtout : que ne peut-il pas faire ? Prévoyez également des mécanismes de repli (« fallback ») capables de détecter des comportements non souhaités. Les réponses potentielles d’un LLM sont infinies, et le modèle peut alors chercher des réponses en dehors du cadre autorisé. Un mécanisme de repli freinera alors le modèle et lui signalera qu’il ne peut pas répondre à cette question.
Low-code/no-code, c’est évidemment plus simple
Bien sûr, on s’assurera que le raisonnement de l’agent soit traçable. C’est, pour Véronique Van Vlasselaer, la troisième étape. « Si vous comprenez comment une réponse a été produite, vous pouvez continuer à former et améliorer l’agent. Cela permet d’augmenter progressivement son autonomie et de décider quelles décisions peuvent être laissées à l’agent et lesquelles nécessitent l’intervention d’un humain. »
Optez pour une approche low-code/no-code, conseille encore Véronique Van Vlasselaer. « Si vous n’avez pas besoin de compétences en programmation pour construire un agent, il est beaucoup plus facile à maintenir. Et si vous pouvez visualiser de manière intuitive comment une décision a été prise, vous pouvez aussi facilement ajuster et optimiser l’outil. »
Depuis l’essor de la GenAI, de nombreuses organisations adoptent une approche plus mature de l’IA. « Les expérimentations se multiplient, et les entreprises commencent à percevoir la valeur des agents IA comme accélérateurs de productivité, conclut Véronique Van Vlasselaer. En parallèle, il est essentiel, dans cette évolution, de peser avec soin les bénéfices et les risques. Si cette balance est bien maîtrisée, les agents IA d’entreprise auront bel et bien un impact significatif sur le business. »