Voor bedrijven is het moeilijk om het razende tempo van Agentic AI bij te houden, maar dat zal wel moeten.
Het vermogen van de AI-agent om autonoom te handelen opent nieuwe perspectieven op verschillende gebieden, op voorwaarde dat het onder de knie wordt gekregen. Uitgewerkt door Véronique Van Vlasselaer, Analytics AI Lead, South West East Europe, SAS
Agentic AI wordt gepresenteerd als de volgende revolutie die organisaties niet mogen negeren. Er wordt zelfs gesproken over echte “digitale medewerkers” die naast het menselijk personeel zouden werken. Maar moeten we echt een dergelijke ontwikkeling verwachten? En waar ligt de grens van de autonomie die we AI-agenten willen geven?
Om deze vragen te beantwoorden, moeten we eerst begrijpen wat AI-agents in bedrijven eigenlijk doen. “Ze zijn in feite gebaseerd op dezelfde bedrijfsgegevens en AI-middelen die we al jaren gebruiken”, zegt Véronique Van Vlasselaer meteen. Maar de agents gaan een stap verder dan eenvoudige chatbot-toepassingen die zijn ontwikkeld met grote taalmodellen (LLM’s), die al snel hun grenzen bereiken. Een LLM heeft namelijk geen toegang tot tools en maakt geen verbinding met gegevens, analytische rapporten of AI-modellen.
“Als je een LLM bijvoorbeeld vraagt waarom een klant het bedrijf wil verlaten, zal het model niet in staat zijn om te antwoorden. Een bedrijfs-AI-agent kan daarentegen specifieke klantinformatie gebruiken in zijn antwoord. Een AI-agent is een systeem dat verschillende intelligente modules met elkaar verbindt en deze gebruikt om je optimaal te ondersteunen.”
Perceptie en interpretatie
In dit kader zijn verschillende componenten essentieel. Ten eerste de waarneming. Een agent moet eerst de situatie waarnemen. Dat begint met het verzamelen van informatie uit verschillende bronnen. “Dat brengt ons terug bij de basis, die essentieel is voor elke vorm van AI: data. Zonder kwalitatieve data kan geen enkel AI-systeem relevante resultaten opleveren”, vervolgt Véronique Van Vlasselaer. “Een AI-agent vormt daarop geen uitzondering!”
In een tweede stap moet de agent betekenis geven aan de vraag. Hij moet deze interpreteren en bepalen welke informatie nodig is om een correct antwoord te geven. “Hier bereiken traditionele LLM’s hun grenzen: ze begrijpen de vraag vaak wel, maar missen de domeinspecifieke kennis of context om een nauwkeurig antwoord te formuleren. Daar worden bedrijfsactiva zoals databases, kennisbanken en bestaande AI-modellen essentieel.”
Beslissing, actie… en governance!
De derde component is het besluitvormingsproces. Op basis van de informatie uit de vorige stap beslist de bedrijfs-AI-agent wat de beste strategie of actie is. “Wat agenten echt onderscheidt, is de vierde component: het vermogen om een beslissing om te zetten in actie. Een agent doet dit op een meer autonome manier dan we gewend zijn, met een beperkte behoefte aan menselijk toezicht. ” Ten slotte is er een vijfde laag nodig om de betrouwbaarheid van AI-agenten te garanderen: governance. Dit is essentieel als we de autonomie van agenten willen vergroten. Bedrijfs-AI-agenten zijn in de eerste plaats productiviteitsversnellers voor medewerkers. “In de praktijk”, vervolgt Véronique Van Vlasselaer, “zijn het dus altijd mensen die de link leggen tussen wat de agent produceert en wat er daadwerkelijk wordt gecommuniceerd of besloten. Door prestatiegegevens te verzamelen, kan de agent worden verfijnd en nauwkeuriger worden gemaakt. Agentic AI vereist een stapsgewijze aanpak, waarbij de agents steeds autonomer worden. Hun autonomie moet vanaf het begin duidelijk worden afgebakend en vervolgens stap voor stap worden uitgebreid.”
Fraudedetectie
Vanuit het oogpunt van productiviteitsverhoging en als assistenten van mensen bestaan AI-agenten eigenlijk al lang. “Wat tot voor kort ontbrak, was de integratie met LLM’s. In de financiële sector bijvoorbeeld gebruiken banken al tientallen jaren fraudedetectiesystemen – een taak die bijna onmogelijk handmatig kan worden uitgevoerd en ideaal is voor automatisering via AI, en dus via AI-agenten.”
Een AI-model moet daarvoor relevante gegevens verzamelen, zoals de plaats, het tijdstip en het bedrag van een transactie. Het heeft ook toegang tot de transactiegeschiedenis van de klant. Op basis van deze gegevens zoekt de AI- naar patronen of afwijkingen om te beslissen of een creditcard moet worden geblokkeerd of niet.
“Twintig tot dertig jaar geleden noemden we dit datamining, tien jaar geleden machine learning en vijf jaar geleden gewoon AI“, schetst Véronique Van Vlasselaer. Vandaag hebben we het over een AI-agent die, net als een menselijke collega, analyseert of uw creditcardtransacties betrouwbaar zijn. Voor fraudedetectie is een LLM niet essentieel. In sommige gevallen kan een bank echter wel baat hebben bij integratie met een LLM. De Nationale Bank van Griekenland maakt bijvoorbeeld gebruik van een model dat informatie automatisch naar het Grieks vertaalt, waardoor medewerkers in de moedertaal van de klanten kunnen communiceren en analyseren.”
Hoe maak je een AI-agent betrouwbaar?
In wezen verschillen AI-agenten voor bedrijven niet veel van de modellen die we al jaren gebruiken. Maar zodra deze systemen autonomer worden en worden verrijkt met LLM-toepassingen, moet er bijzondere aandacht worden besteed aan governance.
Eerste stap: het gewenste niveau van autonomie bepalen. Niet alle agents hoeven volledig autonoom te zijn. Het is dus belangrijk om de capaciteiten van de agent te definiëren en deze op de juiste manier te beheren. Vraag u altijd af of het nodig is om de agent aan een LLM te koppelen. “Deze tools zijn duur en energieverslindend, dus moeten ze gericht worden ingezet. In principe is een LLM alleen nuttig als het gaat om het verwerken van natuurlijke menselijke taal.”
Zet vervolgens waarborgen in om het gedrag van de agents te kaderen. Net als elke menselijke medewerker heeft een AI-agent duidelijke regels nodig waarbinnen hij kan evolueren. Governance maakt het mogelijk om deze grenzen vast te leggen. Wat kan een AI-agent doen? En vooral: wat kan hij niet doen? Voorzie ook fallback-mechanismen die ongewenst gedrag kunnen detecteren. De mogelijke antwoorden van een LLM zijn oneindig, en het model kan dan antwoorden zoeken buiten het toegestane kader. Een fallback-mechanisme remt het model dan af en geeft aan dat het deze vraag niet kan beantwoorden.
Low-code/no-code is natuurlijk eenvoudiger
Uiteraard moet ervoor worden gezorgd dat de redenering van de agent traceerbaar is.
Dat is volgens Véronique Van Vlasselaer de derde stap. “Als je begrijpt hoe een antwoord tot stand is gekomen, kun je de agent verder trainen en verbeteren. Zo kun je zijn autonomie geleidelijk vergroten en beslissen welke beslissingen aan de agent kunnen worden overgelaten en welke de tussenkomst van een mens vereisen.”
Kies voor een low-code/no-code-aanpak, adviseert Véronique Van Vlasselaer. “Als je geen programmeervaardigheden nodig hebt om een agent te bouwen, is deze veel gemakkelijker te onderhouden. En als je intuïtief kunt zien hoe een beslissing tot stand is gekomen, kun je de tool ook gemakkelijk aanpassen en optimaliseren.”
Sinds de opkomst van GenAI hanteren veel organisaties een meer volwassen benadering van AI. “Er wordt steeds meer geëxperimenteerd en bedrijven beginnen de waarde van AI-agents als productiviteitsversnellers in te zien”, concludeert Véronique Van Vlasselaer. “Tegelijkertijd is het essentieel om in deze evolutie de voordelen en risico’s zorgvuldig af te wegen. Als deze balans goed wordt gevonden, zullen AI-agents voor bedrijven een aanzienlijke impact hebben op de bedrijfsvoering.”