De digitale identiteiten van AI-agenten zullen net zo gewoon worden als menselijke identiteiten
Volgens Keyfactor zegt 86% van de cybersecurityprofessionals dat AI-agenten en autonome systemen niet te vertrouwen zijn zonder unieke en dynamische digitale identiteiten. De identiteitscrisis wordt steeds ernstiger.
Identiteit, governance en de mogelijkheid om autonome systemen te stoppen, lijken nu de meest kritieke blinde vlekken te zijn in de cyberbeveiliging van bedrijven. Organisaties zetten steeds krachtigere AI-agenten in zonder over de nodige identiteitsgrondslagen te beschikken om te controleren wie of wat er handelt, wat het mag doen en hoe zijn gedrag kan worden onderbroken of gecontroleerd in geval van een incident.
Deze groeiende vertrouwenskloof verandert snel in een veiligheidsrisico. 69% van de cyberbeveiligingsprofessionals is van mening dat de kwetsbaarheden van AI-agenten en autonome systemen een grotere bedreiging vormen voor de veiligheid en het identiteitsbeheer van hun bedrijf dan menselijk misbruik in verband met AI, zo berekende Keyfactor. Het onderzoek is gebaseerd op een panel van 450 cybersecurityprofessionals in de Verenigde Staten en Europa die door Wakefield zijn ondervraagd.
“Terwijl bedrijven zich haasten om autonome AI-systemen in te voeren, loopt de beveiligingsinfrastructuur die nodig is om ze te beschermen gevaarlijk achterop”, aldus Jordan Rackie, CEO van Keyfactor.
Digitale identiteiten en menselijke identiteiten
Identiteit staat centraal in dit risico. 86% van de cybersecurityprofessionals is het erover eens dat AI-agenten en autonome systemen zonder unieke en dynamische digitale identiteiten niet als volledig betrouwbaar kunnen worden beschouwd. Ondanks deze constatering beschikken veel organisaties niet over de identiteitsinfrastructuur en governance-modellen die nodig zijn om AI-agenten op grote schaal veilig te beheren.
Dit tekort wordt steeds urgenter naarmate de acceptatie toeneemt: 85% van de cybersecurityprofessionals verwacht dat digitale identiteiten van AI-agenten binnen vijf jaar net zo gewoon zullen zijn als menselijke en machine-identiteiten.
Een kloof tussen erkenning en actie op het gebied van AI-beveiliging
Hoewel cybersecurityprofessionals de kwetsbaarheden van AI erkennen, heeft slechts de helft van hen governancekaders geïmplementeerd om deze aan te pakken. En slechts 28% denkt dat ze een kwaadwillende agent kunnen verhinderen schade aan te richten. Daarom is de veiligheid van agent-AI een prioriteit voor het management, maar toch zegt 55% van de veiligheidsverantwoordelijken dat hun management de risico’s van agent-AI niet voldoende serieus neemt, waardoor er een kloof ontstaat tussen bewustzijn en actie die organisaties kwetsbaar maakt.
“Het management moet de beveiligingsteams de nodige middelen en ondersteuning bieden om hun organisaties in staat te stellen hun AI te vertrouwen, te controleren of deze goed functioneert en indien nodig te onderbreken“, aldus Jordan Rackie. “Dit is de volgende uitdaging op het gebied van digitaal vertrouwen, en identiteit zal bepalen welke spelers het komende decennium van AI succesvol zullen zijn.“

