Llama 4 heeft niet “een nieuwe bladzijde omgeslagen”, maar past zich aan aan de feedback van gebruikers

AI’s worden steeds rechtser. Er wordt een bladzijde omgeslagen. Geen wonder: ze passen zich aan de context aan. Zullen we ze binnenkort kiezen op basis van onze politieke overtuigingen?

Met Llama 4 belooft Meta een krachtigere AI… en een die “minder links” is. Het bedrijf beweert een aantal progressieve neigingen uit zijn model te hebben verwijderd, in een tijd waarin vrijheid van meningsuiting een nieuw ideologisch vaandel wordt voor techgiganten in het Trump-tijdperk. Kortom, een nieuwe AI in lijn met zijn nieuwe ‘redactionele’ lijn.

Minder politiek ‘bevooroordeeld‘ dan zijn voorgangers. Tenminste, dat is hoe Meta het presenteert. In de blogpost waarin het model wordt onthuld, schrijft het bedrijf dat “het algemeen bekend is dat alle grote LLM’s vooringenomenheidsproblemen hebben (…) ze leunen historisch gezien naar links als het gaat om gedebatteerde politieke en sociale onderwerpen. Dit komt door de trainingsgegevens die beschikbaar zijn op internet.” Het bedrijf zegt dat het eraan heeft gewerkt om “vooroordelen te verwijderen” uit zijn AI-modellen om ervoor te zorgen dat Llama “beide kanten van een controversieel onderwerp kan begrijpen en verwoorden.”

Minder links dus. In de industrie is het een verschuiving. AI is altijd links geweest. Dat beweerde de start-up Trickstr, gespecialiseerd in de online reputatie van beroemdheden en bedrijven, onlangs – met ondersteunend bewijs – toen zijn experts verschillende AI-modellen testten.

ChatGPT of WokeGPT?

De vraag lijkt misschien onlogisch, maar werd opnieuw krachtig gesteld in de media toen Elon Musk de lancering aankondigde van Grok, gepresenteerd als een ideologische concurrent voor chatGPT, door de miljardair omgedoopt tot “WokeGPT”.

In de studie “Turning right? An experimental study on the political value shift in large language models” pasten drie Chinese onderzoekers de politieke kompas test aan door deze te combineren met rigoureuze bootstrapping technieken om een gestandaardiseerde methode te creëren voor het testen van politieke waarden in AI. Deze aanpak werd toegepast op verschillende versies van ChatGPT, waarbij een dataset van meer dan 3000 tests werd gebruikt om de robuustheid ervan te garanderen. De resultaten lieten zien dat, hoewel nieuwe versies van ChatGPT consequent waarden in het kwadrant libertarisch-links handhaven, er een statistisch significante verschuiving naar rechts in politieke waarden in de loop der tijd plaatsvindt. Met andere woorden, een “verschuiving in waarden” in de belangrijkste taalkundige modellen. Deze verschuiving is vooral opmerkelijk gezien het wijdverbreide gebruik van LLM’s en hun potentiële invloed op maatschappelijke waarden.

Een verandering van hart met een goede reden

De onderzoekers kwamen met drie theorieën om deze verschuiving naar rechts te verklaren: een verandering in de datasets die werden gebruikt om hun modellen te trainen, het aantal interacties met gebruikers of veranderingen en updates aan de chatbot.

Modellen zoals ChatGPT “leren voortdurend en passen zich aan op basis van feedback van gebruikers”, dus hun verschuiving naar rechts zou “een weerspiegeling kunnen zijn van bredere maatschappelijke veranderingen in politieke waarden”, vervolgt het onderzoek.

Polariserende gebeurtenissen in de wereld, zoals de oorlog tussen Rusland en Oekraïne, kunnen ook de vragen versterken die gebruikers stellen aan LLM’s en de antwoorden die ze krijgen.

Als dit niet wordt gecontroleerd, waarschuwden de onderzoekers dat AI-chatbots “bevooroordeelde informatie” zouden kunnen gaan leveren, waardoor de samenleving verder gepolariseerd zou kunnen raken of “echokamers” zouden kunnen ontstaan die de specifieke overtuigingen van een gebruiker versterken.

Hiaten in AI-regelgeving

Het onderzoek benadrukt de unanieme behoefte binnen organisaties aan strengere regelgeving om een veilig en ethisch gebruik van AI te waarborgen. 92% van de respondenten van grote bedrijven is van mening dat meer regelgeving essentieel is voor een succesvolle en verantwoorde implementatie van AI.

Deze vraag naar meer regulering komt voort uit een aantal belangrijke factoren, waaronder meer transparantie van AI-gebaseerde beslissingen en het beperken van algoritmische vooroordelen. Volgens het onderzoek staat de bescherming van de privacy van gegevens bovenaan de lijst van punten van zorg: 62% van de bedrijven erkent het belang ervan voor de bescherming van vertrouwelijke informatie tegen misbruik en datalekken. Tegelijkertijd wil 57% van de bedrijven transparantere regelgeving, met duidelijkere richtlijnen en informatie over hoe AI-systemen werken en hoe beslissingen worden genomen. Het waarborgen van ethisch gebruik van AI komt op de derde plaats (55%), wat de behoefte aan kaders benadrukt die vooroordelen voorkomen en eerlijkheid in AI-toepassingen bevorderen.

Dit sentiment onderstreept de urgentie van een proactiever bestuur en de noodzaak van uitgebreide regelgevingskaders om gelijke tred te houden met de snelle ontwikkelingen op het gebied van AI-technologieën. Een significante meerderheid van de grote bedrijven is bezorgd dat hun overheid (71%) en hun sector (64%) achterlopen op de behoefte aan adequate AI-regelgeving.

Zorgen over AI-privacy en -beveiliging zijn de belangrijkste bronnen van vraag naar duidelijkheid in de regelgeving in de VS. Als volwassen markt die het vertrouwen van de consument en de naleving van AI hoog in het vaandel heeft staan, richten Amerikaanse bedrijven zich op het ontwikkelen van kaders die deze aspecten prioriteit geven. Dit weerspiegelt een regelgevingslandschap dat sterk wordt beïnvloed door de veranderende verwachtingen van de consument en wettelijke vereisten.

Zoals uit het onderzoek blijkt, ontbreekt het organisaties in alle regio’s aan adequate AI-regelgeving. Een uniforme aanpak is hier waarschijnlijk niet effectief, omdat de diversiteit aan maatschappelijke prioriteiten en regelgevingskaders oplossingen op maat vereist om de specifieke uitdagingen van AI aan te gaan.

“Wat Deepseek heeft gedaan, is in zekere zin de kunst van het mogelijke laten zien”, voegt hij eraan toe.

Hangzhou ontwikkelde Deepseek ondanks Amerikaanse exportcontroles op de krachtige GPU’s die vaak worden gebruikt voor het ontwerpen en testen van AI-modellen. Dit bewijst hoe snel geavanceerde AI-modellen ondanks obstakels kunnen ontstaan, voegt Adnan Masood toe, hoofd AI-architect bij digital transformation consultancy UST.

Door de lagere instapkosten is het nu makkelijker voor organisaties om krachtige AI te creëren… waarin culturele en politieke vooroordelen zijn verwerkt. In het veld betekent dit dat hele bevolkingsgroepen onbewust verhalen kunnen consumeren die zijn gevormd door een machine voor buitenlands beleid”, legt Adnan Masood uit. Tegen de tijd dat beleidsmakers zich dit realiseren, kunnen deze verhalen al in het publieke brein zijn verankerd.

Technologie in dienst van propaganda

Hoewel maar weinig mensen hebben gesproken over AI-modellen als propagandamiddelen, zou dit aspect niet als een grote verrassing moeten komen, voegt Dhaval Moogimane toe. Veel technologieën, waaronder televisie, internet en sociale media, werden immers middelen om politieke en culturele agenda’s te promoten toen ze de massamarkt bereikten. CIO’s en IT-managers moeten zich bewust zijn van de mogelijkheid dat de Chinese overheid en andere organisaties hun eigen ideeën door middel van AI-modellen doordrukken, voegt hij eraan toe.

Door middel van trainingsfasen, “is er een kans om modellen te gebruiken om het verhaal vorm te geven, gedachten vorm te geven, resultaten vorm te geven, in veel opzichten vorm te geven aan wat wordt gedeeld”, voegt de West Monroe executive toe. AI is in opkomst als een nieuw instrument voor zogenaamde soft power, merkt hij op.

Als Deepseek en andere AI-modellen verwijzingen naar historisch gevoelige incidenten beperken of door de staat goedgekeurde standpunten over betwiste gebieden weerspiegelen – twee mogelijke vooroordelen die zijn ingebouwd in AI die door China is ontwikkeld – worden deze modellen veranderaars in wereldwijde culturele debatten, voegt Adnan Masood (UST) toe.

De uitdaging van het valideren van modellen

In onze tijd is AI een krachtvermeerderaar geworden voor ideologische conformiteit en de export van nationale elementen van soft power,” legt Adnan Masood uit. Nu deepfakes en geautomatiseerde chatbots het publieke debat al overspoelen, is het duidelijk dat AI een leiderschapstool met grote impact aan het worden is voor culturele en politieke positionering.”

AI houdt al veel mensen voor de gek als het wordt gebruikt om deepfakes en andere vormen van desinformatie te creëren, maar de vooroordelen binnen een AI trainingstool kunnen nog subtieler zijn, voegt Dhaval Moogimane toe. “Uiteindelijk zal het testen en trainen nodig zijn om ervoor te zorgen dat je sommige culturele invloeden en modelresultaten valideert, maar dat zal een uitdaging zijn,” voegt hij eraan toe.

Wees voorzichtig bij het kiezen van AI-modellen

Dhaval Moogimane raadt bedrijven aan om modulaire AI-architecturen te creëren, zodat ze gemakkelijk nieuwe modellen kunnen overnemen wanneer deze worden uitgebracht. “Er zullen voortdurend innovaties in modellen plaatsvinden naarmate de technologie zich ontwikkelt”, zegt hij. “Zorg ervoor dat je een schaalbare architectuur maakt, zodat je templates na verloop van tijd kunt vervangen.”

Naast het bouwen van een modulaire AI-infrastructuur moeten CIO’s AI-tools en frameworks ook zorgvuldig evalueren op het gebied van schaalbaarheid, beveiliging, naleving van regelgeving en eerlijkheid voordat ze deze selecteren, voegt Adnan Masood toe. CIO’s kunnen gebruikmaken van al bestaande raamwerken zoals het NIST AI Risk Management Framework, de OESO Principes of de Trustworthy AI Guidelines van de EU om de betrouwbaarheid en transparantie van modellen te beoordelen, voegt hij eraan toe. CIO’s moeten hun AI-tools voortdurend controleren en een verantwoord beheer van hun levenscyclus uitoefenen.

“Door dit te doen, zorgen ze ervoor dat AI-systemen waarde toevoegen aan het bedrijf door middel van productiviteits- en efficiëntiewinst, maar ook dat ze het vertrouwen van verschillende belanghebbenden behouden en zich houden aan de principes van verantwoorde AI,” voegt de hoofd AI-architect van UST toe.

CIO’s en andere AI-beslissers moeten kritisch nadenken over de uitkomsten van hun AI-modellen, net zoals consumenten van sociale media de nauwkeurigheid moeten beoordelen van de informatie die ze ontvangen, zegt Stepan Solovev, CEO en medeoprichter van Soax, leverancier van een dataminingplatform. Sommige mensen proberen te begrijpen wat waar is en wat niet, maar anderen consumeren gewoon wat ze ontvangen en nemen niet de moeite om de feiten te controleren,” legt hij uit. Dat is het meest verontrustende aspect van al deze technologische revoluties: mensen denken over het algemeen niet kritisch na, vooral als het gaat om de eerste prompt die je aan AI voorlegt of de eerste resultaten die je krijgt bij zoekmachines.”

In sommige gevallen zullen IT-managers niet kijken naar LLM’s zoals Deepseek om gespecialiseerde AI-tools te trainen en zullen ze vanaf het begin vertrouwen op meer gespecialiseerde modellen, legt hij uit. In deze situaties is de kans kleiner dat gebruikers te maken krijgen met een cultureel vooringenomen trainingsmodel.

Toch moeten CIO’s de resultaten tussen modellen vergelijken of andere methoden gebruiken om de resultaten te verifiëren, suggereert Stepan Solovev. Als een AI een bevooroordeelde boodschap uitzendt, kan een andere AI, of menselijke factcheckers versterkt door de AI, deze net zo snel weerleggen”, voegt hij eraan toe. We zullen een kat-en-muisspel zien, maar na verloop van tijd denk ik dat waarheid en transparantie het zullen winnen, vooral in een open marktplaats van ideeën.”

Concurrentie als remedie

“De uitdaging is om deze eerlijke concurrentie in stand te houden en ervoor te zorgen dat bedrijven en individuen toegang hebben tot verschillende modellen zodat ze deze kunnen vergelijken,” voegt Stepan Solovev toe. Net als Solovev ziet Manuj Aggarwal, oprichter en CIO van IT- en AI-oplossingenleverancier TetraNoodle Technologies, de snelle uitbreiding van de AI-markt als een manier om de mogelijke vooringenomenheid van een Deepseek of andere LLM’s aan te pakken.

“Het is zeer onwaarschijnlijk dat één model een grote invloed zal hebben op de wereld,” zegt hij. Deepseek is slechts een van de vele modellen, en binnenkort zullen we er duizenden zien uit alle hoeken van de wereld. Geen enkele AI kan grootschalige verhalen dicteren wanneer zoveel verschillende systemen op elkaar inwerken.”

Sinds de release van Deepseek heeft Mistral AI bijvoorbeeld zijn AI-model vrijgegeven onder een open licentie, en modellen zoals Meta’s Llama en xAI’s Grok waren al beschikbaar als open source, merken Manuj Aggarwal en andere AI-experts op. Desondanks raadt de oprichter van Terra Noodle CIO’s die LLM’s gebruiken om hun eigen AI-modellen te trainen aan om zich te beperken tot merken die ze vertrouwen.

“Sinds [Barack] Obama voor het eerst werd gekozen, hebben [politieke] campagnes vertrouwd op AI-gebaseerde analyses om nauwkeurig op kiezers te richten,” legt hij uit. Vandaag de dag, met modellen zoals Deepseek, staat er nog meer op het spel. Het is niet de vraag of AI zal worden gebruikt voor propagandadoeleinden; het is de vraag hoeveel controle de verschillende entiteiten zullen hebben” om deze pogingen tegen te gaan.