AI laat zich niet (meer) zo makkelijk voor het karretje spannen
Meerdere recente onderzoeken laten zien dat populaire AI-chatbots vaak pro-Kremlin-narratieven herhalen. Een nieuw onderzoek van WebWatch – naar de huidige staat van populaire taalmodellen – laat een ander beeld zien: de resultaten van ruim 23.000 politieke prompts leverden geen enkele ‘echte’ verwijzing naar .ru-domeinen of andere bronnen die gelinkt worden aan buitenlandse staatsactoren.
Eerdere audits – zoals die van Pointer – kozen voor politiek geladen of controversiële prompts, soms letterlijk gebaseerd op de inhoud van propaganda sites of geschreven vanuit het perspectief van een redacteur van zo’n bron. Ook internationale artikelen werken vaak met dat principe: test wat er gebeurt als je een taalmodel rechtstreeks confronteert met de twijfelachtige claims of framing van Pravda-achtige-netwerken. Vanuit die opzet kun je makkelijk resultaten verwachten; het is alsof je Google aanspreekt op een propaganda-artikel hoog in de zoekresultaten, terwijl je precies op de titel van een van die artikelen aan het zoeken bent.
Daarom kozen wij voor een minder gekleurde aanpak: neutrale verkiezingsvragen in het Nederlands en het Engels, vlak voor de verkiezingen, in totaal 23.100 keer gesteld aan veertien modellen (OpenAI, Anthropic, Google, Meta, Mistral, xAI en DeepSeek) alleen om bronverwijzing te meten. Geen zoektocht naar citaten of narratieven: bij elke vraag vroegen we simpelweg “waar haal je de informatie vandaan?” Slechts één ‘verdachte’ site kwam omhoog, maar stond daar met een goede reden: de vraag ging over hoe “eerlijk” media is, en Russia-Today werd meegenomen in het beantwoorden van die prompt.
Het verschil met andere onderzoeken is groot, vooral door een andere meetlat: ISD (oktober 2025) laat gevallen zien waarin chatbots expliciet naar Russische staatsmedia verwijzen; zij rapporteren een grootte van 18% wat gaat over antwoorden ‘die referenties/citaten naar staatsmedia kunnen bevatten’. NewsGuard (maart 2025) rapporteert als een van de eerste over de mogelijke omvang van AI-beïnvloeding: 33% kans op het reproduceren van valse claims uit het Pravda-ecosysteem. Vergeleken met onze opzet (zo neutraal mogelijk, Nederlands en Engelstalig, bron als enige observatie) zijn de vondsten dus lastig te vergelijken.
Onze conclusie is daarom voorzichtig optimistisch: de zichtbare verwijzingen naar propagandabronnen zijn ofwel (sterk) teruggedrongen, of minder aanwezig dan eerdere audits doen vermoeden. Dit onderzoek zegt echter niets over de inhoud van de reacties – onze analyse ging uitsluitend over verwijzingen in de antwoorden, niet over de inhoud zelf. Of pogingen van staatsactoren om chatbots te beïnvloeden echt minder effectief zijn, blijft onduidelijk. Wel lijkt er bij de grote LLM aanbieders te zijn gesleuteld aan hun citeer- en zoekfilters, om op die manier .ru-domeinen en staatspropaganda-sites te ontwijken.
Methode
Dit onderzoek is uitgevoerd door WebWatch in de week voorafgaand aan de Tweede Kamerverkiezingen van 2025. Na onze publicatie over de Nederlandse versie van pro-Kremlin propaganda website Pravda, vroegen we ons af in hoeverre we hun enorme output expliciet terugzien in chatbots. Het doel was vaststellen in hoeverre grote taalmodellen bij politieke vragen in Nederland verwijzen naar bronnen zoals staatspropaganda of buitenlandse beïnvloeding, gezien de eerdere vermoedens van AI-grooming door de Russische staat.
We formuleerden dertig neutrale verkiezingsvragen in zowel het Nederlands als het Engels, gericht op algemene thema’s als vertrouwen, coalitievorming, leiderschap en campagne-invloed, met de toevoeging dat we expliciete bronvermelding wilden krijgen. De vragen bevatten geen sturende, partijgebonden of controversiële elementen of onderwerpen en zijn ontworpen om de modellen te laten reageren binnen een normale prompt — niet binnen een factcheck- of propaganda-discussie.