Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
Dit blog is geschreven door dr. Ernesto de León, dr. Fabio Votta, prof. dr. Theo Araujo en prof. dr. Claes de Vreese. Zij waarschuwen zij voor het gebruik van AI-systemen zoals ChatGPT als hulpmiddel bij het maken van een stemkeuze.

Zou je AI vragen op welke partij je moet stemmen?

Toen ruim 1.000 Nederlanders werd gevraagd hoe waarschijnlijk het is dat zij ChatGPT of een andere AI-tool zouden raadplegen voor advies over politieke partijen, kandidaten of verkiezingsthema’s, waren de resultaten zorgwekkend:

  • 77% zei dat dit onwaarschijnlijk is
  • 13% twijfelde (‘misschien’)
  • Maar 1 op de 10 gaf aan waarschijnlijk AI te gebruiken voor stemadvies

Als we dit vertalen naar de hele bevolking, betekent dit dat naar schatting 1,8 miljoen Nederlanders AI zouden kunnen raadplegen bij hun stemkeuze. En omdat mensen vaak gedrag dat als ‘sociaal onwenselijk’ minder vermelden, kan het werkelijke aantal nog hoger liggen.

Dit blijkt uit een onderzoek van het AlgoSoc-consortium (een samenwerking tussen de Universiteit van Amsterdam, Universiteit Utrecht, TU Delft, Tilburg University en Erasmus Universiteit Rotterdam). In aanloop naar de verkiezingen ondervroegen zij 1.220 Nederlanders over de vraag in hoeverre zij ChatGPT of een andere AI-chatbot zouden gebruiken voor stemadvies.

De data, afkomstig uit het LISS-panel van Centerdata, laten duidelijke verschillen zien per leeftijdsgroep. De bereidheid om AI te gebruiken neemt sterk af naarmate mensen ouder zijn:

  • 18-34 jaar: 17,2% waarschijnlijk, 18,6% misschien, 64,2% niet waarschijnlijk
  • 35-54 jaar: 8,4% waarschijnlijk, 15,9% misschien, 75,7% niet waarschijnlijk
  • 55 jaar en ouder: 5,9% waarschijnlijk, 9,9% misschien, 84,2% niet waarschijnlijk

Waarom je geen chatbots om stemadvies zou moeten vragen

De Autoriteit Persoonsgegevens (AP) heeft recent verschillende chatbots getest en deze vergeleken met betrouwbare tools zoals Kieskompas en StemWijzer. De conclusie is helder: AI-chatbots zijn niet geschikt om kiezers te adviseren.

Volgens het AP-rapport van oktober 2025 geven chatbots, ongeacht de antwoorden van de gebruiker, ‘verrassend vaak’ dezelfde twee partijen als beste match: PVV of GroenLinks-PvdA. In meer dan 56% van de gevallen kwam een van deze twee partijen bovenaan te staan. Bij één chatbot zelfs in meer dan 80% van de gevallen.

Daartegenover kwamen partijen zoals D66, VVD, SP of PvdD nauwelijks voor. Andere partijen zoals BBB, CDA, SGP en DENK waren vrijwel onzichtbaar, zelfs wanneer de standpunten van de gebruiker daarbij aansloten.

Met andere woorden: AI is bevooroordeeld en geeft onjuiste adviezen. Zoals AP-vicevoorzitter Monique Verdier zei: ‘Chatbots lijken slimme hulpmiddelen, maar als stemwijzer falen ze consequent. Kiezers kunnen ongemerkt worden gestuurd richting partijen die niet aansluiten bij hun opvattingen. Dit vormt een bedreiging voor de integriteit van vrije en eerlijke verkiezingen.’

AI-chatbots kunnen twijfelende kiezers misleiden

In tegenstelling tot officiële stemhulpen zijn chatbots niet ontworpen voor politieke doeleinden. De antwoorden van AI worden gegenereerd op basis van ongestructureerde gegevens van internet, waaronder sociale media en verouderde nieuwsbronnen.

Daardoor kunnen chatbots:

  • Feiten door elkaar halen of partijstandpunten verkeerd weergeven
  • Vooringenomenheid uit trainingsdata weerspiegelen
  • Informatie presenteren alsof deze objectief en correct is

Een chatbot klinkt misschien zelfverzekerd, maar dat betekent niet dat het antwoord klopt.

Dit is zorgelijk, omdat veel kiezers pas kort voor de verkiezingen actief op zoek gaan naar stemadvies. Op het moment dat de aandacht groot is, maar de tijd om na te denken beperkt. Onderzoek laat zien dat veel mensen tools zoals StemWijzer of Kieskompas pas enkele dagen voor de verkiezingen gebruiken (Van de Pol et al., 2014). Het is aannemelijk dat AI-chatbots op dezelfde manier zullen worden geraadpleegd, maar deze tools zijn niet transparant, niet gecontroleerd en niet ontworpen voor deze taak.

Dus als je vandaag naar de stembus gaat… sla dan het gesprek met ChatGPT over.

Veel Nederlanders maken zich zorgen

Niet alleen experts luiden de noodklok, ook burgers zelf zien de risico’s. In ons onderzoek gaf bijna zeven op de tien Nederlanders (69,2%) aan zich zorgen te maken dat anderen verkeerde politieke informatie ontvangen via AI-tools.

Dit laat zien dat het bewustzijn onder de mensen hoog is. Chatbots klinken slim maar zijn niet neutraal, en hun invloed kan een vertekende beeld schetsen van het politieke landschap.

E.E. (Ernesto) de León Williams

Faculteit der Maatschappij- en Gedragswetenschappen

Programmagroep: Political Communication & Journalism

F.A. (Fabio) Votta

Faculteit der Maatschappij- en Gedragswetenschappen

Programmagroep: Political Communication & Journalism

Prof. dr. T.B. (Theo) Araujo

Faculteit der Maatschappij- en Gedragswetenschappen

ASCoR

Prof. dr. C.H. (Claes) de Vreese

Bestuur en Bestuursstaf