29 oktober 2025
Toen ruim 1.000 Nederlanders werd gevraagd hoe waarschijnlijk het is dat zij ChatGPT of een andere AI-tool zouden raadplegen voor advies over politieke partijen, kandidaten of verkiezingsthema’s, waren de resultaten zorgwekkend:
Als we dit vertalen naar de hele bevolking, betekent dit dat naar schatting 1,8 miljoen Nederlanders AI zouden kunnen raadplegen bij hun stemkeuze. En omdat mensen vaak gedrag dat als ‘sociaal onwenselijk’ minder vermelden, kan het werkelijke aantal nog hoger liggen.
Dit blijkt uit een onderzoek van het AlgoSoc-consortium (een samenwerking tussen de Universiteit van Amsterdam, Universiteit Utrecht, TU Delft, Tilburg University en Erasmus Universiteit Rotterdam). In aanloop naar de verkiezingen ondervroegen zij 1.220 Nederlanders over de vraag in hoeverre zij ChatGPT of een andere AI-chatbot zouden gebruiken voor stemadvies.
De data, afkomstig uit het LISS-panel van Centerdata, laten duidelijke verschillen zien per leeftijdsgroep. De bereidheid om AI te gebruiken neemt sterk af naarmate mensen ouder zijn:
De Autoriteit Persoonsgegevens (AP) heeft recent verschillende chatbots getest en deze vergeleken met betrouwbare tools zoals Kieskompas en StemWijzer. De conclusie is helder: AI-chatbots zijn niet geschikt om kiezers te adviseren.
Volgens het AP-rapport van oktober 2025 geven chatbots, ongeacht de antwoorden van de gebruiker, ‘verrassend vaak’ dezelfde twee partijen als beste match: PVV of GroenLinks-PvdA. In meer dan 56% van de gevallen kwam een van deze twee partijen bovenaan te staan. Bij één chatbot zelfs in meer dan 80% van de gevallen.
Daartegenover kwamen partijen zoals D66, VVD, SP of PvdD nauwelijks voor. Andere partijen zoals BBB, CDA, SGP en DENK waren vrijwel onzichtbaar, zelfs wanneer de standpunten van de gebruiker daarbij aansloten.
Met andere woorden: AI is bevooroordeeld en geeft onjuiste adviezen. Zoals AP-vicevoorzitter Monique Verdier zei: ‘Chatbots lijken slimme hulpmiddelen, maar als stemwijzer falen ze consequent. Kiezers kunnen ongemerkt worden gestuurd richting partijen die niet aansluiten bij hun opvattingen. Dit vormt een bedreiging voor de integriteit van vrije en eerlijke verkiezingen.’
In tegenstelling tot officiële stemhulpen zijn chatbots niet ontworpen voor politieke doeleinden. De antwoorden van AI worden gegenereerd op basis van ongestructureerde gegevens van internet, waaronder sociale media en verouderde nieuwsbronnen.
Daardoor kunnen chatbots:
Een chatbot klinkt misschien zelfverzekerd, maar dat betekent niet dat het antwoord klopt.
Dit is zorgelijk, omdat veel kiezers pas kort voor de verkiezingen actief op zoek gaan naar stemadvies. Op het moment dat de aandacht groot is, maar de tijd om na te denken beperkt. Onderzoek laat zien dat veel mensen tools zoals StemWijzer of Kieskompas pas enkele dagen voor de verkiezingen gebruiken (Van de Pol et al., 2014). Het is aannemelijk dat AI-chatbots op dezelfde manier zullen worden geraadpleegd, maar deze tools zijn niet transparant, niet gecontroleerd en niet ontworpen voor deze taak.
Dus als je vandaag naar de stembus gaat… sla dan het gesprek met ChatGPT over.
Niet alleen experts luiden de noodklok, ook burgers zelf zien de risico’s. In ons onderzoek gaf bijna zeven op de tien Nederlanders (69,2%) aan zich zorgen te maken dat anderen verkeerde politieke informatie ontvangen via AI-tools.
Dit laat zien dat het bewustzijn onder de mensen hoog is. Chatbots klinken slim maar zijn niet neutraal, en hun invloed kan een vertekende beeld schetsen van het politieke landschap.