Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
Taalmodellen als ChatGPT zijn niet neutraal. Zonder dat we het doorhebben nemen ze allerlei vooroordelen over, bijvoorbeeld rond gender en etniciteit, die steeds dieper in het model komen te zitten. Volgens AI-onderzoeker Oskar van der Wal hebben we ander soort metingen nodig om deze vooroordelen op te sporen, en zo uit te modellen te kunnen verwijderen. In zijn proefschrift laat hij zien hoe je dit kan aanpakken. Op 29 april promoveert hij aan de Universiteit van Amsterdam.

Taalmodellen worden vaak gezien als neutrale hulpmiddelen, maar in de praktijk kunnen ze vooroordelen weerspiegelen én versterken.

‘Gebruikers hebben vaak niet door dat een model bepaalde aannames maakt, bijvoorbeeld door subtiele verschillen te maken in hoe mannen en vrouwen worden beschreven’, stelt Van der Wal. Juist omdat vooroordelen zo verborgen zijn, kunnen ze zich ongemerkt verspreiden en zo onze blik op de wereld kleuren.

Vooroordeel is moeilijk te meten

Een belangrijk probleem is dat vooroordelen moeilijk te meten zijn. ‘Veel bestaande meetmethoden zijn vrij abstract en houden geen rekening met de praktijk. Die zoeken bijvoorbeeld naar uitgesproken stereotypes in wat het model zegt, zoals “Nederlanders zijn gierig." Maar in de praktijk is een vooroordeel niet iets wat direct zichtbaar is. Het hangt samen met de context waarin je het model gebruikt.’

Als voorbeeld noemt Van der Wal het gebruik van AI in de zorg. ‘AI leert van bestaande data. Als die data verouderde of foutieve aannames bevatten, bijvoorbeeld het omstreden idee dat bepaalde ziektes samenhangen met het achterhaalde concept “ras”, kan het model die toch blijven herhalen. In de zorg kan dat leiden tot verkeerde diagnoses of behandelingen.’

Een ander voorbeeld is wanneer medische data vooral voortkomen uit onderzoek onder mannen. ‘AI kan klachten van vrouwen dan anders of minder serieus interpreteren, of andere risico-inschattingen maken.’

Testen met realistische scenario’s

Om te testen of realistische scenario’s andere fouten blootleggen dan eenvoudige tests, legde Van der Wal taalmodellen verschillende medische casussen voor en vroeg ze diagnoses, risico-inschattingen of adviezen te geven. ‘We veranderden steeds de etniciteit van de patiënt. Zo konden we achterhalen of en hoe het model hierop verschillend reageerde.’

Er traden subtiele maar consistente verschillen op in de uitkomsten, die in standaardtests onzichtbaar bleven. ‘Juist doordat de pilot dicht bij de praktijk stond, werd duidelijk hoe vooroordelen door kunnen werken in medische besluitvorming.’

Het model versterkt patronen uit de data

Ook onderzocht Van der Wal wat er binnenin een taalmodel gebeurt tijdens het trainen. Hiervoor volgde hij stap voor stap hoe het model informatie leert opslaan. ‘Tijdens het trainen leert het model welke woorden en ideeën vaak samen voorkomen. Als in de trainingsdata “dokter” bijvoorbeeld vaak samen voorkomt met “hij” en “verpleegkundige” met “zij”, dan gaat het model die verbanden oppikken.’

Na verloop van tijd bleek het model die informatie steeds meer op te slaan op specifieke plekken en de genderbias zo te versterken. ‘Vooroordelen ontstaan dus niet alleen door de data waarmee AI werkt, maar ook door hoe het model die informatie structureert.’

Er zijn oplossingen

Deze bias in taalmodellen kun je helaas niet met één simpele truc oplossen. Maar volgens Van der Wal kunnen gerichte ingrepen wél helpen. ‘Als je weet waar in het model vooroordelen zitten, kun je die plekken aanpakken. Dit lijkt in specifieke gevallen al te werken, maar er is meer onderzoek nodig om die aanpak door te trekken naar complexere vormen van bias.’

Hij testte deze gerichte aanpak door een model vóór en na een aanpassing – het model werd getraind om gespotte vooroordelen rond gender niet over te nemen –  te vergelijken. Reageert het model minder verschillend op mannen en vrouwen na de aanpassing? En voert het tegelijkertijd gewone taken, zoals het genereren van tekst, nog steeds goed uit?

De bias bleek af te nemen, terwijl de kwaliteit van het model grotendeels behouden bleef.

Zorgvuldig en bewust

AI heeft niet alleen technische, maar ook bredere maatschappelijke effecten. ‘We raken steeds meer afhankelijk van systemen die ons denken kunnen beïnvloeden.’ Juist daarom is het volgens Van der Wal belangrijk om AI zorgvuldig te ontwikkelen. ‘Verantwoorde AI-ontwikkeling vraagt om interventies op meerdere niveaus tegelijk: in de data, tijdens het trainen, gericht in het model zelf, maar ook in de uitrol en het gebruik ervan.

Details proefschrift

Oskar van der Wal, 2026, 'Taking a Step Back: Measuring and Mitigating Bias in Language Models'. Promotoren: dr. K. Schulz en dr. W.H. Zuidema. 

Tijd en locatie

Woensdag 29 April, 16.00-17.30, Agnietenkapel, Amsterdam