Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
Tijdens de verkiezingscampagne werd er door veel politieke partijen gebruikgemaakt van microtargeting om specifieke kiezers te bereiken. Maar waar liggen de juridische grenzen? En hoe zorgen we ervoor dat er zo min mogelijk nepnieuws rondgaat, zonder dat de vrijheid van meningsuiting wordt aangetast? Onze experts laten hun licht schijnen over de ethische en juridische grenzen rondom online berichtgeving.

Targeten op gevoelige data

Deze zomer werd er door verschillende campagneteams vol ingezet op online microtargeting om potentiële stemmers te bereiken. Zo targette de partij Denk mensen met een Turkse afkomst en wilde de ChristenUnie dat hun campagnemateriaal terechtkwam bij mensen die geïnteresseerd zijn in woorden als 'pastor' en 'biblical theory'. 'De grote vraag in de komende jaren gaat zijn: waar leggen we de lijn', zegt Max van Drunen, onderzoeker bij het Instituut voor Informatierecht (IViR). Daar doet hij als postdoc onderzoek naar nieuwspersonalisatie.

'Het Europees Hof van Justitie heeft vorig jaar voor het eerst gezegd dat ook afgeleide data gevoelige data is,' zegt Van Drunen in De Groene Amsterdammer. 'Dat gaat vanzelf als er steeds meer kenmerken bijkomen, als een partij op zoek is naar mensen in die en die buurt met deze simkaart, die ook nog eens heel veel Turkse websites bezoeken. Dat is profileren.' Het geval van de ChristenUnie, dat target op mensen met interesse in dominees en de bijbel, is volgens Van Drunen heel helder. 'Je kunt zeggen dat dat gewoon gevoelige data is. Maar dan is de volgende vraag: wie is verantwoordelijk? De Algemene Verordening Gegevensbescherming legt in principe de meeste verantwoordelijkheden op aan het sociale medium, in dit geval Facebook.'

Slechts 1 Nederlandstalige moderator op X

Onlineplatformen als Instagram, TikTok en X hebben de afgelopen weken data over hun werking bekendgemaakt. Dat is een gevolg van de DSA-wetgeving, een Europese wet die sinds deze zomer van kracht is en die het internet veiliger moet maken. Maar er wordt bij de meeste platforms vooral geïnvesteerd in moderators die Engels spreken. Paddy Leerssen, onderzoeker Informatierecht, vindt deze trend zorgwekkend. 'De meeste moderatie gebeurt automatisch. Afhankelijk van het onderwerp kan dat systeem veel fouten maken. Net daarom is menselijke moderatie belangrijk om dit te controleren,' zegt hij tegen de VRT. Zo is er op X bijvoorbeeld maar 1 Nederlandstalige moderator aangesteld.

Er is ook een gebrek aan transparantie. De socialmediabedrijven vermelden bijvoorbeeld niet hoeveel berichten er in totaal dagelijks op hun platform verschijnen. 'Het risico bestaat dat het bij moderatie en de verantwoording alleen maar om hoge getallen draait', zegt Leerssen in het FD. 'Terwijl het sterk afhangt van het platform. Je zult bij een politiek platform als X meer overtredingen zien dan bij Pinterest of LinkedIn.' Ook zeggen cijfers en aantallen moderators niets over de kwaliteit van het werk. 'Er staat hoeveel wraakporno is verwijderd, maar was het dat of iets anders? Hoe vaak het misgaat bij de beoordeling, is moeilijk af te leiden uit die cijfers.'