Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
Trump mag niet meer op Twitter en QAnon is niet welkom op Facebook. Internetplatformen oefenen veel macht uit op de online communicatie. Hoe kan deze macht meer gedemocratiseerd worden? Naomi Appelman is jurist en filosoof en werkt als PhD aan dit zeer actuele vraagstuk. Ze vertelt over haar onderzoek.
Naomi Appelman

Grote internetplatformen kunnen via ‘content moderation’, geautomatiseerde systemen, invloed uitoefenen op wat er wel of niet gezegd wordt op internet en op social media. Dit kunnen berichten zijn van gebruikers die verwijderd worden, de volgorde van informatie op een tijdlijn of content die aanbevolen wordt. Naomi Appelman onderzoekt hoe we ervoor zorgen dat gebruikers of burgers meer invloed kunnen hebben op deze systemen.

Wat zijn de gevaren van content moderation? 

‘Internetplatformen oefenen veel macht uit op wat, hoe en door wie er online gecommuniceerd kan worden. In de EU wordt gewerkt aan regulering om die macht in te perken, maar er zou nog veel meer moeten gebeuren. Het gevaar loert hier aan verschillende kanten. Aan de ene kant is het onwenselijk dat deze private bedrijven nagenoeg volledig zelfstandig kunnen bepalen wat er gezegd kan worden online en door wie. Denk bijvoorbeeld aan TikTok die negatieve posts over China vaak verwijdert. Willen we dat een bedrijf dit soort ingrijpende beslissingen zelfstandig neemt? Aan de andere kant is het nodig dat er ingegrepen wordt bij schadelijke of onrechtmatige content op de platformen zoals COVID-19-desinformatie of online harassment wat vaak vrouwen of gemarginaliseerde groepen onevenredig hard raakt.’

Willen we dat een bedrijf dit soort ingrijpende beslissingen zelfstandig neemt? Noami Appelman

Stel, er staat schadelijke content over jou op internet. Hoe kom je daar vanaf? 

‘Afgelopen jaar heb ik voor het Wetenschappelijk Onderzoek- en Documentatiecentrum samen met een aantal collega’s, met name met Anna van Duin en Joris van Hoboken van de rechtenfaculteit, specifiek naar deze vraag gekeken. In ons onderzoek naar de snelle verwijdering van onrechtmatige online content hebben we de verschillende juridische mogelijkheden bekeken, zoals het kort geding, de bodemprocedure maar ook de Notice and Takedown. Eén van de conclusies van dat onderzoek is dat er geen simpele manier is of kan komen om onrechtmatige content te verwijderen als individu. Dit komt door de heterogeniteit van de problematiek: specifieke situaties, zoals het type platform, het type onrechtmatigheid enzovoort, verschillen enorm van elkaar en in veel gevallen is er specialistische kennis nodig. Er is dus nog heel veel terrein te winnen in voorlichting, strengere regulering voor platformen en betere rechtsbijstand om de positie van gebruikers te verbeteren. Het is van belang dit snel aan te pakken aangezien de impact op een individu enorm groot kan zijn.'

Hoe kunnen gebruikers dan meer invloed hebben? 

‘Dat is één van de belangrijke vragen in mijn onderzoek. Er wordt nu vooral veel nagedacht over hoe mensen in verzet kunnen gaan wanneer een platform hun content verwijdert. Maar er zijn natuurlijk ook andere content moderation-beslissingen die mensen raken. Denk aan de aanbevelingen die een platform doet, de normen die het stelt of zelfs hoe het deze dingen automatiseert. Door politieke filosofie te combineren met de juridische kant van platformregulering kan ik in mijn onderzoek  breder nadenken over de manier waarop platformen via hun content moderation-systemen macht uitoefenen over online communicatie en wie of welke groepen daardoor geraakt worden.’

Over Naomi Appelman

Naomi Appelman is jurist en filosoof en doet promotieonderzoek naar contentmoderatie. Ze is een expert op het gebied van regelgeving omtrent internetcontent.