Faculteit der Rechtsgeleerdheid
14 juni 2021
Grote internetplatformen kunnen via ‘content moderation’, geautomatiseerde systemen, invloed uitoefenen op wat er wel of niet gezegd wordt op internet en op social media. Dit kunnen berichten zijn van gebruikers die verwijderd worden, de volgorde van informatie op een tijdlijn of content die aanbevolen wordt. Naomi Appelman onderzoekt hoe we ervoor zorgen dat gebruikers of burgers meer invloed kunnen hebben op deze systemen.
‘Internetplatformen oefenen veel macht uit op wat, hoe en door wie er online gecommuniceerd kan worden. In de EU wordt gewerkt aan regulering om die macht in te perken, maar er zou nog veel meer moeten gebeuren. Het gevaar loert hier aan verschillende kanten. Aan de ene kant is het onwenselijk dat deze private bedrijven nagenoeg volledig zelfstandig kunnen bepalen wat er gezegd kan worden online en door wie. Denk bijvoorbeeld aan TikTok die negatieve posts over China vaak verwijdert. Willen we dat een bedrijf dit soort ingrijpende beslissingen zelfstandig neemt? Aan de andere kant is het nodig dat er ingegrepen wordt bij schadelijke of onrechtmatige content op de platformen zoals COVID-19-desinformatie of online harassment wat vaak vrouwen of gemarginaliseerde groepen onevenredig hard raakt.’
Willen we dat een bedrijf dit soort ingrijpende beslissingen zelfstandig neemt?Noami Appelman
‘Afgelopen jaar heb ik voor het Wetenschappelijk Onderzoek- en Documentatiecentrum samen met een aantal collega’s, met name met Anna van Duin en Joris van Hoboken van de rechtenfaculteit, specifiek naar deze vraag gekeken. In ons onderzoek naar de snelle verwijdering van onrechtmatige online content hebben we de verschillende juridische mogelijkheden bekeken, zoals het kort geding, de bodemprocedure maar ook de Notice and Takedown. Eén van de conclusies van dat onderzoek is dat er geen simpele manier is of kan komen om onrechtmatige content te verwijderen als individu. Dit komt door de heterogeniteit van de problematiek: specifieke situaties, zoals het type platform, het type onrechtmatigheid enzovoort, verschillen enorm van elkaar en in veel gevallen is er specialistische kennis nodig. Er is dus nog heel veel terrein te winnen in voorlichting, strengere regulering voor platformen en betere rechtsbijstand om de positie van gebruikers te verbeteren. Het is van belang dit snel aan te pakken aangezien de impact op een individu enorm groot kan zijn.'
‘Dat is één van de belangrijke vragen in mijn onderzoek. Er wordt nu vooral veel nagedacht over hoe mensen in verzet kunnen gaan wanneer een platform hun content verwijdert. Maar er zijn natuurlijk ook andere content moderation-beslissingen die mensen raken. Denk aan de aanbevelingen die een platform doet, de normen die het stelt of zelfs hoe het deze dingen automatiseert. Door politieke filosofie te combineren met de juridische kant van platformregulering kan ik in mijn onderzoek breder nadenken over de manier waarop platformen via hun content moderation-systemen macht uitoefenen over online communicatie en wie of welke groepen daardoor geraakt worden.’
Naomi Appelman is jurist en filosoof en doet promotieonderzoek naar contentmoderatie. Ze is een expert op het gebied van regelgeving omtrent internetcontent.