De strijd van de EU om AI-contentmoderatie te reguleren
15 december 2025
‘Ik maak me niet enorm zorgen. Alleen de snelheid waarmee technologie wordt geïmplementeerd is zorgwekkend. Technologie zoals ChatGPT wordt grotendeels gecontroleerd door 10 tot 20 Amerikanen in Silicon Valley, die niet per se dezelfde waarden delen als de EU. Wij zijn in feite de testers van hun product, terwijl zij het optimaliseren. We creëren bijvoorbeeld AI-psychologen zonder eerst de effecten op de geestelijke gezondheid te testen. Wetgevers hebben dat probleem nog niet opgelost. In de tussentijd kan er wel veel schade worden aangericht. Er is economische druk om mee te bewegen met AI, omdat we niet achterop willen raken, maar tegelijkertijd moeten we de negatieve effecten tegengaan. In mijn onderzoek kijk ik specifiek naar het effect van AI op de vrijheid van meningsuiting.’
‘Dit project richt zich op AI-content die illegaal is, zoals materiaal waarin kinderen seksueel worden misbruikt of inbreuken van het auteursrecht. Maar het kijkt ook naar content die niet illegaal is, maar die wel door een platform kan worden verboden. Desinformatie of politieke deepfakes bijvoorbeeld. Dit soort uitingen is in de meeste gevallen niet illegaal, maar kan door het bedrijf als “giftig” worden beschouwd. Los van de duidelijk illegale content hebben platforms momenteel de macht om te beslissen welk soort materiaal ze op hun kanalen toestaan.’
Platforms hebben nu de bevoegdheid om te beslissen welk soort materiaal ze op hun kanalen toestaan
'Vanwege de omvang en het bereik van platforms kunnen de beslissingen van bedrijven als Meta en X van invloed zijn op de grondrechten van hun gebruikers, waaronder de vrijheid van meningsuiting. Daarom moeten we ons bij het overwegen van regelgeving voor deze aanbieders afvragen: welke uitingen willen we beschermen? En welk materiaal moeten we toestaan? Als we dat niet doen, laten we het in feite over aan de aanbieders, die vooral reageren op economische prikkels. We zien dit gebeuren in de Verenigde Staten. Als president Trump zegt dat platforms minder moeten modereren bij conservatieve uitingen, reageren organisaties op deze prikkels. Bedrijven willen simpelweg uit de problemen blijven en geld verdienen. Ik vind dat we in de EU de regulering van AI en platforms in overeenstemming moeten brengen met onze waarden.’
‘Jazeker, maar technologie ontwikkelt zich snel en niet altijd op een manier die door toezichthouders adequaat kan worden voorzien. Terwijl de wetgever van de EU bijvoorbeeld over de AI Act debatteerde, zagen we al de opkomst en implementatie van ChatGPT. De nieuwe AI Act hield geen rekening met zulke generatieve AI-tools. De EU heeft ook de Digital Services Act (DSA) die platforms reguleert zoals X, Facebook, Instagram, Zalando en zoekmachines zoals Google. Maar de DSA schiet tekort in het reguleren van AI-modellen die in platforms zijn ingebed. Een van de juridische hiaten die aan de basis ligt van dit project is de onzekerheid op het snijvlak van AI en platformregulering. Dit speelt zich al af op EU-niveau, aangezien de Europese Commissie ChatGPT in 2026 waarschijnlijk zal aanmerken als een zogenaamde “zeer grote online zoekmachine”, wat betekent dat het gedeeltelijk onder de DSA zal vallen. In wezen gaan de juridische en normatieve onderdelen van dit Vidi-project over het uitzoeken hoe de EU-wetgeving deze nieuwe technologieën dekt en hoe deze moet worden gereguleerd.’
João Pedro Quintais is universitair hoofddocent aan het Instituut voor Informatierecht (IViR) van de Faculteit der Rechtsgeleerdheid. Eerder ontving hij een Veni-beurs voor het project ‘Responsible Algorithms’ en recentelijk kreeg hij een Vidi-beurs voor zijn project ‘Generative AI Content Moderation: Regulation for Fundamental Rights’.
‘Er zijn meerdere potentiële problemen, maar een van de belangrijkste discussies op dit moment heeft betrekking op inbreuken op het auteursrecht. Dat is waarschijnlijk het meest actuele juridische onderwerp op dit gebied. Wat gebeurt er bijvoorbeeld als je met ChatGPT content genereert die vergelijkbaar of identiek is aan auteursrechtelijk beschermde content, zoals een Marvel-personage? In sommige gevallen kun je dit doen met de generatieve AI-tool. In andere gevallen bevat de tool beveiligingen die technisch voorkomen dat deze content wordt gegenereerd en gebruikers worden geïnformeerd dat het genereren van zulke content in strijd is met de gebruiksvoorwaarden van de dienst. Hetzelfde kan gebeuren voor andere soorten illegale content, zoals materiaal waarin kinderen worden misbruikt. In veel gevallen proberen AI-providers en -platforms beveiliging in te bouwen om het genereren van dit soort materiaal te voorkomen. Maar vaak zijn deze beveiligingsmaatregelen zwak en kunnen ze gemakkelijk worden omzeild door verschillende prompts te gebruiken, waardoor je toch dit soort problematische content kunt genereren.’
'Door de kloof tussen platform- en AI-wetgeving te overbruggen, wil ik toekomstige regelgeving begeleiden via een principieel, rechten respecterend kader. De eerste stap is uitzoeken hoe de AI Act en de DSA uitwerken in de praktijk. Dit zal worden gecombineerd met empirisch onderzoek naar hoe AI-systemen die in platforms zijn ingebed de AI-gegenereerde inhoud reguleren. Dit omvat ook het bekijken van hun moderatiebeleid. Door deze aspecten te combineren, kunnen we een volledig beeld schetsen van de praktijk van generatieve AI-contentmoderatie. Het stelt ons ook in staat om te begrijpen wat aanbieders beloven te doen en of ze hun beloften en hun wettelijke verplichtingen nakomen. Zonder die kennis lopen we het risico dat de huidige aanbieders zich beperken tot “compliance-theater” en zich onttrekken aan de daadwerkelijke handhaving van hun wettelijke verplichtingen. Ten slotte hoop ik op basis van dit juridische en empirische onderzoek concrete beleidsaanbevelingen en een interdisciplinaire agenda voor de regulering van GenAI-content in de EU te ontwikkelen.’
We hebben het afgelopen decennium een tsunami aan digitale regelgeving in de EU gehad, maar we missen fundamentele duidelijkheid
'Er is een brede discussie over het vereenvoudigen van regelgeving. Als vereenvoudiging meer duidelijkheid schept, is dat zeer gunstig. Maar als vereenvoudiging gewoon deregulering betekent, dan is het een slecht idee. We hebben het afgelopen decennium een tsunami aan digitale regelgeving gehad in de EU, maar we missen fundamentele duidelijkheid. Platforms met ingebouwde AI-tools worden steeds belangrijker in ons dagelijks leven, maar zijn onderworpen aan regelgevingskaders die allesbehalve perfect op elkaar zijn afgestemd. Dat grijze gebied leidt tot normatieve vragen voor toezichthouders, onder meer over wat voor soort uitingen op die platforms zijn, en zouden moeten zijn toegestaan. Ik denk dat we een stap terug moeten doen en moeten definiëren wat we echt willen dat de wet op dit gebied bereikt ten behoeve van de samenleving, geleid door de waarden en grondrechten van de EU.’