Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
Het fenomeen 'deepfakes' en de mogelijke invloed ervan op het democratisch proces is verrassend genoeg nog steeds weinig onderzocht, terwijl er wereldwijd steeds meer zorgen rondom verkiezingsinmenging is. Een interdisciplinair team van UvA-wetenschappers van de Amsterdam School of Communication Research (ASCoR) en het Instituut voor Informatierecht (IViR) lopen voorop in het onderzoek naar dit nieuwe fenomeen.

Deepfakes zijn videos die op de een of andere manier door een algoritme gemanipuleerd zijn. UvA-onderzoekers maakten een deepfake-video van een Nederlandse politicus en legde hem daarmee controversiële woorden in de mond, terwijl hij die hij eigenlijk nooit heeft uitgesproken. Daarna lieten ze de video zien aan een panel van 287 mensen (iedereen kreeg uit eindelijk wel te horen dat de eigenlijk video nep was). De panelleden werd vervolgens gevraagd of ze de video wel of niet geloofwaardig vonden en of de video hun houding tegenover de politicus en zijn partij had beïnvloed.

Zonder twijfel aanvaard als echt
Ondanks dat de deepfake-video vrij kort was en de kwaliteit niet optimaal, verbaasden de onderzoekers zich toen bleek dat de meerderheid van de deelnemers de video geloofwaardig vond en niet vermoedde dat hij gemanipuleerd was. Onderzoeker Nadia Metoui: ‘We waren in een korte periode en met relatief beperkte middelen in staat om een deepfake-video te maken die door de meeste deelnemers van ons experiment als echt werd beschouwd’

De potentiële impact van deepfakes is zo ontzettend verontrustend dat zelfs Facebook — die eerder aankondigden geen politieke advertenties te factchecken — voor hun platform een strategie ontwikkelt om deepfakes te detecteren en te verwijderen. De internetgigant kondigde aan dat het geen materiaal toestaat dat ‘bewerkt of gesynthetiseerd’ is door kunstmatige intelligentie of machine learning ‘(...) dat niet duidelijk als zodanig herkenbaar is voor de gemiddelde persoon, en dat iemand kan laten denken dat het onderwerp van de video woorden heeft uitgesproken die ze niet echt heeft gebruikt.’

Microtargeting via social media — waarbij data van mensen wordt gebruikt om ze in steeds kleinere groepen op te delen en ze online heel gericht te bereiken — is een van de zorgelijke aspecten als het gaat om dit soort video's. Zelfs als de valse beweringen later weerlegd of ontkracht worden, worden tegenargumenten voornamelijk in de brede media besproken en niet op de sociale media alwaar het kwaad is geschied. Er gaat een gezegde in het Engels: ‘Leugens hebben vleugels terwijl de waarheid er achteraan hinkelt’.

Online oplichting, cyberpesten en afpersing
Ook buiten de politieke arena kunnen deepfakes effect hebben, zoals via online oplichting, cyberpesten en afpersing. Dit alles kan leiden tot ondermijning van het vertrouwen in de samenleving, waardoor het steeds gemakkelijker wordt om online informatiebronnen in twijfel te trekken.

Toch blijven deepfakes onvoldoende onderzocht. Het is misschien zo dat deepfakes nog niet veel gebruikt worden in politieke campagnes, maar veel deskundigen verwachten dat daar snel verandering in zal komen. Er zijn zelfs al gemakkelijk verkrijgbare apps die de gebruikers in staat stellen overtuigende deepfakes te laten maken, dus begrip van de effecten van dit soort videos is belangrijker dan ooit. Gegeven het gemak waarmee deepfakes gemaakt kunnen worden en hoe weinig onderzoek ernaar is gedaan, is dit een onderwerp dat dringend dieper bestudeerd moet worden. De UvA behoort tot de instituten die op dit gebied het voortouw nemen.

Copyright: Tom Dobber
‘Dit was het eerste onderzoek dat een deepfake maakte (met stem en beeld) en het effect ervan op mensen onderzocht. De volgende stap is het maken van een langere en betere deepfake en die te combineren met mogelijke maatregelen om de negatieve effecten van de deepfake in te perken. Bijvoorbeeld: helpt het mensen er één te herkennen door ze te informeren over de eigenschappen van een deepfake?’ Onderzoeker Tom Dobber

Ironisch genoeg blijkt het beste wapen tegen deepfakes het gebruik van kunstmatige intelligentie (AI). Zulke algoritmen herkennen gemanipuleerd beeld en geluid, terwijl het voor een mens onmogelijk zou zijn om echt van nep te onderscheiden. De UvA zal het onderzoek op dit belangrijke dossier middels haar wijde AI-expertise aan de frontlinie voortzetten.