Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
Deepfakes, gemanipuleerde video’s van mensen, zijn een groeiend probleem. Of het nu gaat om een bekende Nederlander die met behulp van Artificial Intelligence (AI) in een bestaande pornovideo is gemonteerd, of om een staatshoofd dat in een nepfilmpje schadelijke onwaarheden verkondigt: de impact van een deepfake-video kan enorm zijn, zowel voor het slachtoffer als voor de maatschappij — zeker in een tijd van grote (geo)politieke onrust. Daarom is onderzoek naar het detecteren van deepfakes urgenter dan ooit.
Overzicht van 79 geselecteerde punten waarop kleurverschillen per frame gemeten worden © NFI

Door de snelle technologische ontwikkelingen op het gebied van deepfake-AI wordt het steeds moeilijker om nepvideo’s met het blote oog te herkennen. Het NFI investeert daarom in nieuwe manieren van deepfakedetectie, zodat het ook in de toekomst forensische vragen over de echtheid van beeldmateriaal kan beantwoorden. Op de EAFS presenteert Geradts een voorproefje van een (nog niet gepubliceerde) methode om deepfakes te onderscheiden van echte beelden: bloedstroomdetectie.

Lees verder op de website van NFI.

Onderzoekers

Zeno Geradts is forensisch digitaal onderzoeker bij het Nederlands Forensisch Instituut (NFI) en bijzonder hoogleraar Forensic Data Science aan de UvA en onderzoeker bij het Multimedia Analytics Lab Amsterdam (MultiX) van het Informatica Instituut en AI4Forensics Lab.

Paula Pronk, wetenschappelijk medewerker bij het NFI.

Sanne de Wit,  masterstudent Forensic Science aan de UvA.