Profpraat | Deepfakes: geloof jij nog wat je ziet?

Een deepfake video maken is tegenwoordig kinderspel. Maar waar een levensechte nep-video in eerste instantie grappig lijkt - zie Obama die Trump een ‘total dipshit’ noemt - kan het ontwrichtende gevolgen hebben. Want waar ligt de grens tussen nep en werkelijkheid? Facebook doet daarom sinds vorige week deepfakes in de ban. Maar nog steeds geldt: zien is niet langer geloven, benadrukken TU/e-experts Peter de With, Joaquin Vanschoren en Emily Sullivan.

door
illustratie Pantelis Katsis

Deepfake is een samentrekking tussen deep learning - de technologie waarbij machines ‘zelfstandig’ leren aan de hand van kunstmatige neurale netwerken met grote hoeveelheden data - en fake, nep. Een levensechte nepvideo dus, gemaakt met kunstmatige intelligentie. Zo’n gemanipuleerde video ontstaat door een foto van iemands gezicht over dat van iemand anders te plakken en bewegend beeld zo aan te passen. Dat levert hilarische filmpjes op. Jim Carrey speelt ineens in The Shining, Elon Musk kruipt rond als baby en Arjen Lubach is Thierry Baudet, Willem-Alexander én Yvon Jaspers tegelijk.

Deepfake-technologie ontwikkelt zich zo snel dat het nu voor iedereen mogelijk is zo’n video te maken. Samsung liet vorig jaar al weten aan een gezichtsfoto genoeg te hebben voor een realistische reconstructie en via de populaire video-app TikTok speel je binnenkort zelf eenvoudig de hoofdrol in een muziek- of filmvideo.

Redelijk onschuldig, maar als er geknutseld wordt met beelden van wereldleiders of opiniemakers kan dat het vertrouwen van mensen schaden en kan het wel degelijk een gevaar voor de democratie en uiteindelijk onze veiligheid vormen, waarschuwt Emily Sullivan. Aan de faculteit Industrial Engineering & Innovation Sciences onderzoekt ze de ethische aspecten van kunstmatige intelligentie. “We kunnen er niet meer volkomen zeker van zijn of iets echt of nep is. We kennen dat al van het fotoshoppen, maar een video heeft nog meer impact. En gezien de deel-snelheid van informatie via sociale media kan iets dan zomaar escaleren.”

‘Wees kritisch’

Toch zijn de meeste ‘amateur’ deepfakes wel te herkennen, meent Joaquin Vanschoren, universitair docent bij de vakgroep Data Mining (W&I). Een snelle cursus. “Kijk goed of de mondbewegingen synchroon lopen met de gesproken tekst. In het merendeel van de amateurvideo’s zijn hierin foutjes te ontdekken. Let op verkleuringen en vreemde schaduwen in het gezicht, vaak het gevolg van een verschillende belichting. Kijk naar de ogen, draaien ze op een natuurlijke manier met het gezicht mee? En klopt de gesproken tekst bij de lichaamshouding? Wees kritisch, dat kan ik niet vaak genoeg zeggen. Daarnaast kunnen we met het ontwikkelen van nieuwe algoritmes ook kunstmatige intelligentie inzetten om deepfakes op pixel-niveau te herkennen en onschadelijk te maken, noodzakelijk voor de professionelere deepfakes. En laat algoritmes niet alleen naar beelden kijken, maar ook naar de bron - waar komt de video vandaan, door wie is hij gedeeld.”

Maar juist die zelflerende algoritmes kunnen er ook toe leiden dat deepfake video’s steeds realistischer worden en daardoor lastiger te detecteren. “Een typisch moving target”, zegt Peter de With, hoogleraar Video Coding and Architectures (EE). “Zowel goed- als kwaadwillenden moeten steeds een stap opschuiven in intelligentie en kwaliteit willen ze elkaar voorblijven. Vooralsnog zitten we als wetenschappers aan de goede kant. We kunnen kunstmatige intelligentie op een multidimensionale manier inzetten. Zo kun je van een persoon een combinatie maken van lichaamshouding, manier van bewegen en geluid, een unieke footprint.”

Daar hebben de resultaten van het surveillance-onderzoek dat de groep van De With uitvoerde ook aan bijgedragen. Menselijk gedrag op stations en van diverse verkeersdeelnemers werden hiervoor nauwkeurig geanalyseerd. De With: “We kunnen heel wat vastleggen. Maar bijzonder is vooral dat we zien dat je persoonsherkenning kunt uitvoeren op de manier van lopen. Hoe je schouders en benen bewegen is voor iedereen anders. Je kunt zo een programma maken dat toetst of houding en bewegingen passen bij de persoon in kwestie.”

Goede detectie is dus essentieel om verspreiding van deepfakes tegen te gaan en in die zin is de Deepfake Detection Challenge die onder andere Microsoft, Google en Facebook afgelopen jaar lanceerden, een slimme zet. Bij de recente verklaring van Facebook om per direct deepfakes van hun platform te bannen, zet Sullivan wel vraagtekens: “Er is nog te veel onduidelijkheid over wat er nu wel en niet onder het verbod gaat vallen”. Een dergelijke boodschap kan volgens haar zelfs nadelig uitpakken. “Mensen kunnen nu vanwege deze ban denken dat er geen misleidende video’s meer te zien zijn. Maar het tegendeel is waar: betaalde politieke advertisements worden altijd geplaatst en daar kan heel wat aan gemanipuleerd worden.”

Vanschoren, Sullivan en de With kunnen het niet genoeg herhalen: “Wees kritisch op wat je ziet en hoort en kijk als er iets gewaagds wordt gepost ook of het wordt overgenomen door betrouwbare, meer traditionele kanalen. De tijd van blindelings geloven is voorbij.”

Deel dit artikel