nlaic logo


 

Hoe herken je een deepfake?

De Universiteit van Nederland over deepfakes.

Transcript:

Met een deepfakevideo kun je iemand iets laten zeggen wat die persoon niet daadwerkelijk heeft gezegd... of iets laten doen wat die persoon niet daadwerkelijk heeft gedaan. Wat zijn de gevolgen daarvan? En hoe herken je een deepfake? Wat je net zag was een deepfake van mijn gezicht... met deze technologie kun je op een computer beelden maken die net echt lijken maar niet echt zijn. Hoe doet de computer dat? De technologie werkt op basis van machine learning. Dat houdt in dat een computermodel wordt getraind met data. Door een computerprogramma te voeden met foto's van iemands gezicht... kan het programma zelf een deepfakevideo maken. Maar je kan ook een deepfake van iemands stem maken. En dan train je het computermodel met audiofragmenten. Vroeger konden alleen computerprogrammeurs een deepfake maken... maar tegenwoordig is de technologie veel toegankelijker geworden. Er zijn bijvoorbeeld apps waarbij je door een simpel beeld te uploaden... heel makkelijk het gezicht van een ander op een foto of video kunt plakken. Waar worden die deepfakes voor gebruikt? Politici worden regelmatig gedeepfaked als grap of om te laten zien wat het gevaar kan zijn van deze technologie. "Thank you and stay woke bitches." Want deepfakes kunnen ook misbruikt worden, voor politieke manipulatie of om nepnieuws mee te maken. Maar veruit de meeste deepfakevideo's zijn pornografisch. Waarbij het gezicht van iemand op het lichaam van een pornoactrice of -acteur wordt geplakt. Bijvoorbeeld om zo je eigen gepersonaliseerde porno te maken, om wraak te nemen of om iemand te chanteren. Daarnaast worden deepfakes gebruikt door criminelen... zij gebruiken bijvoorbeeld stemdeepfakes om een CEO na te doen en zo geld af te troggelen... van werknemers door hen de opdracht te geven geld over te maken naar een bepaalde bankrekening. De opkomst van deepfakes is een voedingsbodem om veel dingen niet meer te geloven. Dat kan ervoor zorgen dat we media en autoriteiten gaan wantrouwen. Het grootste gevaar is dat we daardoor niet zozeer leugens makkelijker geloven... maar juist dat mensen dat wat waar is ook niet meer willen geloven... omdat alles potentieel een deepfake zou kunnen zijn. Een voorbeeld is de Amerikaanse politica Winnie Heartstrong. Zij beweerde dat George Floyd niet echt door een agent om het leven is gebracht. "George Floyd is alive, prove me wrong." Volgens haar ging het om een deepfake en deze zou door de Black Lives Matter-beweging gebruikt worden... om hun boodschap kracht bij te zetten. Of de technologie ook daadwerkelijk gebruikt is, doet er niet toe. De suggestie dat het om een deepfake zou kunnen gaan... is genoeg om het wantrouwen te voeden en een hoop verwarring te creëren. En wanneer we het niet meer eens zijn over of een probleem überhaupt bestaat... denk aan de coronapandemie of klimaatopwarming. Dan wordt het wel heel lastig om het ook gezamelijk aan te pakken. Hoe moeten we met deepfakes omgaan? Op juridisch niveau kun je bijvoorbeeld een verbod overwegen, maar dat is erg ingewikkeld. Sommige experts zeggen zelfs dat dat onmogelijk is, omdat het niet gehandhaafd kan worden... of omdat een verbod misbruikt kan worden door politieke regimes. Bijvoorbeeld door informatie die voor burgers belangrijk is... weg te halen onder het mom van "deepfake verwijdering". Op technologisch niveau is er ook het een en ander mogelijk... zo zijn er bijvoorbeeld algoritmes die deepfakes kunnen detecteren. Sommige experts denken dat iedere webbrowser in de toekomst wordt uitgerust met herkenningssoftware... waardoor deepfakes live gedetecteerd kunnen worden. Maar dit is niet een echte oplossing... en zal waarschijnlijk gaan lijken op wat er nu gebeurt met de wapenwedloop tussen virusmakers en virusscanners. Verder kunnen we mensen leren te herkennen wat echt en nep is. Je kunt bijvoorbeeld letten op gezichtsuitdrukkingen... passen deze ook daadwerkelijk bij wat iemand zegt? En maakt de mond onnatuurlijke bewegingen? Knippert de spreker niet of raar met zijn ogen? Is het hoofd van de spreker in verhouding met het lichaam? Of zitten er onscherpe pixels in beeld? Maar de kwaliteit van deepfakes wordt beter. Dus het wordt steeds moeilijker om ze met het blote oog te herkennen. Daarom is het belangrijk om zelf altijd kritisch te zijn en je af te vragen, is het logisch waar ik naar kijk. Kijk bijvoorbeeld naar de bron. Wat je ook kan doen, is een foto van de video maken en deze door Google image search halen. Zo kun je controleren of je te maken hebt met het echte oorspronkelijke beeld van een video... Of dat er ook nog andere versies zijn. Toch blijft een goede, helemaal feilloze deepfake maken nog steeds wel moeilijk. Om een overtuigende deepfake te maken, heb je heel veel hoge resolutie beelden nodig... vanuit verschillende hoeken en met goed en helder licht. Daarom zien we vooral heel veel grappige, eenvoudige deepfakes, maar niet zoveel serieuze deepfakes. Soms overschatten we die deepfaketechnologie ook een beetje. Recent had de tweede kamer een videogesprek met de stafchef van de Russische oppositieleider Navalny De media schreven dat het om een deepfake ging... maar het bleek gewoon een acteur te zijn die live achter de webcam zat. Zo zie je maar: zonder ingewikkelde deepfake-.

 

Tags

 

 VIDEO

Deze video wordt aangeboden door Universiteit van Nederland. Kijk bij de betreffende video of de licentie embedding toestaat.