De opkomst van Deepfake

25 October 2019 7:10am
Deepfake items

Je hebt recentelijk vast al kennis gemaakt met een nieuwe technologie die de mogelijkheid heeft om de waarheid te verhullen: deepfake video’s. Met behulp van geavanceerde, en vaak verrassend makkelijke, computer software, kunnen zeer realistische audio of visuele uitingen gemaakt worden waarin mensen dingen doen of zeggen die door de maker van de video zijn bedacht.
De technologie waarmee deze soms misleidende video’s gemaakt worden is steeds eenvoudiger te verkrijgen, zoals apps die iedereen kan installeren en gebruiken. Wat zijn hiervan de gevolgen? Kan straks iedereen van alles verspreiden online en hoe weten we nog wat echt is en wat niet?

De toepassingen van Deepfake

De technologie achter Deepfake was oorspronkelijk niet bestemd voor kwaadaardige zaken. Het is een techniek die ontwikkeld is door en voor de filmindustrie. De aanleiding was destijds het overlijden van een acteur terwijl de film waarin hij speelde nog niet af was. Inmiddels is de techniek wijdverspreid en wordt deze door diverse gebruikers ingezet voor verschillende doelen, van grappig tot manipulerend.

Een recent voorbeeld dat veel in het nieuws is geweest is een video waarin in intro van de jaren ’90 komedie Full House alle gezichten van de cast vervangen zijn door het gezicht van de komiek Nick Offerman . Hij zelf was niet betrokken bij het maken van de video maar op de een of ander manier passen zijn gezicht en bewegingen toch perfect bij alle personages en is het griezelig echt.  
Meer alarmerende voorbeelden zijn de toespraken van wereldleiders zoals Theresa May, Barack Obama en Vladimir Putin die nooit echt hebben plaatsgevonden maar die wel erg realistisch en geloofwaardig over kwamen.

Verdediging tegen Deepfake

Met de nieuwe Deepfake technologie is elke persoon en organisatie mogelijk dichtbij een potentiele ramp. Want hoe kun je een vertrouwensband opbouwen wanneer dit soort video’s de lijn tussen de feiten en fictie vervagen? Om deze reden zie je momenteel ook de trend dat er wapens worden ontwikkeld tegen Deepfake video’s. Je kunt bijvoorbeeld mensen die voor de camera staan vooraf trainen in het gebruik van bewegingen die het heel moeilijk maken voor software programma’s om deze te kopiëren en te gebruiken voor een Deepfake uiting.

Bijvoorbeeld het knipperen met ogen is een uitdaging voor Deepfake software. In echte video’s knipperen mensen vaak en snel, in Deepfake video’s is dit vaak trager en minder frequent.

Maar dit is niet voldoende, nieuwsorganisaties moeten ook gaan nadenken over een verdedigende strategie tegen Deepfakes. Net als PR professionals die een plan moeten hebben voor als het misgaat en een
Deepfake video een bedreiging vormt voor hun merk of product.
En zolang volledig voorkomen nog geen optie is, is het het beste goed te blijven monitoren wat er over jouw organisatie wordt gezegd in de media. Alleen dan kun je er op tijd bij zijn om een crisis te voorkomen.

Neem contact met ons op
Telefoonnummer: 020 485 3456
Meer weten over LexisNexis?
  • Wilt u persoonlijk advies? Vul dan het contactformulier in!
  • Schrijf u in voor onze nieuwsbrief
  • Volg ons op LinkedIn of Twitter
  • Ga naar nieuws voor interessante artikelen, whitepapers en blogs