Het is inmiddels kinderlijk eenvoudig om een nepvideo te maken. Hoe valt te voorkomen dat kwaadwillenden daar misbruik van maken, vraagt gastcolumnist Jarno Duursma zich af. 

Voor de gemiddelde lezer van De Ingenieur is het fenomeen deepfaketechnologie vast niet onbekend. Velen van ons hebben al eens zo’n nepvideo gezien die ge­creëerd is met kunstmatige intelligentie. Vaak zien we op dit soort video’s mensen dingen doen die ze in werkelijkheid niet hebben gedaan of dingen zeggen die ze niet hebben gezegd. Nog niet zo lang geleden was dit soort deepfakesoftware vooral speelgoed voor nerds. Inmiddels is de software eenvoudig te downloaden en te gebruiken.

Je hoeft geen uitgebreide academische studie te hebben gedaan om te kunnen bedenken waar deze deep­faketechnologie voor is in te zetten. Je kunt iedere politicus, beroemdheid, klokken­luider, journalist, burgemeester, directeur of bestuurder in een video iets laten doen of zeggen wat hij of zij niet gedaan of gezegd heeft en daarmee chanteren of in diskrediet brengen. Het vraagt ook geen hogere wiskunde om te bedenken waar dit toe kan leiden. Denk aan mogelijke geopolitieke spanningen, sociale onrust, reputatieschade en identiteitsfraude.

Facebook is zich ook bewust van de dreiging van deze technologie en om die te tackelen heeft het een competitie gehouden om deepfakevideo’s op te sporen. Deze wedstrijd trok meer dan tweeduizend deelnemers uit de techindustrie en de academische wereld.

Het detecteren van deepfakevideo’s is en blijft een kat-en-muisspel

Het winnende model detecteerde iets meer dan 82 procent van de deepfakevideo’s uit de vooraf ge­creëerde ­database van Facebook. Dat percentage lijkt heel hoog, maar de opsporing is alles behalve waterdicht te noemen. En dat moet wel. Aan een model wat maar 82 procent accuraat is, heb je niet zoveel.

Het resultaat is stiekem zelfs nog iets teleurstellender: toen het algoritme werd getest met een compleet nieuwe database met deepfakes daalde de prestatie van het winnende model tot iets meer dan 65 procent. 
 


De moeilijkheid van het deepfakefenomeen zit overigens niet alleen aan de technologische kant. Niet ­iedere deepfake is immers schadelijk. Er zijn ook deepfake­video’s die humoristisch, informatief of educatief zijn. Net zoals bij iedere andere vorm van media is de context van het geheel belangrijk. En laat nu juist context voor detectiesoftware moeilijk te vatten zijn.

Stel, er zou een deepfakevideo opduiken waarin Arie Boomsma een grap maakt over Johan Derksen of een video van Mark Rutte waarin hij Donald Trump na zou doen. Dat is leuk, dat is satire en heeft dus wel degelijk een functie. Dat soort video’s moet je wat mij betreft dus niet van sociale media verwijderen.

Maar stel dat ik een video zou maken waarin anti-Zwarte Pietactivist Jerry Afriyie hele racistische dingen zegt over ­autochtone Nederlanders. Of dat er twee dagen voor de Tweede Kamerverkiezingen een nepvideo zou uitlekken waarin de fractievoorzitter van de Socialistische Partij Lilian Marijnissen tegen een collega zou verzuchten dat de SP hoe dan ook niet gaat meeregeren na de verkiezingen.

En om het nog iets moeilijker te maken: het detecteren van deepfakevideo’s is en blijft een kat-en-muisspel. Een detectiealgoritme is te trainen om een deepfake­video te herkennen, maar een algoritme dat video’s genereert kan ook weer getraind worden om deze detectie vervolgens te omzeilen. Een waterdichte oplossing voor het deepfakeprobleem is dus nog ver weg.

Jarno Duursma is TEDx-spreker, auteur en trend­watcher. Zijn meest recente rapporten gaan over ‘Machines met verbeeldingskracht’ en over ‘Deepfake Technologie’.

Foto: Depositphotos.com