Wat is deepfake?

Deepfake is een kunstmatige intelligentie dat wordt gebruikt voor manipulatie van beelden, audio en teksten. Dat noemt men ook wel ‘deepfakes’. Beeldmanipulatie is trouwens niet voorbehouden aan ons digitale tijdperk. Er zijn vele voorbeelden in de wereldgeschiedenis waarbij achteraf bleek dat beelden waren gemanipuleerd. Zo liet bijvoorbeeld de Amerikaanse president Lincoln een gravure maken. Hierop stond zijn hoofd op het lichaam van John C. Calhoun; de vicepresident van de VS in de eerste helft van de negentiende eeuw. Naar verluidt was dat om de uitstraling van president Lincoln meer ‘presidentieel’ te laten lijken.

In 1990 bracht Adobe het programma Photoshop uit. Sindsdien is ‘photoshoppen’ een werkwoord. Tegenwoordig is vrijwel iedereen in het bezit is van een smartphone met ingebouwde goede fotocamera. Inclusief alle beschikbare fotofilters. Hierdoor is de kans tegenwoordig groter dat je online een gemanipuleerde foto tegenkomt dan het origineel.

Bewerkte realistische video’s waren tot voor kort voorbehouden aan Hollywood-studio’s, maar tegenwoordig zijn ze voor iedereen binnen handbereik. Dat maakt deepfake ook zo’n prominente ontwikkeling. De afgelopen maanden lees je dan ook steeds vaker over deepfake-technologie in nieuwsberichten.

Wat zijn deepfakes?

Deepfakes zijn teksten, beelden, video’s en audio-bewerkingen die door kunstmatige intelligente software zijn gemaakt. De term Deepfake combineert de Engelse woorden deep en fake. Deep verwijst naar de kunstmatig intelligente deep learning-netwerken. Fake staat voor nep. Deepfake content kan een hoop hilariteit opleveren. Bijvoorbeeld wanneer de komiek Bill Hader een imitatie doet van Arnold Schwarzenegger. Of als Kim Kardashian in een video zegt dat ze haar volgers manipuleert voor commerciële doeleinden.

Wil je meer weten over dit onderwerp? Lees hier mijn rapport: Deepfake technologie: The Infocalypse.

Maar deepfake-technologie vormt ook een bedreiging. De toepassing kan op vele manieren gebruikt worden en zo meningen manipuleren, mensen chanteren of reputatieschade toebrengen. We betreden een online tijdperk waarin we onze ogen en oren niet meer kunnen vertrouwen. Ik schreef hier recentelijk een opinie-artikel over in de Volkskrant. Waarom horen we zoveel over deze deepfake-video’s? Hoe kan het dat deze ontwikkeling zo snel gaat? Waarom neemt de hoeveelheid deepfake-video’s zo toe? Het antwoord is relatief eenvoudig. Alle seinen staan op groen om deze ontwikkeling bovenmatig te versnellen. De video’s zijn relatief eenvoudig te maken, gemakkelijk te distribueren en er is voldoende publiek.

Beeldmanipulatie

Deepfake-technologie brengt het begrip nep-informatie op een hoger niveau. Informatie is volop digitaal beschikbaar en deepfake-software is steeds makkelijker te gebruiken. Video, audio en teksten zijn goed te manipuleren. Wat eerder alleen in Hollywood werd gemaakt, ligt nu binnen ieders handbereik. Daarom moeten we snel leren herkennen wat deepfake is. Zeker nu we (nep)informatie razendsnel wereldwijd met elkaar delen.

Generative Adversarial Networks

De laatste decennia is de kwalitatieve ontwikkeling van kunstmatige intelligentie razendsnel gegaan. Deep learning-netwerken leren van voorbeelden. Je geeft een machine een stapel van tienduizend foto’s van een rode sportschoen. Vervolgens herkent het elke rode sportschoen die het registreert.

Bij de volgende stap komt deepfake om de hoek kijken. Op basis van voorbeelden creëert het systemen zelf aan de hand van criteria. Een AI-systeem maakt zelf een rode sportschoen. En vele, vele variaties daarop.

Een deepfake-techniek die sterk in opkomst is, zijn de generative adversarial networks, oftewel GAN’s. Een GAN bestaat vaak uit twee netwerken. Het eerste neurale netwerk, de generator, creëert nieuwe digitale content. Het andere systeem, de discriminator, bepaalt of die nieuwe informatie echt lijkt. Ze werken samen in onderlinge competitie. Hierin stuwen de twee systemen elkaar op tot een grote hoogte. De informatie die de discriminator uiteindelijk goedkeurt is soms niet meer van echt te onderscheiden is. De scheidslijn tussen echt en nep wordt dunner.

Soorten Deepfake

Van alle vormen van generatieve deepfake softwareproducten gaat de meeste aandacht uit naar deepfake-beeldmateriaal. Generatieve AI-software kan bijvoorbeeld gezichten in video’s verwisselen (face swap) of een keurige foto veranderen in een naaktfoto (Deepnude). Naarmate de technologie zich ontwikkelt, wordt het steeds moeilijker om nep en echt te onderscheiden. Vergaand misbruik ligt op de loer.

Niet alleen beeld kan nep zijn. Denk ook aan geluid, zoals muziek en spraak. Recent werd er financiële bedrijfsfraude gepleegd met een gekloonde directeur-stem. Hiermee is succesvol opdracht geven voor een transactie van om en nabij €220.000.

Generatieve AI-systemen kunnen ook overweg met tekst. Digitale tekst is volop beschikbaar. Van de online krantenarchieven tot complete bibliotheken vol e-books. Hiermee worden systemen getraind. Een systeem hoeft de tekst niet te begrijpen om te leren en nieuwe teksten te genereren. Anno 2019 zijn de teksten nog niet van perfecte kwaliteit. Zeker niet de langere stukken tekst. Maar de technologie wordt steeds beter.

Verstrekkende gevolgen van Deepfake

De opkomst van deepfake-informatie kan verstrekkende gevolgen hebben. Stel dat er een deepfake-video opduikt van een belangrijke Nederlandse politicus die omgekocht lijkt te worden. Of zo’n video waarin een FBI-medewerker vertelt dat die graag iemand uit de Trump-familie wil oppakken voor vermeende banden met Rusland en dat hij daarvoor zelf bewijs aan het genereren is. Of Russische nepvideo’s met daarin een in scène gezet opstootje tussen Amerikaanse politici, een anti-Amerika-demonstratie in Saoedi-Arabië of Amerikaanse militairen die een koran verbranden. Er zijn tal van voorbeelden te bedenken waarbij geënsceneerde video’s of geluidsopnamen leiden tot geopolitieke onrust of sociale polarisatie.

Risico’s van Deepfake

Nepinformatie kan ontwrichtend werken. Denk aan chantage en reputatieschade in de politiek, het bedrijfsleven en in de juridische praktijk. Men kan roepen: “Dat heb ik niet gezegd, dat komt uit een computer.” Mensen zullen sneller geneigd zijn om te denken: die informatie zal wel nep zijn. Als je informatie niet meer kunt vertrouwen, kan de samenleving onverschillig worden. Dit kan een bedreiging vormen voor de democratische rechtstaat.

Veronderstel dat er een echte geluidsopname opduikt van de privé-ontmoeting in 2018 in de Finse hoofdstad Helsinki tussen de Amerikaanse president Trump en zijn Russische collega Poetin. Deze ontmoeting vond plaats achter gesloten deuren, zonder assistenten of notulisten. Als uit deze geluidsopname blijkt dat de Amerikaanse president chantabel is, dan kan hij nu anno 2019 deze opname afdoen als deepfake-technologie. Niets aan de hand.

Sommigen hebben het al over een infocalypse, een vernietiging van de betrouwbaarheid van informatie. Foto’s, video’s, geluidsopnamen, menselijke stemmen, geschreven teksten en geschreven recensies die we overal tegenkomen. Ze kunnen allemaal nep zijn.

Nieuwe realiteit

Hoewel deepfake-technologie veel kan, staat het nog in de kinderschoenen. Dat geeft ons lucht. We kunnen wennen aan het idee dat niet alle informatie betrouwbaar is. Dat we gemanipuleerd worden met soorten content. Er is een wedloop op gang gekomen tussen echt en nep. Daarmee zullen we moeten leren leven. Deepfake is een nieuwe realiteit.

Meer weten?

Luister hier naar mijn interview met 3FM hierover.

Luister hier naar mijn interview net NPO Radio 1 erover.

Luister hier naar mijn interview met BNR hierover.

Luister hier naar mijn interview voor de podcast van Biohacking hierover.

Boek Jarno als spreker over deepfakes

Mijn klanten