Door ‘deepfakes’ kunnen we onze ogen en oren niet vertrouwen: waakzaamheid is geboden in de nieuwe schijnrealiteit, betoogt trendwatcher Jarno Duursma.

Wie het nieuws een beetje volgt, ziet steeds vaker melding van ‘deepfake’-­video’s. Dat zijn nep­video’s, gecreëerd door kunstmatig intelligente systemen, waarop mensen dingen doen die ze in werkelijkheid niet hebben gedaan, of dingen zeggen die ze in werkelijkheid niet hebben gezegd. Barack Obama, die zich op beeld negatief uitlaat over Donald Trump, met woorden die hij nooit zelf zo heeft uitgesproken. Dat werk.

Door de opkomst van deepfake-­video’s naderen we een tijdperk waarin we onze ogen en oren niet meer kunnen vertrouwen. Dat vraagt van ons letterlijk en figuurlijk een scherpe blik.

Hollywood

Bewerkte hyperrealistische video’s waren tot voor kort voorbehouden aan Hollywood, maar dat is verleden tijd. De randvoorwaarden zijn aanwezig voor een ‘perfect storm’ die gaat zorgen voor een vloedgolf aan audiovisueel nepnieuws; de video’s kunnen namelijk gemakkelijk worden geproduceerd tegen lage kosten. Er is geen programmeerkennis meer nodig omdat de AI-software alle processen overneemt. Met de (inmiddels verwijderde) app DeepNude kon je een foto van een geklede vrouw binnen 30 seconden veranderen in een naaktfoto.

Chantage

Ook de distributie van dit soort video’s is simpel. Niet onbelangrijk: we lezen en delen nou eenmaal graag sappig, negatief, prikkelend en vooroordelen bevestigend nieuws.

Dit brengt allerlei risico’s met zich mee, zoals chantage, geopolitieke spanningen en het toebrengen van reputatieschade. De Indiase journaliste Rana Ayyub werd bijvoorbeeld, nadat ze campagne voerde voor een verkrachtingsslachtoffer, hoofdrolspeler in een pornografische deepfake. Deze werd tienduizenden keren gedeeld en had forse impact op haar professionele functioneren en op haar als mens.

Denkfouten

Dit soort gebeurtenissen noodzaken tot een steviger debat over deepfakes. Want dat debat lijdt nu onder denkfouten. Sommigen blijven onterecht wijzen op de imperfectie van deze technologie. Dat is onnozel; het wordt razendsnel beter. Deze week zag ik een video waarin Jack Nicholsons gezicht in de The Shining werd vervangen door dat van acteur Jim Carrey. Op het laatst is het verschil met het blote oog niet meer te zien.

Ook bestaat de overtuiging dat de ­risico’s van deze technologie kunnen worden afgedekt met nieuwe technologie. Dat is maar gedeeltelijk waar. Nieuwe AI-systemen kunnen weliswaar minuscule oneffenheden detecteren, zoals het verschil tussen lipbewegingen en gesproken audio, maar AI-technologie biedt geen waterdichte oplossing. Het is zoals spam in je inbox; software lost het voor een deel op, maar nog steeds klikken honderdduizenden mensen per jaar op een foute link.

Stemmen

Dan is er de denkfout dat het bij deze technologie alleen gaat om videomateriaal. Ook geschreven teksten en stemmen kunnen worden nagemaakt. Neem het programma Lyrebird waarmee je stemmen kunt nabootsen of het AI-systeem Grover dat op basis van een titel als ‘Link gevonden tussen vaccinatie en autisme’ zelf een artikel kan genereren. Misinformatie kent vele vormen.

Mensen kijken vooral naar de meest voor de hand liggende gevaren: ‘Wat als er een video verschijnt waarin Trump verklaart raketten te hebben ­afgeschoten op Iran? Of Amerikaanse militairen de Koran in het toilet gooien?’

Escalatie van politieke spanningen is niet het meest serieuze risico. Ik ben vooral bezorgd dat er zoveel nep wordt verspreid, dat het publiek onverschillig wordt en dat kwaadwilligen hierdoor vrij spel krijgen. Vermeende daders kunnen bewijsmateriaal gewoonweg afdoen als ‘deepfake’.

Kansen

Deepfake zou ook kansen bieden voor traditionele journalistiek. Het weergeven van geverifieerde feitelijkheden is hun unique selling point. Deze wensgedachte werd ook uitgesproken bij de opkomst van sociale media. Toch hebben we nu last van filterbubbles, polarisatie en een wereld van post-truth waarin zelfs de meest basale wetenschappelijke feitelijkheden sterk worden betwijfeld.

Het is kortom belangrijk dat we – nu waarheid en leugen, realiteit en illusie, steeds meer met elkaar vervlochten ­raken – scherp zijn op de mogelijke nadelige gevolgen. Dit mogen we niet door onze vingers laten glippen. Want hoe je het ook wendt of keert: deepfake creëert voor ons allemaal een nieuwe realiteit.

Dit artikel verscheen eerder in de Volkskrant op 18 juli 2019

Boek Jarno als spreker

Mijn klanten