Door ‘deepfakes’ kunnen we onze ogen en oren niet vertrouwen: waakzaamheid is geboden in de nieuwe schijnrealiteit, stelt trendwatcher Jarno Duursma.

Wie het nieuws een beetje volgt, ziet steeds vaker melding van deepfake-video’s. Dat zijn nep­video’s, gecreëerd door kunstmatig intelligente systemen, waarop mensen dingen doen die ze in werkelijkheid niet hebben gedaan, of dingen zeggen die ze in werkelijkheid niet hebben gezegd. Barack Obama, die zich op beeld negatief uitlaat over Donald Trump, met woorden die hij nooit zelf zo heeft uitgesproken. Dat werk.

Door de opkomst van deepfake-­video’s naderen we een tijdperk waarin we onze ogen en oren niet meer kunnen vertrouwen. Dat vraagt van ons letterlijk en figuurlijk een scherpe blik.

Hollywood

Bewerkte hyperrealistische video’s waren tot voor kort voorbehouden aan Hollywood, maar dat is verleden tijd. De randvoorwaarden zijn aanwezig voor een ‘perfect storm’ die gaat zorgen voor een vloedgolf aan audiovisueel nepnieuws; de video’s kunnen namelijk gemakkelijk worden geproduceerd tegen lage kosten. Er is geen programmeerkennis meer nodig omdat de AI-software alle processen overneemt. Met de (inmiddels verwijderde) app DeepNude kon je een foto van een geklede vrouw binnen 30 seconden veranderen in een naaktfoto.

Chantage

Ook de distributie van dit soort video’s is simpel. Niet onbelangrijk: we lezen en delen nou eenmaal graag sappig, negatief, prikkelend en vooroordelen bevestigend nieuws.

Dit brengt allerlei risico’s met zich mee, zoals chantage, geopolitieke spanningen en het toebrengen van reputatieschade. De Indiase journaliste Rana Ayyub werd bijvoorbeeld, nadat ze campagne voerde voor een verkrachtingsslachtoffer, hoofdrolspeler in een pornografische deepfake. Deze werd tienduizenden keren gedeeld en had forse impact op haar professionele functioneren en op haar als mens.

Denkfouten

Dit soort gebeurtenissen noodzaken tot een steviger debat over deepfakes. Want dat debat lijdt nu onder denkfouten. Sommigen blijven onterecht wijzen op de imperfectie van deze technologie. Dat is onnozel; het wordt razendsnel beter. Deze week zag ik een video waarin Jack Nicholsons gezicht in de The Shining werd vervangen door dat van acteur Jim Carrey. Op het laatst is het verschil met het blote oog niet meer te zien.

Ook bestaat de overtuiging dat de ­risico’s van deze technologie kunnen worden afgedekt met nieuwe technologie. Dat is maar gedeeltelijk waar. Nieuwe AI-systemen kunnen weliswaar minuscule oneffenheden detecteren, zoals het verschil tussen lipbewegingen en gesproken audio, maar AI-technologie biedt geen waterdichte oplossing. Het is zoals spam in je inbox; software lost het voor een deel op, maar nog steeds klikken honderdduizenden mensen per jaar op een foute link.

Podcast Kunstmatige Intelligentie

Stemmen

Dan is er de denkfout dat het bij deze technologie alleen gaat om videomateriaal. Ook geschreven teksten en stemmen kunnen worden nagemaakt. Neem het programma Lyrebird waarmee je stemmen kunt nabootsen of het AI-systeem Grover dat op basis van een titel als ‘Link gevonden tussen vaccinatie en autisme’ zelf een artikel kan genereren. Misinformatie kent vele vormen.

Mensen kijken vooral naar de meest voor de hand liggende gevaren: ‘Wat als er een video verschijnt waarin Trump verklaart raketten te hebben ­afgeschoten op Iran? Of Amerikaanse militairen de Koran in het toilet gooien?’

Escalatie van politieke spanningen is niet het meest serieuze risico. Ik ben vooral bezorgd dat er zoveel nep wordt verspreid, dat het publiek onverschillig wordt en dat kwaadwilligen hierdoor vrij spel krijgen. Vermeende daders kunnen bewijsmateriaal gewoonweg afdoen als ‘deepfake’.

 

Kansen

Deepfake zou ook kansen bieden voor traditionele journalistiek. Het weergeven van geverifieerde feitelijkheden is hun unique selling point. Deze wensgedachte werd ook uitgesproken bij de opkomst van sociale media. Toch hebben we nu last van filterbubbles, polarisatie en een wereld van post-truth waarin zelfs de meest basale wetenschappelijke feitelijkheden sterk worden betwijfeld.

Het is kortom belangrijk dat we – nu waarheid en leugen, realiteit en illusie, steeds meer met elkaar vervlochten ­raken – scherp zijn op de mogelijke nadelige gevolgen. Dit mogen we niet door onze vingers laten glippen. Want hoe je het ook wendt of keert: deepfake creëert voor ons allemaal een nieuwe realiteit.

Lees hier mijn NRC column: Digitale butler of digitale baas?

Dit artikel verscheen eerder in de Volkskrant op 18 juli 2019.

 

Boek Jarno als spreker

"Voor de eerste editie van ons online digital marketing event bij Achmea heeft Jarno een lezing gegeven over synthetische media en deepfakes. Jarno brengt met veel energie de boodschap over en maakt het onderwerp erg toegankelijk, ook voor collega’s die weinig digital kennis hebben. Met behulp van sprekende voorbeelden word je helemaal meegenomen in de wereld van deze nieuwe technologie."
Kimberley van Hulst
Digital Marketeer Achmea
Kimberley van Hulst
"Jarno heeft bij de HKU een lezing verzorgd over Synthetische Media: Kunstmatige creativiteit. Jarno liet aan de hand van vele voorbeelden zien wat er in de fascinerende wereld van deepfakes allemaal mogelijk is. Interessant en beangstigend tegelijkertijd, en genoeg stof tot nadenken. Zijn lezing werd met veel enthousiasme ontvangen."
Marjoleine Gadella
Coördinator Evenementen bij HKU
Marjoleine Gadella

Waarom Jarno?

spreker technologie

Waarom zou je voor Jarno kiezen als spreker? Lees het blog: Dan lees je de 8 redenen om voor Jarno als spreker te kiezen. Klik op de knop hieronder.

Waarom Jarno?

Meer weten over Jarno? Wie hij is? Wat hij doet? Klik dan op de onderstaande knop.

Over mij