Vragen? Bel 06 – 160 749 53 of mail mij info@jarnoduursma.nl

Vragen? Bel of mail mij

Door ‘deepfakes’ kunnen we onze ogen en oren niet vertrouwen: waakzaamheid is geboden in de nieuwe schijnrealiteit, stelt trendwatcher Jarno Duursma.

Wie het nieuws een beetje volgt, ziet steeds vaker melding van deepfake-video’s. Dat zijn nep­video’s, gecreëerd door kunstmatig intelligente systemen, waarop mensen dingen doen die ze in werkelijkheid niet hebben gedaan, of dingen zeggen die ze in werkelijkheid niet hebben gezegd. Barack Obama, die zich op beeld negatief uitlaat over Donald Trump, met woorden die hij nooit zelf zo heeft uitgesproken. Dat werk.

Door de opkomst van deepfake-­video’s naderen we een tijdperk waarin we onze ogen en oren niet meer kunnen vertrouwen. Dat vraagt van ons letterlijk en figuurlijk een scherpe blik.

Hollywood

Bewerkte hyperrealistische video’s waren tot voor kort voorbehouden aan Hollywood, maar dat is verleden tijd. De randvoorwaarden zijn aanwezig voor een ‘perfect storm’ die gaat zorgen voor een vloedgolf aan audiovisueel nepnieuws; de video’s kunnen namelijk gemakkelijk worden geproduceerd tegen lage kosten. Er is geen programmeerkennis meer nodig omdat de AI-software alle processen overneemt. Met de (inmiddels verwijderde) app DeepNude kon je een foto van een geklede vrouw binnen 30 seconden veranderen in een naaktfoto.

Chantage

Ook de distributie van dit soort video’s is simpel. Niet onbelangrijk: we lezen en delen nou eenmaal graag sappig, negatief, prikkelend en vooroordelen bevestigend nieuws.

Dit brengt allerlei risico’s met zich mee, zoals chantage, geopolitieke spanningen en het toebrengen van reputatieschade. De Indiase journaliste Rana Ayyub werd bijvoorbeeld, nadat ze campagne voerde voor een verkrachtingsslachtoffer, hoofdrolspeler in een pornografische deepfake. Deze werd tienduizenden keren gedeeld en had forse impact op haar professionele functioneren en op haar als mens.

Denkfouten

Dit soort gebeurtenissen noodzaken tot een steviger debat over deepfakes. Want dat debat lijdt nu onder denkfouten. Sommigen blijven onterecht wijzen op de imperfectie van deze technologie. Dat is onnozel; het wordt razendsnel beter. Deze week zag ik een video waarin Jack Nicholsons gezicht in de The Shining werd vervangen door dat van acteur Jim Carrey. Op het laatst is het verschil met het blote oog niet meer te zien.

Ook bestaat de overtuiging dat de ­risico’s van deze technologie kunnen worden afgedekt met nieuwe technologie. Dat is maar gedeeltelijk waar. Nieuwe AI-systemen kunnen weliswaar minuscule oneffenheden detecteren, zoals het verschil tussen lipbewegingen en gesproken audio, maar AI-technologie biedt geen waterdichte oplossing. Het is zoals spam in je inbox; software lost het voor een deel op, maar nog steeds klikken honderdduizenden mensen per jaar op een foute link.

Podcast Kunstmatige Intelligentie

Stemmen

Dan is er de denkfout dat het bij deze technologie alleen gaat om videomateriaal. Ook geschreven teksten en stemmen kunnen worden nagemaakt. Neem het programma Lyrebird waarmee je stemmen kunt nabootsen of het AI-systeem Grover dat op basis van een titel als ‘Link gevonden tussen vaccinatie en autisme’ zelf een artikel kan genereren. Misinformatie kent vele vormen.

Mensen kijken vooral naar de meest voor de hand liggende gevaren: ‘Wat als er een video verschijnt waarin Trump verklaart raketten te hebben ­afgeschoten op Iran? Of Amerikaanse militairen de Koran in het toilet gooien?’

Escalatie van politieke spanningen is niet het meest serieuze risico. Ik ben vooral bezorgd dat er zoveel nep wordt verspreid, dat het publiek onverschillig wordt en dat kwaadwilligen hierdoor vrij spel krijgen. Vermeende daders kunnen bewijsmateriaal gewoonweg afdoen als ‘deepfake’.

 

Kansen

Deepfake zou ook kansen bieden voor traditionele journalistiek. Het weergeven van geverifieerde feitelijkheden is hun unique selling point. Deze wensgedachte werd ook uitgesproken bij de opkomst van sociale media. Toch hebben we nu last van filterbubbles, polarisatie en een wereld van post-truth waarin zelfs de meest basale wetenschappelijke feitelijkheden sterk worden betwijfeld.

Het is kortom belangrijk dat we – nu waarheid en leugen, realiteit en illusie, steeds meer met elkaar vervlochten ­raken – scherp zijn op de mogelijke nadelige gevolgen. Dit mogen we niet door onze vingers laten glippen. Want hoe je het ook wendt of keert: deepfake creëert voor ons allemaal een nieuwe realiteit.

Lees hier mijn NRC column: Digitale butler of digitale baas?

Dit artikel verscheen eerder in de Volkskrant op 18 juli 2019.

 

Boek Jarno als spreker

Wat klanten zeggen

"Ik heb nog nooit deze groep communicatieprofessionals van UWV zo geboeid zien luisteren, als bij de anderhalf uur durende presentatie van Jarno over AI."
Marc Awater
Eventmanager UWV
Marc Awater
"Jarno zorgt met aanstekelijke energie en een enorme informatiedichtheid voor een interactieve presentatie die iedereen boeiend vindt. Hij vertelt je alles over de actuele ontwikkelingen en licht ook de risico's toe. Jarno vult de zaal met kennis en energie en is bovenal een zeer prettig persoon om mee samen te werken."
Marijke Roskam
Professioneel Dagvoorzitter
Marijke Roskam
"In oktober 2024 sprak Jarno op ons IV-congres. Een bevlogen verhaal met relevante inhoud, beoordeeld met een prachtige 9,1 door de deelnemers."
David Kok
Projectleider UWV
David Kok

Waarom Jarno?

Wie is Jarno Duursma? Lees alles over zijn achtergrond als spreker, schrijver en tech-expert.

Over Jarno Duursma

Waarin onderscheidt Jarno zich van andere sprekers? Lees meer over zijn drijfveren, ervaring en presentatiestijl.

Waarom Jarno Duursma?

Jarno Duursma is onafhankelijk publicist, spreker en auteur op het gebied van AI en digitale technologie. Hij schreef vier tech-boeken, waaronder één over AI (2017), en publiceerde twee rapporten over generatieve AI (2019). Met meer dan 1500 lezingen op zijn naam is hij een veelgevraagd spreker in binnen- en buitenland. Zijn opinieartikelen verschijnen in FD, NRC en Volkskrant. Daarnaast is hij LinkedIn AI Top Voice en maakt hij de tech-podcast ‘Listening to the Future’ en de tech-nieuwsbrieven ‘Trending in Tech’ en ‘Signals from the Future’.