Wat is deepfake?

Deepfakes zijn beelden, geluiden en teksten die door kunstmatige intelligente software worden gecreëerd. Slimme software wordt dan gebruikt voor de creatie of manipulatie van beelden, audio en teksten. Dat noemt men dus ook wel ‘deepfakes‘. In dit artikel lees je er alles over. Hoe het gemaakt wordt, wat de voorbeelden zijn en wat de risico’s zijn van deepfakes.

Wil je gelijk de diepte in? Download dan mijn rapport over Deepfake technologie.

Beeldmanipulatie is trouwens niet voorbehouden aan ons digitale tijdperk. Er zijn vele voorbeelden in de wereldgeschiedenis waarbij achteraf bleek dat beelden waren gemanipuleerd. Zo liet bijvoorbeeld de Amerikaanse president Lincoln een gravure maken. Hierop stond zijn hoofd op het lichaam van John C. Calhoun; de vicepresident van de VS in de eerste helft van de negentiende eeuw. Naar verluidt was dat om de uitstraling van president Lincoln meer ‘presidentieel’ te laten lijken.

In 1990 bracht Adobe het programma Photoshop uit. Sindsdien is ‘photoshoppen’ een werkwoord. Tegenwoordig is vrijwel iedereen in het bezit is van een smartphone met ingebouwde goede fotocamera. Inclusief alle beschikbare fotofilters. Hierdoor is de kans tegenwoordig groter dat je online een gemanipuleerde foto tegenkomt dan het origineel.

Bewerkte realistische video’s waren tot voor kort voorbehouden aan Hollywood-studio’s, maar tegenwoordig zijn ze voor iedereen binnen handbereik. Dat maakt deepfake ook zo’n prominente ontwikkeling. De afgelopen maanden lees je dan ook steeds vaker over deepfake-technologie in nieuwsberichten. Wat is de definitie van deepfakes?

Wat zijn deepfakes?

Deepfakes zijn dus teksten, beelden, video’s en audio-bewerkingen die door kunstmatige intelligente software zijn gemaakt. De term Deepfake combineert de Engelse woorden deep en fake. Deep verwijst naar de kunstmatig intelligente deep learning-netwerken. Fake staat voor nep. Deepfake content kan een hoop hilariteit opleveren. Bijvoorbeeld wanneer de komiek Bill Hader een imitatie doet van Arnold Schwarzenegger. Of als Kim Kardashian in een video zegt dat ze haar volgers manipuleert voor commerciële doeleinden.

“De term deepfake slaat op nepinformatie die door moderne AI-software (artificial intelligence) gecreëerd kan worden. Deze AI-systemen creëren nieuwe digitale content zoals gezichten, afbeeldingen, video’s, teksten, menselijke stemmen en andere audio opnames. Nieuwe digitale content die ons bekend voorkomt, maar in feite volledig nieuwgeboren is. Het is nep.” Jarno Duursma

Maar deepfake-technologie vormt ook een bedreiging. De toepassing kan op vele manieren gebruikt worden en zo meningen manipuleren, mensen chanteren of reputatieschade toebrengen. We betreden een online tijdperk waarin we onze ogen en oren niet meer kunnen vertrouwen. Ik schreef hier o.a. een opinie-artikel over in de Volkskrant.

Waarom horen we zoveel over deze deepfake-video’s? Hoe kan het dat deze ontwikkeling zo snel gaat? Waarom neemt de hoeveelheid deepfake-video’s zo toe? Het antwoord is relatief eenvoudig. Alle seinen staan op groen om deze ontwikkeling bovenmatig te versnellen. De video’s zijn relatief eenvoudig te maken (nu bijvoorbeeld met smartphone-apps), gemakkelijk te distribueren (via social media en WhatsApp) en er is voldoende publiek dat gekke, spraakmakende, sappige video’s wil delen.

Beeldmanipulatie

Deepfake-technologie brengt het begrip nep-informatie op een hoger niveau. Informatie is volop digitaal beschikbaar en deepfake-software is steeds makkelijker te gebruiken (nu ook via smartphone apps). Video, audio en teksten zijn goed te manipuleren. Wat eerder alleen in Hollywood werd gemaakt, ligt nu binnen ieders handbereik. Daarom moeten we snel leren herkennen wat deepfake is. Zeker nu we (nep)informatie razendsnel wereldwijd met elkaar delen.

Generative Adversarial Networks

Hoe worden Deepfakes gemaakt? Veelal door gebruik te maken van general adversarial networks.

De laatste decennia is de kwalitatieve ontwikkeling van kunstmatige intelligentie razendsnel gegaan. Een deepfake-techniek die sterk in opkomst is, zijn de generative adversarial networks, oftewel GAN’s. Een GAN bestaat vaak uit twee netwerken. Het eerste neurale netwerk, de generator, creëert nieuwe digitale content. Het andere systeem, de discriminator, bepaalt of die nieuwe informatie echt lijkt. Ze werken samen in onderlinge competitie. Hierin stuwen de twee systemen elkaar op tot een grote hoogte. De informatie die de discriminator uiteindelijk goedkeurt is soms niet meer van echt te onderscheiden is. De scheidslijn tussen echt en nep wordt dunner. De generator gaat net zo lang door met het creëren van content totdat de discriminator zegt: zo is het goed. Dan is het niet meer van echt te onderscheiden.

Soorten Deepfake

1. Beeld

Van alle vormen van generatieve deepfake softwareproducten gaat de meeste aandacht uit naar deepfake-beeldmateriaal. Generatieve AI-software kan bijvoorbeeld gezichten in video’s verwisselen (face swap) of een keurige foto veranderen in een naaktfoto (Deepnude). Naarmate de technologie zich ontwikkelt, wordt het steeds moeilijker om nep en echt te onderscheiden. Vergaand misbruik ligt op de loer.

2.Voice

Niet alleen beeld kan nep zijn. Denk ook aan geluid, zoals muziek en spraak. Recent werd er financiële bedrijfsfraude gepleegd met een gekloonde directeur-stem. Hiermee is succesvol opdracht geven voor een transactie van om en nabij €220.000.

Voice Cloning, het namaken van iemands stem, wordt steeds geloofwaardiger.
Een paar weken geleden zagen we al een nieuw softwareproduct van Google dat slechts 5 seconden nodig had om een stem te kunnen klonen. Ook Startup Lovo heeft inmiddels goede voice cloning software op de markt. Voice-cloning is niet meer te stoppen. Check de demo-video.
Toepassingen: Spotifyreclame kan bijvoorbeeld snel worden gepersonaliseerd wanneer een reclame-stem ook jouw naam gebruikt. Nieuwslezers kunnen 24 uur per dag het nieuws voorlezen, zolang ze maar gevoed worden met nieuwe teksten. De stem van je dierbaren kun je klonen zodat je ook na overlijden tegen ze kunt praten via je smart speaker. Het wordt makkelijker om een audioboek uit te brengen naast je gewone boek.
Slechte scenario: Wanneer dit feilloos werkt, kun je iemand anders van alles laten zeggen in een audio fragment. Smaad, reputatieschade, chantage, identiteitsfraude.
Over een paar jaar als app op je smartphone?

3. Tekst

Generatieve AI-systemen kunnen ook overweg met tekst. Digitale tekst is volop beschikbaar. Van de online krantenarchieven tot complete bibliotheken vol e-books. Hiermee worden systemen getraind. Een systeem hoeft de tekst niet te begrijpen om te leren en nieuwe teksten te genereren. Anno 2019 zijn de teksten nog niet van perfecte kwaliteit. Zeker niet de langere stukken tekst. Maar de technologie wordt steeds beter.

Een voorbeeld is GPT-3.

GPT-3 is een AI-systeem dat is getraind om zelfstandig geloofwaardige teksten te genereren. Het systeem kan in feite 1 ding heel erg goed: het volgende woord in een bepaalde zin voorspellen. Daardoor kan GPT-3 volledige teksten produceren die soms lijken op menselijke teksten. Het computersysteem heeft daarbij overigens geen weet van de ‘betekenis’ van woorden, maar is vooral goed in het doen van woord-voorspellingen. Het is dus eigenlijk een supergeavanceerde “auto-complete” functie, zoals je dat als simpele versie misschien ook herkent van je telefoon wanneer je aan het typen bent. Hoewel OpenAI de code van het model niet open-source heeft aangeboden, heeft het wel een API gebouwd om te experimenteren met de mogelijkheden van het model.

In een krantenartikel van The Guardian schreef het AI systeem de volgende tekst:

“Studies show that we cease to exist without human interaction. Surrounded by wifi we wander lost in fields of information unable to register the real world. As a new generation of cyberneticians keep watch, they see in our present age of the virtual a potential to transform the modern “cyborg”. Global cybernetics are already making it so.”

ps: ga je het Guardian artikel opzoeken en lezen. Lees dan vantevoren even mijn kritiek op GPT-3.

Risico’s van Deepfake

Nepinformatie kan ontwrichtend werken. Denk aan chantage en reputatieschade in de politiek, het bedrijfsleven en in de juridische praktijk. Men kan roepen: “Dat heb ik niet gezegd, dat komt uit een computer.” Mensen zullen sneller geneigd zijn om te denken: die informatie zal wel nep zijn. Als je informatie niet meer kunt vertrouwen, kan de samenleving onverschillig worden. Dit kan een bedreiging vormen voor de democratische rechtstaat.

Veronderstel dat er een echte geluidsopname opduikt van de privé-ontmoeting in 2018 in de Finse hoofdstad Helsinki tussen de Amerikaanse president Trump en zijn Russische collega Poetin. Deze ontmoeting vond plaats achter gesloten deuren, zonder assistenten of notulisten. Als uit deze geluidsopname blijkt dat de Amerikaanse president chantabel is, dan kan hij nu anno 2019 deze opname afdoen als deepfake-technologie. Niets aan de hand.

Sommigen hebben het al over een infocalypse, een vernietiging van de betrouwbaarheid van informatie. Foto’s, video’s, geluidsopnamen, menselijke stemmen, geschreven teksten en geschreven recensies die we overal tegenkomen. Ze kunnen allemaal nep zijn. Lees hieronder over de problemen die deepfakes kunnen opleveren.

Problemen door Deepfakes

Welke problemen kunnen er ontstaan nu deepfake-video’s, teksten en audio-fragmenten relatief gemakkelijk en snel kunnen worden gecreëerd en verspreid? Hieronder een korte, niet volledige opsomming.

1. Onrust en polarisatie

Stel dat er een deepfake-video opduikt van een belangrijke Nederlandse politicus die omgekocht lijkt te worden. Of zo’n video waarin een FBI-medewerker vertelt dat die graag iemand uit de Trump-familie wil oppakken voor vermeende banden met Rusland en dat hij daarvoor zelf bewijs aan het genereren is. Of Russische nepvideo’s met daarin een in scène gezet opstootje tussen Amerikaanse politici, een anti-Amerika-demonstratie in Saoedi-Arabië of Amerikaanse militairen die een koran verbranden. Er zijn tal van voorbeelden te bedenken waarbij geënsceneerde video’s of geluidsopnamen gegarandeerd leiden tot geopolitieke onrust of sociale polarisatie in de samenleving.

Het kan een serieuze strategie zijn van het ene land om in een ander, vijandig land verdeeldheid te zaaien. Door te polariseren ontstaat steeds minder saamhorigheid en daardoor verzwakking omdat de besluitvorming minder effectief wordt. Het fundament van een democratische staat is immers een gedeelde perceptie van de werkelijkheid en een bijbehorende overeenstemming over feitelijkheden. Wanneer dat ontbreekt, kunnen nationale problemen ontstaan die zich naderhand zeer lastig laten oplossen.

Ook kunnen regimes deepfake-technologie gaan inzetten voor hun eigen propaganda, zowel om politieke tegenstanders zwart te maken als om de eigen politici en leiders op een positieve manier af te schilderen. Nepvideo’s laten dan bijvoorbeeld zien hoe die leiders aanwezig waren in penibele situaties en zich gedroegen als ware helden. Internationaal gezien lijken overigens vooral Iran, China, Noord-Korea, de VS en Rusland erg actief te zijn in de ontwikkeling van deze deepfake-videotechnologie.

2. Chantage

Het is niet ondenkbaar dat politici, journalisten, buitenlandse militairen, directeuren van grote bedrijven , klokkenluiders en financieel verantwoordelijken in de toekomst te maken krijgen met chantage met deepfake-video’s. Op een dag kunnen ze dan onderstaande e-mail in hun inbox aantreffen:

“Hallo, dit is een link naar een online video waarin jij de hoofdrol speelt. Je vindt het vast onprettig wanneer jouw seksuele escapades te zien zijn voor de buitenwereld. Wat zouden je familie en je vrienden ervan vinden? Dit is vast niet goed voor je reputatie. Ik denk dat het goed is dat je (vul hier de wens van de crimineel in) dus ik ga er vanuit dat je aan onze wensen tegemoet komt.”

Zelfs wanneer de deepfake-video een matige kwaliteit heeft, wil de hoofdrolspeler vanzelfsprekend niet dat die wordt verspreid. Alleen al de suggestie van onethisch, crimineel, afwijkend seksueel gedrag kan flink wat reputatieschade en -schande tot gevolg hebben. Om je vervolgens van alle blaam te zuiveren, kost vervolgens enorm veel tijd en energie, want suggesties zijn hardnekkig en kunnen iemand jarenlang achtervolgen. Buitenstaanders denken immers, dat waar rook is, ook vuur moet zijn. Met deepfake-technologie hebben kwaadwilligen een erg krachtig chantagemiddel in handen.

3. Reputatieschade

Een van de meest vanzelfsprekende effecten van deepfake-technologie is het toebrengen van reputatieschade. Activistische milieugroeperingen zouden daarmee directeuren van biotechnologiebedrijven in een kwaad daglicht kunnen stellen. Commerciële bedrijven zouden met de technologie een concurrent ten val kunnen brengen. Op de avond vóór een beursgang kan een filmpje van een financieel directeur opduiken, waarin hij zogenaamd toegeeft dat er veel minder liquide middelen op de balans staan dan de officiële papieren vermelden. Aan de vooravond van een verkiezing kan een filmpje opduiken waarin een politicus seksistische, racistische of agressieve taal uitslaat. Als er al eerherstel komt, is dat te laat om de eventuele electorale schade te repareren.

Zeker mensen voor wie reputatie erg belangrijk is, zullen op korte termijn de gevaren en oplossingen van deze technologie onder ogen moeten zien. Overigens manifesteerde zich in het begin van de ontwikkeling van deepfake-technologie op het Reddit-forum al een zeer venijnige vorm van reputatieschade: deepfakeporno. Met die toepassing werd het gezicht van vrouwen geplakt op dat van een porno actrice. Reddit greep in en verwijderde dit ‘non-consensual pornography’-onderdeel , maar dat betekent niet dat de toepassing niet meer bestaat. Wanneer het gebruik van dergelijke deepfake-technologie zich verder verspreidt, zullen meer en meer vrouwen slachtoffer worden. Er zijn al websites waarop vrouwelijke beroemdheden in een pornografische setting worden gemanipuleerd. In de recente Nederlandse geschiedenis werd ex-NOS-nieuwslezeres Dionne Stax slachtoffer van een gemanipuleerde pornografische video .

Een ander voorbeeld betreft de Indiase journaliste Rana Ayyub. Nadat ze campagne voerde voor een verkrachtingsslachtoffer, verscheen ze als hoofdrolspeelster in een pornografische deepfake-nepvideo. Die werd vele tienduizenden keer gedeeld en dat had een forse impact, zowel op haar professionele functioneren als op haar als mens. De video was bedoeld om haar reputatie-schade toe te brengen vanwege haar persoonlijke overtuigingen.

4. Liars’ dividend/ Apathie

Het is helder waar zich de risico’s van de deepfake-technologie ongeveer bevinden. En omdat deze technologie steeds gemakkelijker in gebruik wordt, zal het algemene publiek steeds meer gewend raken aan gemanipuleerde beelden, teksten en stemmen. Aan de ene kant is dat goed: wanneer u een geluidsopname ontvangt van een bekende die u vraagt om geld over te maken, is het goed als u beseft dat die stem nep kan zijn. De gewenning aan deepfake-technologie kan echter ook een keerzijde hebben. Die keerzijde kan zijn dat we, door de golf van nepvideo’s, nepartikelen en nep geluidsopnamen, kwaadwillenden ongewild een troef in handen geven. Vermeende daders kunnen dan bewijsmateriaal, verzameld door journalisten, burgers of onderzoeksbureaus, gewoonweg afdoen als deepfake-video. Het fenomeen dat iedere belastende informatie kan worden geframed als een synthetisch gecreëerde nepvideo of -geluidsopname staat onder meer bekend als het liars’ dividend.

De tweede keerzijde van een mogelijke golf van nepvideo’s, nepartikelen en nepgeluidopnamen is dat we als samenleving apathisch worden voor nieuws. Dat er zo veel mogelijke leugens zijn, dat het publiek zijn schouders ophaalt voor elke video of geluidsopname die iets onthult, ook als die op waargebeurde feiten berust.

Zodra er apathie optreedt jegens alle content, verliest de journalistiek haar belangrijke rol als luis in de pels van het bedrijfsleven en de overheid. Het meest krachtige journalistieke wapen, het blootstellen aan het daglicht, verliest dan zijn kracht. Dat zou de democratie en het collectieve morele kompas ernstig kunnen bedreigen.

Nieuwe realiteit

Hoewel deepfake-technologie veel kan, staat het nog in de kinderschoenen. Dat geeft ons lucht. We kunnen wennen aan het idee dat niet alle informatie betrouwbaar is. Dat we gemanipuleerd worden met soorten content. Er is een wedloop op gang gekomen tussen echt en nep. Daarmee zullen we moeten leren leven. Deepfake is een nieuwe realiteit.

Meer weten?

Meer weten over deepfakes, synthetische media en kunstmatige intelligentie? Lees dan het rapport “Deepfake technologie: The Infocalypse” of boek een lezing van Jarno Duursma over dit onderwerp.

  • Luister hier naar mijn interview met 3FM hierover.
  • Luister hier naar mijn interview net NPO Radio 1 erover.
  • Luister hier naar mijn interview met BNR hierover.
  • Lees hier mijn rapport “Deepfake technologie: The Infocalypse”.
  • Luister hier naar mijn interview voor de podcast van Biohacking hierover.

Mijn drie publicaties over kunstmatige intelligentie.

Deepfake lezing

Impact van Deepfake technologie

1# Impact van Deepfake technologie

Deepfake technologie maakt het mogelijk om mensen in videos dingen te laten doen die ze in het echt niet gedaan hebben en te laten zeggen die ze niet gezegd hebben.

Daardoor ontstaat het risico dat we onze ogen en oren niet meer kunnen vertrouwen. Ik vertel u graag over Deepfake Technologie.

Bekijk lezing

Deepfake rapport

Deepfake technologie: The Infocalypse

Deepfake technologie: The Infocalypse

De term deepfake slaat op nepinformatie die moderne AI-software kan creëren. Deze AI-systemen creëren nieuwe digitale content zoals gezichten, afbeeldingen, video’s, teksten, menselijke stemmen en andere audio opnames. Nieuwe digitale content die ons bekend voorkomt, maar in feite volledig nieuwgeboren is.

We naderen een tijdperk waarin we onze ogen en oren online niet meer kunnen vertrouwen. AI-systemen maken geloofwaardige content zoals gezichten, stemmen en teksten.

Bekijk het boek Koop mijn boek

Deepfake podcast

"In drie kwartier kregen de deelnemers aan ons ANVR reiscongres in Portugal een spervuur aan voorbeelden van toepassingen kunstmatige intelligentie voorgeschoteld. De presentatie van Jarno heeft ons op een hele aanschouwelijke manier duidelijk gemaakt dat de toekomst al is begonnen. Toppresentatie!"
Frank Oostdam
Directeur ANVR
Frank Oostdam
"Jarno heeft voor Xpirit een zeer inspirerende sessie gegeven. Hij maakt echt verbinding met het publiek. Jarno kan mensen boeien vanaf de eerste tot de laatste minuut en bouwt zijn verhaal zorgvuldig op. Kortom: een mooie succesvolle dag mede door zijn inbreng."
Pascal Greuter
Xpirit Nederland
Pascal Greuter
Deepfakes, een krachtig middel voor complotbedenkers.

Deepfakes, een krachtig middel voor complotbedenkers.

Deepfakes worden steeds beter en geavanceerder. Door deze videomanipulatie-technologie kunnen echte beelden als nep worden gezien en vervalste beelden bestempeld als echt.

Deepfakes zijn daarom het perfecte cement in een rammelend, gefragmenteerd en incompleet samenzweringsverhaal.

Lees verder
Deepfakes: we naderen een tijdperk waarin we onze oren en ogen niet langer kunnen vertrouwen

Deepfakes: we naderen een tijdperk waarin we onze oren en ogen niet langer kunnen vertrouwen

Door ‘deepfakes’ kunnen we onze ogen en oren niet vertrouwen: waakzaamheid is geboden in de nieuwe schijnrealiteit

Wie het nieuws een beetje volgt, ziet steeds vaker melding van deepfake-video’s. Dat zijn nep­video’s, gecreëerd door kunstmatig intelligente systemen, waarop mensen dingen doen die ze in werkelijkheid niet hebben gedaan, of dingen zeggen die ze in werkelijkheid niet hebben gezegd

Lees verder
Hoe bewijs je je onschuld in een wereld van deepfake-video’s en voice cloning?

Hoe bewijs je je onschuld in een wereld van deepfake-video’s en voice cloning?

Het onderscheid tussen goed en kwaad wordt steeds moeilijker te maken. Hoe bewijs je je onschuld in een wereld van deepfake-video's en voice cloning?

Hoe bepaal je de strafrechtelijke feiten in een wereld waarin je bewijsmateriaal eenvoudig kunt manipuleren? Hoe onderscheid je de waarheid van bedrog nu deepfake-video's en voice cloning niet meer van echt te onderscheiden zijn?

Lees verder