Vragen? Bel 06 – 160 749 53 of mail mij info@jarnoduursma.nl

Vragen? Bel of mail mij

Hoe bewijs je je onschuld in een wereld van deepfake-video’s en voice cloning?

Generative artificial intelligent software systemen maken zelf geloofwaardige content op basis van voorbeelden. Denk aan hyperrealistische gezichten, driedimensionale steden, teksten, audio en voice cloning. Wat bepaalt de scheidslijn nog tussen echt en nep?

Ik vroeg dit aan Lodewijk van Zwieten, openbaar aanklager cybercriminaliteit bij het Openbaar Ministerie. Op persoonlijke titel deelde hij zijn visie op voice cloning en andere nieuwe ontwikkelingen.

 

Lodewijk van Zwieten over deepfake technologie

Hoe kijk je aan tegen deepfake technologie en voice cloning vanuit jouw rol bij het OM?

‘Ik volg deepfake technologie al een tijdje en ik moet zeggen dat het mij best wel zorgen baart. De voorbeelden die ik ervan zie zijn van goede kwaliteit en ze worden steeds beter. Video’s zijn bijvoorbeeld al niet meer van echt te onderscheiden.

Vanuit mijn werk zie ik natuurlijk dat heel veel technologie niet wordt gemaakt met de intentie om er slechte dingen mee te doen, maar dat dat uiteindelijk wel gebeurt. Dat vrees ik met deepfake ook; veel technologie wordt uiteindelijk gebruikt met een criminele doelstelling. En wanneer iedereen in staat is om de werkelijkheid online te manipuleren, dan vind ik dat wel een zorgelijke ontwikkeling.

Met name omdat onderscheid tussen echt en nep, tussen goed en kwaad steeds moeilijker te maken is. Wanneer je computer besmet wordt met een computervirus, dan weet je: ik moet antivirus software updaten of installeren. Bij deepfake software is dat anders; de slechte intentie is vaak veel moeilijker te zien. Nepvideo’s spelen bijvoorbeeld in op emoties als woede en angst of bevestigen bestaande vooroordelen.

Deze technologie is dus veel slinkser, veel sluwer. Het moment van: “nu moet ik alert zijn”, is veel minder helder. En als ik nu al zie hoe snel mensen soms achterop de bagagedrager springen van manipulatief nepnieuws, dan maak ik me wel zorgen om de toekomst.

 

Wat is het verschil met bestaande manipulatie van nieuws?

Natuurlijk wordt nieuws al veel langer ‘geframed’, maar nu is er iets anders. Bij framing verander je als het ware het camerastandpunt jegens een nieuwsfeit. Bij deepfake-technologie bestaat dat nieuwsfeit helemaal niet in de echte wereld of wordt nieuwe informatie toegevoegd aan een bestaand nieuwsfeit. Het is op zichzelf al nep. En waar het raadplegen van verschillende nieuwsbronnen in het verleden een goed medicijn was tegen framing, vervalt deze optie wanneer de gebeurtenissen volledig nep zijn.

 

In welke vorm verwacht je deze technologie tegen te komen?

Ik verwacht in mijn werk deze technologie tegen te komen in verschillende verschijningsvormen. Bijvoorbeeld als ‘voicecloning’. Dat de stem van de bedrijfseigenaar of financieel verantwoordelijke wordt gecreëerd, nagemaakt op zo’n manier dat het niet meer van echt te onderscheiden is en dus gebruikt kan worden bij financiële fraude. Een CFO krijgt een voicemail van een CEO met een gesproken betalingsopdracht.

Ook verwacht ik dat deze voice cloning-technology in de toekomst zo goed is dat deze software telefoongesprekken met mensen voert en hen zo misleidt of geld afhandig maakt. Ik geloof dat afpersing met nep seksvideos ook een probleem wordt. Waarbij mensen gedwongen worden tot bepaalde financiële transacties of het weggeven van bedrijfsgeheimen omdat ze worden afgeperst met een nep seksvideo.

Ik stel mij ook voor dat deze software in de toekomst zo intelligent is dat het correspondeert via e-mail met potentiële slachtoffers. Of dat het ingezet wordt voor smaad; dat kwaadwillenden een nepvideo maken van iemand die een strafbaar feit begaat.

Overigens zijn deze zaken niet altijd zo makkelijk te veroordelen als dat ik graag zou willen. Een voice clone maken van iemands stem is op zichzelf bijvoorbeeld geen strafbaar feit, maar wanneer deze opname als instrument wordt gebruikt (of wordt gepoogd) om anderen geld afhandig te maken, dan weer wel. En zo is bijvoorbeeld het creëren van een nep seksvideo van iemand op je computer thuis op zichzelf niet strafbaar (met uitzondering van kinderporno), maar weer wel als je het verspreidt.

Ik zou op zich graag willen dat mensen wat meer oplettend zouden worden (gemaakt) ten opzichte van wat ze zien of horen.

 

 

Zou zo’n deepfake opname ook kunnen dienen als vals bewijsmateriaal?

Nee, dat denk ik niet. Niet zo snel althans. Ik ben niet bang dat een fake video leidt tot een veroordeling ofzo. Wanneer we strafrechtelijk onderzoek doen, doen we natuurlijk tevens uitgebreid forensisch technisch onderzoek. En het zal echt niet zo’n vaart lopen dat we iets niet als nep kunnen classificeren. Daar hebben we de expertise en technische oplossingen wel voor. En als we de echtheid niet kunnen vaststellen, moeten we het misschien buiten beschouwing laten. Het zal echter soms wel wat tijd van ons vragen. Je moet niet vergeten: een video is vrijwel nooit het enige bewijs voor een veroordeling. We verzamelen daarvoor vaak nog veel meer data. Wel ben ik ongerust over de maatschappelijke onrust die bepaalde video’s of audio opnames kunnen veroorzaken. In hele brede zin, maar ook heel specifiek.

 

Wat bedoel je daarmee?

Stel dat er bijvoorbeeld een app komt waarmee je heel makkelijk een pornografische deepfake-video kunt maken: dan kun je erop wachten dat deze wordt gebruikt op een middelbare school. Een reputatie van een meisje wordt dan razendsnel kapotgemaakt. En dan doet het er trouwens helemaal niet toe dat deze video nep is. Het feit dat deze video bestaat, brengt al de schade toe. Dit zou je ook in breder maatschappelijk perspectief kunnen zien. Het feit soms dat een bepaalde video bestaat en deze maatschappelijke onrust veroorzaakt, is al genoeg. Dan doet het er niet meer toe dat een video nep is.

Wat kunnen we als mediaconsument dan doen?

Ik zou op zich graag willen dat mensen wat meer oplettend zouden worden (gemaakt) ten opzichte van wat ze zien of horen. Maar dat heeft ook met onze geschiedenis te maken: we verwachten namelijk in beginsel dat alles wat we horen en zien via TV, telefoon of het internet waarheidsgetrouw is. We leren ‘t langzaam: we snappen in 2019 inmiddels wel dat niet alles wat we op het internet lezen of zien de waarheid is. Maar: mensen overschatten zichzelf (‘ik kijk daar wel doorheen’) en zijn gewoonweg niet getraind op het herkennen van dit soort zeer gewiekste manipulatieve video’s, artikelen of stemopnames. Het zit echt in de genen van mensen om te geloven wat ze zien of horen. Het zou al heel veel schelen als Apple een waarschuwing zou geven als je gesprekspartner in een Facetime-gesprek de beeldmanipulatietechniek die daar in zit, gebruikt.

 

 

Zit er ook een voordeel aan deze GAN technologie?

Natuurlijk zie ik ook wel wat meer onschuldig gebruik: dat je in de toekomst op Instagram nóg interessantere filters kunt gebruiken om jezelf nóg mooier te maken. Dat je jezelf helemaal kunnen modelleren zoals je graag zou willen zijn. Ik stel me voor dat deze synthetische wereld een steeds sterkere magneet is voor met name een jongere doelgroep.

En natuurlijk zie ik nog wel een paar kleine voordelen, zoals virtualisatie voor bijvoorbeeld onderwijs of medische/therapeutische toepassingen, maar bij de opkomst van deze technologie vraag ik me wel af: “is dit nou wel zo’n goed idee”?

 

Boek Jarno als spreker

Wat klanten zeggen

"Jarno leverde een uitmuntende prestatie met zijn AI-lezing bij de HR Academy, wat resulteerde in een beoordeling van 9,6 door de bezoekers!"
Ruud Coumans
Event organizer
Ruud Coumans
"In 45 minutes the participants of our ANVR travel congress in Portugal got a barrage of examples from applications of artificial intelligence. Jarno's presentation made it clear to us in a very vivid way that the future has already begun. A great presentation!"
Frank Oostdam | en
Director ANVR
Frank Oostdam | en
"The webinar on the power of technology in times of corona is really recommended. Jarno Duursma takes you through the (im)possibilities that technology offers in these corona times in his typical, catchy way. Afterwards you'll be completely up-to-date and enriched with a number of surprising insights!"
Bas Baalmans | en
Digital Business Centre - Rijksuniversiteit
Bas Baalmans | en

Waarom Jarno?

Wie is Jarno Duursma? Lees alles over zijn achtergrond als spreker, schrijver en tech-expert.

Over Jarno Duursma

Waarin onderscheidt Jarno zich van andere sprekers? Lees meer over zijn drijfveren, ervaring en presentatiestijl.

Waarom Jarno Duursma?

Jarno Duursma is onafhankelijk publicist, spreker en auteur op het gebied van AI en digitale technologie. Hij schreef vier tech-boeken, waaronder één over AI (2017), en publiceerde twee rapporten over generatieve AI (2019). Met meer dan 1500 lezingen op zijn naam is hij een veelgevraagd spreker in binnen- en buitenland. Zijn opinieartikelen verschijnen in FD, NRC en Volkskrant. Daarnaast is hij LinkedIn AI Top Voice en maakt hij de tech-podcast ‘Listening to the Future’ en de tech-nieuwsbrieven ‘Trending in Tech’ en ‘Signals from the Future’.