Vragen? Bel 06 – 160 749 53 of mail mij info@jarnoduursma.nl

Vragen? Bel of mail mij

Deepfake technologie: The Infocalypse

Geen zin om de introductie te lezen? Download dan hier het nieuwe rapport.

De term deepfake slaat op nepinformatie die moderne AI-software kan creëren. Deze AI-systemen creëren nieuwe digitale content zoals gezichten, afbeeldingen, video’s, teksten, menselijke stemmen en andere audio opnames. Nieuwe digitale content die ons bekend voorkomt, maar in feite volledig nieuwgeboren is.

Deepfake Technologie

De term deepfake combineert de Engelse woorden deep en fake. Fake betekent nep, en slaat op nepinformatie die moderne generatieve AI-software kan creëren. Deze systemen creëren nieuwe digitale content zoals afbeeldingen, video’s, teksten, menselijke stemmen en andere audio opnames. De term deep vindt zijn herkomst in de zogenaamde deep learning-netwerken, die te maken hebben met de huidige kwalitatieve groeispurt van deze generatieve AI-software.

Generative Adversarial Networks

Een veelbelovende ontwikkeling die de afgelopen jaren is gestart, betreft de combinatie van twee netwerken in zogenaamde generative adversarial networks, of GAN’s. Door gebruik te maken van trainingsmateriaal (tekst, audio, foto, video) probeert een GAN nieuwe content te maken. In dat proces gaan twee netwerken met elkaar in competitie. Het ene netwerk, de generator, probeert nieuwe output te maken die past binnen het trainingsmateriaal, en het tweede netwerk, de discriminator, keurt die nieuwe output goed of fout. Daarmee kunnen de twee systemen elkaar tot grote hoogten stuwen. Er ontstaat nieuwe output, die lijkt op het gebruikte trainingsmateriaal, maar dat dus niet is. Dit soort systemen genereren nieuwe digitale content die ons bekend voorkomt, maar in feite volledig nieuwgeboren is. Een wereld van nieuwe afgeleiden, nieuwe invalshoeken, nieuwe ideeën opent zich, met dank aan generatieve AI-software.

“De term deepfake slaat op nepinformatie die moderne AI-software kan creëren. Deze AI-systemen creëren nieuwe digitale content zoals gezichten, afbeeldingen, video’s, teksten, menselijke stemmen en andere audio opnames. Nieuwe digitale content die ons bekend voorkomt, maar in feite volledig nieuwgeboren is.” Jarno Duursma

Nepinformatie

In dit rapport: Deepfake technologie: The Infocalypse gaat het vooral over AI-software die wordt ingezet om onze zintuigen, en dan met name onze ogen en oren, te misleiden door nepinformatie te creëren en verspreiden.

Recent was er bijvoorbeeld een app op basis van generatieve AI-technologie die foto’s van (beroemde) mensen kon veranderen in naaktfoto’s (Deepnude). Er zijn nu technieken die na het verwijderen van voorwerpen uit foto’s, zoals een kei, een paal of een vlag, de foto bewerken zodat die er weer alledaags uitziet. Bij teksten kunnen generatieve AI-systemen, zoals GPT2 van OpenAI, in principe op basis van een voorgestelde krantenkop met een druk op de knop een nepbericht produceren. Het maken van nepnieuws wordt op deze wijze erg gemakkelijk. Zeker nu Deepfake iPhone apps het ons wel erg makkelijk maken.

Deepfake technologie

Bij video’s laat de techniek toe om gezichten te verwisselen (face swap), wellicht grappig op een verjaardagsfeest of in een chatgroep, maar misbruik ligt in het verschiet. Een generatief AI-systeem dat is getraind met video’s van David Beckham, kan nieuwe video genereren waarin zijn lippen perfect synchroon tekst uitspreken in een taal die hij absoluut niet beheerst. De stap naar fake is dan al genomen. Er zijn systemen die zijn getraind met video’s van pratende mensen, daardoor het verband kunnen leggen tussen lipbewegingen en spraak, en deze stem vervolgens synthetisch kunnen namaken.
Er zijn al generatieve AI-systemen die het verband kunnen leggen tussen stem en uiterlijke kenmerken en met deze kennis een afbeelding kunnen genereren van iemands gezicht op basis van een stemopname.

U kunt straks wellicht uw stem klonen, waarna uw computer met die stem boeken aan de kinderen voorleest. Een gekloonde stem biedt ook mogelijkheden voor mensen die door ziekte hun spraak zullen verliezen. De kwaliteit wordt alsmaar beter, en misbruik met frauduleuze stemopnamen ligt voor de hand. Een politicus lijkt dan omstreden uitspraken te doen, of een potentiële investeerder ontvangt een voicemail waarin een directeur hem lijkt te beledigen.

Nadelen van Deepfakes

Want als deepfake-technologie digitale informatie kan creëren en manipuleren, laat die informatie zich gebruiken voor criminele doeleinden, waaronder chantage, beïnvloeden van verkiezingen, toebrengen van reputatieschade en om de tuin leiden van biometrische herkenning. In potentie kan deepfake-technologie op eenvoudige wijze een tsunami aan nepnieuws opleveren en daarmee sociale onrust genereren, het vertrouwen in de journalistiek ondermijnen of een apathie bij de consument opwekken voor nieuwsfeiten.

“More than anything else, the dynamics that define the web — frictionless sharing and the monetization of attention — mean that deepfakes will always find an audience” .
James Vincent, techjournalist The Verge

Bij deepfake-technologie beïnvloedt generatieve AI software onze waarneming van de wereld op een negatieve manier. Er zijn tal van manieren waarop deepfake-technologie kan toeslaan om meningen te manipuleren, mensen te chanteren of reputatieschade toe te brengen. We betreden daarmee een tijdperk waarin we online onze ogen en oren niet meer kunnen vertrouwen.

De eenvoudige vraag of informatie echt of nep is, zal in de toekomst prangend worden. Want wanneer wij in onze hyperverbonden wereld onze ogen en oren online niet meer kunnen vertrouwen ontstaat een infocalypse: een extreme devaluatie van de betrouwbaarheid van informatie, met alle gevolgen van dien. Hoe gaan we hier mee om? Wat zijn de risico’s? Wat zijn de oplossingen? Wat kan er al? Dat leest u in dit rapport: Deepfake technologie: The Infocalypse.

Inhoudsopgave

1. Inleiding
2 Deepfake en synthetische media
3 Soorten deepfakes
4 De kracht van deepfake
5 Bedreigingen
6 Voice cloning technology
7 Omgaan met deepfake
8 Conclusie