Door ‘deepfakes’ kunnen we onze ogen en oren niet vertrouwen: waakzaamheid is geboden in de nieuwe schijnrealiteit, stelt trendwatcher Jarno Duursma.
Wie het nieuws een beetje volgt, ziet steeds vaker melding van deepfake-video’s. Dat zijn nepvideo’s, gecreëerd door kunstmatig intelligente systemen, waarop mensen dingen doen die ze in werkelijkheid niet hebben gedaan, of dingen zeggen die ze in werkelijkheid niet hebben gezegd. Barack Obama, die zich op beeld negatief uitlaat over Donald Trump, met woorden die hij nooit zelf zo heeft uitgesproken. Dat werk.
Door de opkomst van deepfake-video’s naderen we een tijdperk waarin we onze ogen en oren niet meer kunnen vertrouwen. Dat vraagt van ons letterlijk en figuurlijk een scherpe blik.
Hollywood
Bewerkte hyperrealistische video’s waren tot voor kort voorbehouden aan Hollywood, maar dat is verleden tijd. De randvoorwaarden zijn aanwezig voor een ‘perfect storm’ die gaat zorgen voor een vloedgolf aan audiovisueel nepnieuws; de video’s kunnen namelijk gemakkelijk worden geproduceerd tegen lage kosten. Er is geen programmeerkennis meer nodig omdat de AI-software alle processen overneemt. Met de (inmiddels verwijderde) app DeepNude kon je een foto van een geklede vrouw binnen 30 seconden veranderen in een naaktfoto.
Chantage
Ook de distributie van dit soort video’s is simpel. Niet onbelangrijk: we lezen en delen nou eenmaal graag sappig, negatief, prikkelend en vooroordelen bevestigend nieuws.
Dit brengt allerlei risico’s met zich mee, zoals chantage, geopolitieke spanningen en het toebrengen van reputatieschade. De Indiase journaliste Rana Ayyub werd bijvoorbeeld, nadat ze campagne voerde voor een verkrachtingsslachtoffer, hoofdrolspeler in een pornografische deepfake. Deze werd tienduizenden keren gedeeld en had forse impact op haar professionele functioneren en op haar als mens.
Denkfouten
Dit soort gebeurtenissen noodzaken tot een steviger debat over deepfakes. Want dat debat lijdt nu onder denkfouten. Sommigen blijven onterecht wijzen op de imperfectie van deze technologie. Dat is onnozel; het wordt razendsnel beter. Deze week zag ik een video waarin Jack Nicholsons gezicht in de The Shining werd vervangen door dat van acteur Jim Carrey. Op het laatst is het verschil met het blote oog niet meer te zien.
Ook bestaat de overtuiging dat de risico’s van deze technologie kunnen worden afgedekt met nieuwe technologie. Dat is maar gedeeltelijk waar. Nieuwe AI-systemen kunnen weliswaar minuscule oneffenheden detecteren, zoals het verschil tussen lipbewegingen en gesproken audio, maar AI-technologie biedt geen waterdichte oplossing. Het is zoals spam in je inbox; software lost het voor een deel op, maar nog steeds klikken honderdduizenden mensen per jaar op een foute link.