Hoe gaat de NOS om met de ontwikkelingen van deepfakes en nepnieuws?
Is de NOS ook bezig met het verschijnsel van deepfake? Ik vroeg het Joost Schellevis, Techjournalist bij de NOS. Hoe gaat de NOS ermee om dat de scheidslijn tussen echt en nep steeds dunner wordt?
Joost: ‘Wij hebben het op onze radar en denken daar ook echt wel over na. Op dit moment zien wij op de redactie echter nog niet veel verschijnselen van deepfake. En ik moet ook zeggen dat ik de kwaliteit ervan vaak ook nog niet heel overtuigend vind. Wanneer het onderscheid met de realiteit volledig weg is, dan wordt het natuurlijk gevaarlijk. Nu kan ik het verschil vaak nog wel met het blote oog zien. Ik vind deepfake-technologie voor nu dus ook nog niet zo’n groot probleem.’
Wat zijn de risico’s wanneer echt en nep niet meer van elkaar te onderscheiden zijn?
‘Op dat moment zijn er zeker wel risico’s. Wij als redactie kunnen natuurlijk zelf in een filmpje trappen dat achteraf nep blijkt te zijn. Maar dat risico bestaat nu ook al. Op Twitter bijvoorbeeld zie je ook veel beeldmateriaal dat uit z’n context is getrokken, en bijvoorbeeld van een hele andere gebeurtenis afkomstig is.
Het tweede risico is dat buitenstaanders een filmpje kunnen maken waarin ze presentatoren van het Achtuurjournaal dingen laten zeggen die zij niet daadwerkelijk gezegd hebben. Zo kan bijvoorbeeld hun reputatie en die van de NOS worden geschaad.
Wij kijken bijvoorbeeld naar de bron van een verhaal, naar getuigen van vlees en bloed en er is forensische technologie om te ontdekken of een filmpje echt is of nep.’
Hoe ga je daar mee om? En in de toekomst?
‘Ik denk dat over het algemeen voor ons gewoon heel belangrijk is om onze journalistieke taak iedere dag nog beter uit te voeren. Wij hebben traditionele onderzoeksmethoden die al heel goed werken. We kijken bijvoorbeeld naar de bron van een verhaal, naar getuigen van vlees en bloed en er is forensische technologie om te ontdekken of een filmpje echt is of nep. Ik denk dat veel problemen die we in de toekomst met deepfake technologie gaan tegenkomen, grotendeels getackeld gaan worden omdat bestaande methodes afdoende blijken te zijn.
Stel bijvoorbeeld dat er een filmpje opduikt waar een Nederlandse minister enorme hoeveelheden cocaïne gebruikt. Over een paar jaar kan deze politicus zeggen: dat was ik niet, dat was deepfake technologie.
Dat zou inderdaad een risico kunnen zijn. Dat bewijslast die dat we willen gebruiken vanuit onze journalistieke rol makkelijker te ontkennen valt. Maar ook dan proberen we onze traditionele onderzoeksmethoden toe te passen. We gaan dan op zoek of er ook daadwerkelijk mensen bij zijn geweest die die gebeurtenis kunnen onderschrijven. Maar wellicht wordt het voor ons inderdaad wel wat lastiger wanneer het gaat om beelden van bijvoorbeeld een beveiligingscamera. Ook op dit gebied herkennen we de uitdagingen.
Het kan inderdaad zijn dat mensen hun interne kompas wat verliezen door de grote hoeveelheid nepnieuws dat op hen afkomt.’