Het verspreiden van nepnieuws online wordt een steeds groter probleem. In dit blog schets ik een speculatief scenario over hoe we dit met behulp van AI zouden kunnen oplossen.

Malieveld Den Haag

Wie de afgelopen week actief is geweest op sociale media heeft ‘m vast wel gezien. De foto van de vrouw in Den Haag die met bloemen in haar hand tegenover een agent van de mobiele eenheid staat. Aan de agent is te zien dat hij met zijn wapenstok haar gaat slaan. Het tafereel vindt plaats na afloop van de demonstratie tegen de maatregelen ten aanzien van de anderhalvemetersamenleving. Het meest werd de foto gedeeld door mensen die boos waren over het politieoptreden in Den Haag. En op het eerste gezicht doet de foto ook wenkbrauwen fronsen. Je slaat toch niet een ongewapende vrouw met bloemen in haar hand?

Alles in context

Maar zoals alles wat je ziet in het nieuws en op sociale media geldt ook hier: alles is context. Wanneer je de foto bekijkt vanuit een andere hoek gemaakt, zie je om deze vrouw heen een groep met woeste hooligans die uiterst agressief de mobiele eenheid benaderen. Het is dus letterlijk en figuurlijk maar net vanuit welke hoek je de foto te zien krijgt. Context is alles.

Bij de foto van de vrouw met de bloemen moest ik meteen denken aan een voorspelling die ik deed in mijn rapport “machines met verbeeldingskracht – een kunstmatige realiteit”.

Synthetische Content

In dit rapport beschreef ik uitvoerig de opkomst van synthetische content. Dat zijn verschillende soorten content die door kunstmatig intelligente software zijn geproduceerd. Denk aan afbeeldingen van mensen die nooit bestaan hebben, auto’s die nooit bestaan hebben, teksten die door kunstmatig intelligente software worden gecreëerd, maar ook stemmen die nagebootst kunnen worden. Allemaal nep.

Ik beschreef in mijn rapport ook letterlijk dat een risico van dit soort generatieve kunstmatig intelligente software was dat kwaadwillenden het kunnen gebruiken om het sentiment richting de politie negatief te beïnvloeden. Bijvoorbeeld wanneer deze software in staat is om op basis van een paar zinnen een volledig verzonnen artikel te creëren. Voor de mensen die het niet hebben meegekregen: Kunstmatig intelligente software is inderdaad in staat om zelf tekst te genereren, 

Slimme AI tekstschrijvers

Recent kwam bijvoorbeeld GPT3 uit, een taalmodel dat is getraind op maar liefst 175 miljard parameters. Dit systeem is in staat om grote verzamelingen internet-teksten te analyseren en op basis daarvan teksten te genereren. GTP3 is vooral goed in het voorspellen van het volgende woord in een bepaalde zin en op basis daarvan een tekst te schrijven. Soms zijn deze teksten niet meer te onderscheiden van door mensen geschreven teksten.

 

Verbale en fysieke agressie door politie

GTP3 is in theorie dus perfect om snel, massaal en veelvuldig nepnieuws mee te verspreiden. (Het systeem is nu nog imperfect en duur, maar je snapt wat ik bedoel). En ik beschrijf dus ook letterlijk in mijn rapport uit oktober 2019 hoe kwaadwillenden dit soort synthetische tekstschrijvers zouden kunnen gebruiken om de politie in een kwaad daglicht te stellen.

“De gefantaseerde headlines ‘Politie grijpt hardhandig in bij vreedzame demonstratie tegen te tolerant immigratiebeleid’, ‘Demonstranten aangevallen door politiek gekleurde politieagenten bij vreedzame demonstratie Nederlandse Volkspartij’, ‘Verbale en fysieke agressie door politie bij bijeenkomst in Den Haag’ kunnen dan wellicht razendsnel leiden tot geloofwaardige gegenereerde artikelen die de werkelijkheid geweld aandoen”

 

Frappant om te lezen hoe actueel mijn eerdergenoemde zorg is geworden. Sommige synthetische systemen worden trouwens ingezet om nep-teksten op te sporen en te ontmaskeren. Het Grover programma uit 2019 is daar een voorbeeld van. Dat is een goede zaak.

 

Brainwave Project Debater

Maar een creatieve, fantasierijke brainwave bracht mij nog verder. Wat als Project Debater hier de oplossing kon zijn? Voor wie het gemist heeft: in mijn vorige blog over “pratende machines” schreef ik over Project Debater. Dat is een kunstmatig intelligent systeem van IBM dat in staat is om te debatteren. Het AI-systeem kan grote hoeveelheden relevante data doorploegen en daar alle sleutelzinnen uithalen die het bewijs leveren voor of tegen een bepaalde claim. Het kan dus over een bepaalde stelling de voor- en tegenargumenten verzamelen en daar vervolgens het debat over aangaan met een mens.

En ik had dus een geweldig idee: stel dat de software van Project Debater perfect werkt. Zouden we het dan wereldwijd in kunnen zetten om nepnieuws op sociale media te bestrijden en meningen te voorzien van de juiste context?

Webcare-medewerker op steroïden

Wat als we Project Debater konden gebruiken om wereldwijd mensen op sociale media te wijzen op feitelijke onjuistheden in hun redeneringen? Wat als we Project Debater kunnen inzetten als een “journalistieke machine”? Een razendsnel kunstmatig intelligent systeem dat op sociale media in iedere discussie kan participeren en mensen wereldwijd kan informeren over bepaalde feitelijkheden die ze zelf over het hoofd zien? Over voor- en nadelen van een bepaalde stelling. Een hyper-intelligente webcare-medewerker op steroïden.

Project Debater als een soort voorvechter van feitelijkheden. Een krachtig stuk software dat mensen uit hun filterbubbel trekt door zaken te voorzien van context. Dat alle boze reacties op Facebook onder de foto van de vrouw met bloemen in haar hand zouden worden aangevuld met contextuele informatie, aangeleverd door de politie, Wikipedia en andere burgerjournalisten ter plaatse.

Bericht op Twitter: “Dat kan toch niet zomaar! Wat is dit voor politiestaat wanneer demonstranten zomaar worden gearresteerd?”
Project Debater: “Volgens de politie zijn de demonstranten meerdere keren aangesproken, gewaarschuwd en gevorderd om het terrein te verlaten. Zij hebben dit geweigerd. Daarom zijn agenten overgegaan tot aanhouding.”

Met eindeloze energie zou Project Debater de discussie aangaan met hatelijke figuren op Facebook en Twitter. Ze erop wijzen wanneer ze feitelijk onjuiste informatie delen of zaken uit de context trekken. Natuurlijk is dit idee bijna te mooi om waar te zijn en zitten er flink wat haken en ogen aan. Sterker nog: de vraag is of zoiets ooit zou kunnen. Want het is gewoon een bijzonder moeilijk probleem, zelfs al voor een mens van vlees en bloed.

Het is trouwens ook een lastig probleem omdat we wereldwijd in een post-truth samenleving zijn beland. Kort gezegd: we zijn het soms al niet eens over wat en wanneer iets feitelijk heeft plaatsgevonden.

Hmmmmm… toch even kijken of Project Debater een “Donate now” knop op z’n website heeft.

"In drie kwartier kregen de deelnemers aan ons ANVR reiscongres in Portugal een spervuur aan voorbeelden van toepassingen kunstmatige intelligentie voorgeschoteld. De presentatie van Jarno heeft ons op een hele aanschouwelijke manier duidelijk gemaakt dat de toekomst al is begonnen. Toppresentatie!"
Frank Oostdam
Directeur ANVR
Frank Oostdam
"Soms heb je geluk en komt heel toevallig een spreker op je pad die op een speelse wijze de nodige dynamiek in kan brengen bij je ICT-kwartaal meeting. Jarno heeft niet alleen op een leuke humoristische wijze de nieuwste IT-trends over het voetlicht gebracht maar ook de nodige discussies losgemaakt over de bright en dark sights van de steeds verdergaande automatisering. Hij is daarbij zelfs geslaagd om de koppeling te maken naar onze bedrijfsvoering en heeft op die manier bijgedragen aan een geslaagde middag."
Ben Vester
Centraal Orgaan opvang Asielzoekers
Ben Vester