Voor mijn rapport ‘Machines met verbeeldingskracht’, heb ik veel interessante mensen gesproken, bij wie de ontwikkelingen van kunstmatig intelligentie (AI) invloed heeft op hun werk. Neem de Generative Adversarial Networks, oftewel GAN’s; een cutting-edge toepassing van AI. Want, op basis van voorbeelden uit: tekst, audio, foto of video, is een GAN in staat zelf nieuwe content te creëren. Een fascinerende ontwikkeling. Ik sprak hierover met wetenschaps- en techniekjournalist, auteur en spreker Bennie Mols. Hoe kijkt hij aan tegen GAN-technologie en deepfakes vanuit zijn rol als journalist?
Hoe kijk jij aan tegen GAN technologie?
Als wetenschapsjournalist in het digitale domein volg ik al heel lang de vernieuwingen op het gebied van artificiële intelligentie. Ik vind de ontwikkeling van GAN-technologie bijzonder interessant. Het feit dat kunstmatig intelligente systemen zelfstandig beelden, geluiden en teksten kunnen produceren is enorm opwindend. Machines krijgen nu een vorm van verbeeldingskracht.
Ik ben daarbij met name geboeid door het gebied waar mens en machine elkaar kunnen versterken. Ik heb bijvoorbeeld al hele interessante voorbeelden gezien waar bijvoorbeeld GAN-technologie wordt gebruikt voor het ontdekken van nieuwe, efficiëntere zonnecellen of batterijen. De software bedenkt nieuwe mogelijkheden waar de mens zelf helemaal niet aan had gedacht. Vervolgens onderzoekt de mens welke daarvan wel of niet goed werken.
Wat zijn de voordelen van GAN Technologie?
Die zijn er zeker! Het gebruik van deze digitale technologie creëert bijvoorbeeld een enorme versnellingsstap in het bedenken en testen van nieuwe producten. En dat niet alleen: vergeet niet dat wij als mensen ook een beperkt denkkader hebben. Onze manier van kijken naar problemen en oplossingen zit vol met vooroordelen. Een machine hoeft deze vooroordelen niet te hebben en kan dus vrijuit nieuwe dingen bedenken. Neem bijvoorbeeld de supermenselijke go-computer AlphaGo. AlphaGo deed in 2016 enkele zetten waarvan de beste menselijke spelers dachten dat het domme zetten waren, maar het bleken geniale zetten te zijn die menselijke vooroordelen over het go-spel genadeloos blootlegden.
Ik kan me goed voorstellen dat in de farmacie en de materiaalkunde deze technologie gebruikt gaat worden om veelbelovende moleculen te bedenken en produceren. Die nieuwe ideeën kun je dan in het laboratorium gaan testen. Stel dat er van de dertig suggesties die de computer bedenkt vijf hele goede oplossingen bijzitten. Dat versnelt het doen van nieuwe ontdekkingen.
Op een meer fundamenteel niveau vind ik deze technologie veelbelovend omdat er een nieuw hoofdstuk geschreven lijkt te worden op het gebied van unsupervised learning. Waar kunstmatig intelligente systemen op dit moment vooral getraind worden met gelabelde data, het zogenoemde supervised learning, kun je GAN-technologie gebruiken om computers te laten leren van ongelabelde, ongestructureerde data.
Kun je daar een voorbeeld van noemen?
Nou, denk bijvoorbeeld aan een GAN-systeem dat zelf een volledige simulatie creëert van een driedimensionale wereld. Vervolgens kan bijvoorbeeld een zelfrijdende auto deze nieuwe simulatie gebruiken als trainingsmateriaal. Het GAN-systeem kan dan onnoemelijk veel denkbeeldige scenario’s creëren waar de software van de zelfrijdende auto vervolgens mee om moet leren gaan. GAN-systemen kunnen dus heel goed simulaties maken waar andere slimme machines van kunnen leren.
Door deze grote hoeveelheid nieuw leermateriaal hoop ik eigenlijk dat robots en zelfrijdende auto’s veel beter gaan snappen hoe onze omgeving eruit ziet. Dat ze zelf wetmatigheden in de fysieke wereld gaan ontdekken. Dat robots daardoor ook veel beter om kunnen gaan met situaties die niet vaak voorkomen.
Dat snap ik, maar hoe garanderen we dat dit nieuwe trainingsmateriaal lijkt op onze fysieke realiteit? Want wanneer een GAN systeem honderden uren videomateriaal per dag creëert waarvan sommige onderdelen buiten de realiteit staan en soms zelfs hallucinogeen te noemen zijn, hoe houden we daar als mens daar dan zicht op?
Dat is inderdaad een interessante vraag. Kleine kinderen leren in de eerste paar jaren van hun leven om de wereld om hen heen te begrijpen in natuurkundige en psychologische modellen. Ze leren intuïtief hoe de zwaartekracht op voorwerpen inwerkt. Ze leren intuïtief de bedoelingen van andere mensen te begrijpen. Ik denk dat we in computers ook natuurkundige en psychologische modellen moeten bouwen waar GAN-systemen zich op gaan baseren. Idealiter zouden computers natuurlijk zelf zulke modellen moeten leren maken. De crux is dat computers niet alleen veel data nodig hebben om de wereld te begrijpen, maar ook modellen. Dat wordt in deze tijd van big data maar al te vaak vergeten.
Zulke natuurkundige of psychologische modellen werken dan als een soort scheidsrechter, een soort VAR voor de creaties van het GAN-systeem. De VAR houdt het GAN systeem in de gaten en waarschuwt wanneer een GAN iets bedenkt dat niet strookt met het natuurkundige of psychologische model van de omgeving.
Zo garanderen we dat GAN-systemen niet ongewild een loopje nemen met de werkelijkheid en onwenselijke of zelfs schadelijke dingen bedenken.