12 risico’s van kunstmatige intelligentie

Kunstmatige intelligentie gaat ons als samenleving vele zoete vruchten opleveren, maar er zijn ook forse zorgen. Dit blog is een zo volledig mogelijk overzicht van de risico’s van kunstmatige intelligentie.

Ik geef over het algemeen overwegend positieve en inspirerende verhalen over technologie. Maar ik ben niet naïef. Het kan niet zo zijn dat de introductie van een technologie enkel en alleen positieve gevolgen heeft. Dat was met social media niet zo, met de smartphone niet zo en nu ook niet met op kwalitatieve groei van kunstmatige intelligentie.

Kunstmatige intelligentie is een onderwerp dat bij veel mensen tot de verbeelding spreekt. Een belangrijke oorzaak zijn natuurlijk de vele Hollywood-films die over dit onderwerp zijn verschenen. In de Hollywood-films zie je vaak sciencefiction-achtige doemscenario’s. Deze scenario’s zijn bijna altijd overdreven, maar toch verschijnen er steeds meer verontrustende berichten over kunstmatige intelligentie, gevoed door de kwalitatieve groeispurt van deze nieuwe technologie. Met name de kwalitatieve verbetering van machine learning en deep learning. De verontrustende berichten gaan dan bijvoorbeeld over het gebrek aan transparantie in dit soort machines, de vooroordelen die ze produceren en de duidelijke gebreken van algoritmische besluitvorming.

Sciencefiction wordt realiteit

Feit is: Slimme computersystemen zijn steeds beter in staat om te kijken, luisteren of spreken. En ze leren patronen en regels te ontdekken uit grote hoeveelheden data. Op sommige vlakken zijn dit soort systemen ons snel de baas. Dat heeft nogal wat gevolgen.

Kwaliteit Kunstmatige Intelligentie

Kunstmatige intelligentie (KI) is wat mij betreft de meest ontwrichtende technologie van de komende tien jaar. De kwaliteit van deze technologie is op een aantal vlakken de afgelopen jaren fors verbeterd, met alle gevolgen van dien. Slimme software-systemen snappen steeds beter wie wij zijn, wat we doen, wat we willen en waarom we dat willen. Een wereld vol mogelijkheden opent zich. Chatbots, slimme virtual assistants en autonome intelligente software-assistenten gaan ons steeds meer helpen. KI systemen brengen welvaart, tijdsbesparing, gemak, inzichten en comfort. We gaan gewend raken aan een persoonlijke assistent die 24 uur per dag beschikbaar is en weet wat we nodig hebben, voordat we het zelf weten. Net zoals het nu lastig is voor te stellen dat je leeft zonder internet, zo is het over tien jaar met je persoonlijke assistent.

De komst van slimme KI-systemen

Slimme KI-systemen geven ons straks inzichten die we zelf nooit voor mogelijk houden en geven antwoorden op vragen waarvan we niet wisten dat ze bestonden. KI-systemen zijn sneller, nooit moe, leren van voorbeelden en van elkaar en zijn in specifieke domeinen veel slimmer dan de mens. Geen toekomstmuziek, maar realiteit. Kunstmatig intelligente software is van het laboratorium verhuisd naar de echte wereld.

Bekende usecases

Dit soort systemen worden ingezet om leningen goed te keuren bij banken. Ook worden ze in de financiële dienstverlening gebruikt voor geautomatiseerde handelssystemen. Politie en verzekeraars gebruiken kunstmatige intelligentie om vrouwen op te sporen. Ook maken webwinkels gebruik van kunstmatige intelligentie om product aanbevelingen te doen. Denk bijvoorbeeld aan de volgende aanbeveling van Netflix. Kunstmatig intelligente software wordt gebruikt om teksten automatisch te vertalen, onderhoud te voorspellen in de industrie, ongewenste spam e-mails uit je inbox te houden en verkeer in de stad te managen.

Voorspellende gaves

Slimme computersystemen kunnen beter kunstvervalsingen herkennen dan menselijke experts. Een ander systeem kan dementie herkennen nog voordat een medisch specialist hieraan denkt. Een kunstmatig intelligent systeem herkent huidkanker eerder dan een medicus, een ander systeem doet het vergelijkbare met nagelschimmel. Onderzoekers van Stanford voorspellen op basis van Google Street View wat het stemgedrag zal zijn bij de verkiezingen en een algoritme, gevoed door data afkomstig van Street View.

De Apple watch kan diabetes voorspellen. Facebook weet soms al dat je verkering hebt voordat je het zelf handmatig hebt aangegeven op het platform. Amazon heeft het patent op ‘predictive shipping’: dat ze je al een pakketje mogen sturen voordat je zelf weet dat je het wilt hebben. De voorspellende waarde van KI gaat groot zijn. And the list goes on. CV’s selecteren, intakes doen van sollicitatiegesprekken via chatbots, tekstclassificatie,  planning, diagnostiek in de gezondheidszorg, A/B-testen van websites et cetera.

Voorbeeld van kunstmatige intelligentie in de praktijk

Dit is bijvoorbeeld een interessante toepassing van het gebruik van kunstmatige intelligentie; bij een MRI scan om een hersentumor te detecteren. Dit nieuwe systeem voorkomt dat er ongezond contrastvloeistof in de hersenen moet worden geïnjecteerd én reduceert de tijd in de MRI scanner, waarin men moet stilliggen, potentieel tot 75%.
Een heldere toepassing van kunstmatige intelligentie in de gezondheidszorg. De kracht ligt hier in het kunnen trainen van een machine in 1 specifieke usecase. We krijgen met AI soms bovenmenselijke cognitieve capaciteiten.

Maar we kunnen onze ogen niet sluiten voor de mogelijk negatieve scenario’s: president Poetin van Rusland zei ooit dat de koploper op het gebied van kunstmatige intelligentie waarschijnlijk ook de leider van de wereld zou worden. En wat te denken van het KI-systeem dat claimt op basis van gezichtsherkennings-technologie iets te kunnen zeggen over iemands seksuele geaardheid? Hoe gaan we om met dit soort nieuwe technologie? Met deze risico’s van kunstmatige intelligentie?

Het is daarom verstandig een potentieel krachtige technologie als kunstmatige intelligentie goed te bekijken: zowel de positieve als minder positieve kanten. Here we go.

12 risico’s van kunstmatige intelligentie

1 . Gebrek aan transparantie

Veel KI-systemen zijn gebouwd met zogenaamde neurale netwerken als motor; complexe systemen van knooppunten die onderling verbonden zijn. Deze systemen zijn echter minder goed in staat om hun ‘beweegredenen’ voor beslissingen weer te geven. Je ziet alleen wat er ingaat en wat er uitkomt. Het systeem is veel te complex. Bij militaire, maatschappelijke of medische beslissingen is het echter belangrijk dat we herleiden welke data tot welke beslissingen hebben geleid. Welke achterliggende gedachte of redenering heeft geleid tot de output? Welke data is gebruikt om het model te trainen? Hoe ‘denkt’ het model? Nu hebben we vaak geen idee. Dat is een risico van kunstmatige intelligentie.

2. Vooringenomen algoritmes

Bedrijven en overheden besteden steeds meer beslissingen uit aan slimme software. De intelligentie van dit soort systemen neemt toe. Om dit te doen hebben deze systemen heel veel data nodig. Bedrijven en overheden zijn al jaren actief bezig om data te verzamelen.

Soms menen zij dat deze data magische kwaliteiten bezit. Maar dat is niet zo: data zijn niet objectief. Want wij mensen zitten barstensvol vooroordelen. Deze vooroordelen zitten ook in onze data én daarmee uiteindelijk ook in de algoritmische modellen. Ze kijken naar het verleden. Het is een spiegel, en geen orakel. Zelflerende algoritmes bevestigen beelden die we al hebben. Wanneer wij onze algoritmes dus voeden met de datasets die bevooroordeelde data bevatten, bevestigt het systeem logischerwijze onze vooroordelen. En helaas zit er in een computersysteem geen magie of een schoonmaakfilter. Zo bleek laatst bijvoorbeeld dat gezichtsherkenningssoftware van Twitter een voorkeur heeft voor blanke mensen in plaats van gekleurde mensen.

Algoritmische modellen

Algoritmische modellen kiezen tegenwoordig winnaars en verliezers. De gevolgen hiervan zijn groot. Je krijgt wel of geen hypotheek, wel of geen verzekering, wel of geen contract bij een werkgever, wel geen uitnodiging bij een sollicitatie. Zeker wanneer de systemen niet transparant zijn moeten we voorkomen dat we continu te maken hebben met de hoed uit de film van Harry Potter: waar niemand weet wat er precies gebeurt, maar wel wordt geconfronteerd met een onomkeerbare uitkomst. We moeten dus heel voorzichtig zijn om kunstmatig intelligente software beslissing te laten nemen van medische, maatschappelijke of militaire aard

Self fulfilling prophecy

Voorbeeld: Als een politiesysteem bepaalt waar je moet surveilleren op basis van cijfers uit het verleden, gaan agenten alleen nog maar naar de mindere wijken waar ze vervolgens meer arrestaties zullen verrichten. En dat komt weer in het systeem te staan. Het is een self fulfilling prophecy. Kwetsbare mensen worden meer benadeeld. Een groot risico van kunstmatige intelligentie.

Want wanneer een systeem gevoed wordt met discriminerende data, zal het systeem ook dit soort data produceren. Garbage in, Garbage out. En niet te vergeten: omdat het uit een computer komt, zal het antwoord sneller voor waarheid worden aangenomen. (zogenaamde automation bias, de neiging van mensen om suggesties van “geautomatiseerde besluitvormingssystemen” serieuzer te nemen en tegenstrijdige informatie te negeren die is gemaakt door mensen, zelfs als deze correct is). En vergeet niet: vooroordelen zijn vaak een blinde vlek.

Computer says no-samenleving

En er is tegenwoordig nog te weinig expertise aanwezig bij bedrijven om deze datasets goed te beoordelen en eventuele aannames en vooringenomen data eruit te filteren. De meest kwetsbaren worden anders nog meer benadeeld door dit soort systemen. En hoe vergewissen we ons ervan dat onze datasets (waarop we steeds meer vertrouwen) niet expres worden bevuild door vijandige overheden of andere kwaadwillenden? Ook dan is een risico van kunstmatige intelligentie. We moeten voorkomen dat we steeds meer in een ‘computer says no’-samenleving terecht komen, waarbij mensen te veel leunen op de output van slimme systemen, zonder te weten hoe de algoritmes en data tot hun resultaat zijn gekomen.

3. Aansprakelijkheid voor handelen

Er is nog heel veel onduidelijk over de juridische aspecten van steeds slimmer wordende systemen. Hoe zit het bij aansprakelijkheid wanneer het KI-systeem een fout maakt? Beoordelen we dat net zoals een mens? Wanneer systemen meer zelflerend en autonoom worden, wie is dan verantwoordelijk? Kan een bedrijf nog verantwoordelijk worden gehouden voor een algoritme dat zelf heeft geleerd en vervolgens zelf zijn eigen koers bepaalt? Dat op basis van grote hoeveelheden data zélf conclusies heeft getrokken om tot specifieke beslissingen te komen? Accepteren we dat KI-machines ook foutjes maken, al is dat met fatale afloop?

4. Een te groot mandaat

Hoe meer slimme systemen wij gebruiken, des te meer we tegen het vraagstuk van reikwijdte aanlopen. Hoeveel mandaat geven wij onze slimme virtuele assistenten? Welke autonomie leveren we in? Wat mogen ze wel voor ons beslissen en wat niet? Rekken wij de autonomie van slimme systemen steeds verder op, of moeten wij daarover koste wat kost regie houden, zoals de Europese Unie graag wil? Wat laten we wel en niet bepalen en uitvoeren door slimme systemen, zonder tussenkomst van mensen? En moet er niet een standaard ‘preview’ functie worden aangebracht in slimme KI systemen? Het risico is dat we te veel autonomie uit handen geven, zonder dat de technologie of randvoorwaarden er klaar voor zijn. Het risico is ook dat we te veel van onze autonomie uit handen geven en zo zaken verliezen die achteraf waardevol bleken te zijn (menselijk contact, zelfstandig nadenken). En dat niet alleen; het kan ook een risico zijn dat grote technologiebedrijven steeds meer voor ons beslissen.

Risico van het gebruik van kunstmatig intelligente software

Het risico van het gebruik van kunstmatig intelligente software is dat de verwachtingen op dit moment zo hooggespannen zijn dat de technologie daarom wordt ingezet op plekken waar het gebruik helemaal nog niet robuust of betrouwbaar genoeg is. Dat er concrete kwaliteiten worden toegeschreven aan de software die het nog niet bezit. Maar dat software ondertussen wel zaken classificeert of voor ons beslissingen neemt. En het risico is dat we zelf na verloop van tijd niet meer weten waaraan en waarom we die taken uitbesteden. En dat we zelf na verloop van tijd niet meer goed weten hoe we bepaalde zaken moeten beoordelen Omdat we technologiebedrijven dit voor ons hebben laten bepalen.

Empathie en solidariteit

Het belangrijkste: We moeten onze onderlinge empathie en solidariteit niet uit het oog verliezen. Het is namelijk een werkelijk risico dat we moeilijke beslissingen (bijvoorbeeld ontslag) te makkelijk overlaten aan ‘slimme’ machines, omdat we het zelf te moeilijk vinden.

Google Maps bepaalt al waar we langsrijden, Amazon kiest het cadeautje voor onze broer of zus, Tinder kiest onze levenspartner, Youtube kiest welke informatie we tot ons nemen en bepaalt zo ons wereldbeeld.
We moeten voorkomen dat ons leven zich afspeelt in autoplay. Steeds maar de suggesties volgen van slimme software en onze autonomie daarmee opgeven.

5. Te weinig privacy

Elke dag creëren we 2,5 kwintiljoen bytes aan data (dat is 2,5 miljoen terabyte, waarbij 1 terabyte 1000 gigabyte is). Van alle digitale gegevens in de wereld is 90 procent in de afgelopen twee jaar gecreëerd. Om slimme systemen goed te laten functioneren heb je als bedrijf heel veel zuivere data nodig. Behalve in kwalitatief goede algoritmes zit de kracht van een KI-systeem ook in het bezitten van goede datasets. Bedrijven die bezig zijn met kunstmatige intelligentie worden steeds meer de Holle Bolle Gijs van onze data: het is nooit genoeg en alles is geoorloofd om nog betere resultaten te behalen. Een ander risico van kunstmatige intelligentie is het gevaar dat bedrijven steeds scherper een profiel van ons maken met een steeds grotere precisie. Dat ze ons steeds subtiel manipuleren richting een, voor hen, commercieel interessant profiel. Dat ze onze data inzetten om onze ideeën, wensen, gedachten te beïnvloeden. En uiteindelijk dus ook ons gedrag. En dat deze middelen uiteindelijk ook worden ingezet voor politieke doeleinden.

Google street view

Privacy

Het gevolg is dat onze privacy afbrokkelt.

Maar wanneer wij onze eigen privacy vervolgens afschermen, maken ze gewoon gebruik van vergelijkbare doelgroepen: van mensen die erg op ons lijken. En onze data worden massaal doorverkocht en niemand weet meer wie ze krijgt of waarvoor ze worden gebruikt. Data is de olie van KI-systemen en onze privacy is hoe dan ook in het geding.

Voorbeeld: Een foto van Google Street View van je huis voorspelt risico op auto-ongeluk. Is er een relatie tussen hoe je huis eruit ziet en het risico op een auto ongeluk? In dit onderzoek zijn 20.000 huizen van cliënten (van verzekeringsmaatschappijen ) geplukt en geannoteerd met feitelijke kenmerken als leeftijd, type woning, de nabijheid van andere gebouwen en fysieke staat van de woning. Met behulp van een kunstmatig intelligentie systeem dat gecreëerd is voor risicomanagement blijkt dat de afbeeldingen iets zeggen over de waarschijnlijkheid waarmee de bewoners betrokken raken bij een auto ongeluk.

Interessant hoe Google Streetview gebruikt wordt om inzichten te verkrijgen. Eerder was dit al politieke voorkeur, of criminaliteitscijfers in Brazilië (zie artikelen hieronder). De makers en bedenkers van Google Street View hadden hier vast nooit rekening mee gehouden.
Dit werpt natuurlijk ook ethische vragen op. Mag een verzekeraar dit soort openbare data wel gebruiken om voorspellingen te doen over auto-ongelukken en zo de bewoners mogelijk uitsluiten of een hogere premie geven? Of is het vergelijkbaar met de vragen die een verzekeraar stelt op het moment dat je je verzekering afsluit?

Lees ook mijn Blog: Apple kijkt via je handen in je hoofd

Software met gezichtsherkenning

En niet onbelangrijk: technologie krijgt ogen om te zien. Camera’s worden uitgerust met gezichtsherkenning software. Ons geslacht, leeftijd, etniciteit en gemoedstoestand kan gemeten worden met slimme software. Dat is geen toekomst, dit soort software bestaat al.

Ook analyse van gezicht, stem, gedrag en gebaren leidt tot steeds scherpere profielen. In realtime kan er door het gebruik van slimme camera’s een profiel van ons worden gemaakt. Slimme systemen bepalen beter dan onze partner of familieleden onze gemoedstoestand. Dat is niet iets van de toekomst: dat bestaat nu al. En dat is makkelijk en vaak als open source beschikbaar. Overheid blij, bedrijven blij. Bye bye privacy.

Gezichtsherkenningssoftware

In China zijn een aantal van deze mogelijkheden al realiteit. Sommige agenten dragen een bril met facial recognition technology met een database met gezichtsfoto’s van duizenden ‘verdachten’ erop. Maar vergeet niet: je bent in China al redelijk snel verdacht wanneer je bepaalde politieke uitspraken doet in het openbaar. En er hangen in het land ontzettend veel camera’s met beeldherkenning- of gezichtsherkenningssoftware.

Er gaan niet voor niets stemmen op om gezichtsherkenningssoftware te verbieden. Deze technologie is inmiddels vergevorderd en kan makkelijk mensen herkennen uit hele grote databases. Maar: natuurlijk zijn deze systemen niet foutloos. Ook dat is een risico van kunstmatige intelligentie.

Gezichtsherkennings-app maakt einde aan privacy

Nog een voorbeeld: Een nieuwe app met gezichtsherkenningstechnologie: Clearview. Met deze app kun je een foto maken (uploaden) van iedereen en deze app vertelt je dan wie het is en geeft de sociale media profielen waar deze foto’s gevonden zijn. Het bedrijf heeft een database van maar liefst 3 miljard foto’s! In perspectief: de FBI heeft een database van iets meer dan 400 miljoen foto’s.

Het eerste risico is natuurlijk: vals positieven. Dat de applicatie onnauwkeurig is en zegt dat jij iemand bent terwijl je dat niet bent. Ik heb bijvoorbeeld een eeneiige tweelingbroer: waarschijnlijk herkent de app niet het verschil. Het risico is dat we te veel gaan vertrouwen op de kwaliteit van deze algoritmes.

Tweede risico: dat deze app ‘uitlekt’ of wordt gepubliceerd naar het grote publiek? Hoe zit het dan met beroepen waar anonimiteit juist heel belangrijk is, zoals verpleegkundigen of politieagent? Hoe voorkomen we dat individuele medewerkers van een bedrijf de app niet voor eigen gebruik gaan gebruiken?

Of: Stel, je bent in de rosse buurt en iemand maakt een foto van jou en kan je zo afpersen? Of je wordt willekeurig op straat staande gehouden, je foto wordt gemaakt en vervolgens word je afgeperst om drugs te transporteren, ik noem maar iets. Of ik zie een leuke dame in de trein, maak haar foto en kan haar vervolgens gaan stalken. Genoeg om over na te denken.

Het risico van het gebruik van kunstmatige intelligentie door overheden is dat we waarschijnlijk meer totalitaire staten krijgen die deze technologie inzetten om controle over hun mensen te houden. Of het is op z’n minst zo dat bestaande totalitaire staten KI gebruiken om hun grip te behouden.

Nog een voorbeeld: Casino’s in China gebruiken computervision om mensen meer geld te laten uitgeven.
Sommige Chinese casino’s integreren gezichtsherkenningstechnologie en slimme algoritmen om hun casinobezoekers zoveel mogelijk geld uit te laten geven. Van iedere bezoeker wordt een profiel opgebouwd op basis van gezichtsherkenningstechnologie, de tijd die ze doorbrengen aan de speeltafel, de hoeveelheid geld die ze inleggen en de manier van spelen (high risk). Bij de spelers waarvan de kans het grootst is dat ze het meeste geld verliezen, [wat betekent: winst voor het casino], wordt geprobeerd ze zo lang mogelijk aan de speeltafel te houden. Met gezichtsherkenningstechnologie worden ze bij de ingang al herkend. Een medewerker kan dan even contact met ze maken om ze bijvoorbeeld een gratis maaltijd aan te bieden.

6. Veel invloed van grote technologiebedrijven

Bovenstaand onderwerp sluit aan bij de macht van grote technologiebedrijven. Facebook, Microsoft, Google, Apple, Alibaba, Tencent, Baidu en Amazon. Deze acht technologiebedrijven hebben het financiële vermogen, de data en de intellectuele capaciteiten om kunstmatige intelligentie kwalitatief enorm te laten groeien. Het gevaar is dus dat een heel krachtige technologie in handen komt van een relatief kleine groep commerciële (!) bedrijven. En hoe beter de technologie, hoe meer mensen het gaan gebruiken, hoe beter de technologie wordt. Et cetera. Dat geeft een steeds grotere voorsprong aan de grote jongens. Het “winner takes all” mechanisme van het internettijdperk geldt ook voor data (data monopolies) en algoritmes.

Ook werkt de overdracht van algoritmes in zogenaamde ‘transfer learning’ steeds beter. Er is dan steeds minder data nodig voor een goed resultaat. Een systeem van Google was bijvoorbeeld al enige tijd in staat om goed van Engels naar Spaans en het Portugees te vertalen. Met nieuwe transfer learning technieken kan dit systeem met zeer beperkte input inmiddels van Spaans naar Portugees vertalen en vice versa. De grote techbedrijven hebben de data en deze transfer learning modellen.

En de eerder genoemde commerciële doelstelling, zo leert de ervaring, zal altijd overheersen en het is onduidelijk hoe deze bedrijven de technologie in de toekomst gaan gebruiken.

Stemanalyse

Daarom willen bedrijven de verborgen geheimen in je stem weten. Niets zo persoonlijk als onze eigen stem; en wat blijkt: onze stem blijkt veel informatie te bevatten over bijvoorbeeld ons gedrag, identiteit, emoties en onze mentale gezondheid.

 Snelheid van spreken, volume, pauze tussen woorden, gebruik van “ehmm”, klemtoon, accent / dialect, vocabulaire, benadrukken van bepaalde woorden: in onze stem zitten veel informatiepunten.

Want nu steeds meer toepassingen en apparaten de mogelijkheid krijgen tot stembesturing, ontdekken commerciële bedrijven de waarde van deze biometrische data. En deze data kan over het algemeen makkelijk geoogst worden.

In de commerciële context kan deze software bijvoorbeeld gebruikt worden om te voorspellen of iemand zijn lening wel of niet terug gaat betalen, (!) of kan het door verzekeraars gebruikt worden in het voorselectietraject van bijvoorbeeld een arbeidsongeschiktheidsverzekering. Wanneer iemands stem bijvoorbeeld verraadt of hij of zij gevoelig is voor psychische problemen. Het risico is natuurlijk dat mensen, terecht of onterecht, bij de deur van de verzekeraar al worden geweigerd omdat ze mogelijk een hogere kans hebben op een bepaalde fysieke of mentale klacht.

Surveillance capitalism: verlies van onze menselijke autonomie.

“Surveillance kapitalisme” is dat tech-bedrijven steeds meer data over ons verzamelen, ons steeds beter leren kennen en ons gedrag, onze gevoelens en gedachten leren kennen. Ze gaan  steeds beter voorspellen wat hun gebruikers in de toekomst gaan doen. Middels subtiele acties, zoals het belonen van gewenst gedrag, of ontmoedigen van ongewenst worden we gemanipuleerd. Dit is nadelig voor onze menselijke autonomie.

Ook een nadeel: je ziet dat het verdienmodel van “predictive products” wereldwijd door technologiebedrijven wordt omarmd. We weten niet precies wat bedrijven over ons weten en in welke mate ze voorspellingen doen. En we weten we niet welke voorspellingen en welke data verkocht worden aan andere bedrijven.

Vaak is overigens de technologie niet het probleem, maar het verdienmodel. Advertenties voor aandacht en geld. Dat is de werkelijke reden van negativiteit, manipulatie en onethisch gebruik. Technologie is niet altijd schadelijk: het verdienmodel wel.

7. Kunstmatige superintelligentie

In de discussie over de nadelen van kunstmatige intelligentie, overheerst mijns inziens iets te vaak de discussie over superintelligentie. Systemen zo intelligent dat ze op meerdere facetten de menselijke intelligentie ver overstijgen. Dat ze zichzelf allerlei vaardigheden en kennis eigen maken, zonder tussenkomst van mensen. Dat ze zichzelf trainen op voor hen onbekende situaties. Dat ze context snappen. Een soort superintelligent orakel dat de mensheid slechts beschouwd als ‘slakken in de tuin’: zolang je er geen last van hebt, mogen ze blijven leven.

Ethische moraal op intelligente systemen

Ik vind echter dat we dit scenario wel serieus moeten nemen. Hoe eerder we hier serieus over nadenken, hoe beter. Veel zaken rondom dit thema hebben een hoog science fiction gehalte. Maar dat neemt niet weg dat we ons goed moeten voorbereiden op een mogelijke toekomst waarin kunstmatig intelligente software op heel veel vlakken intelligenter is dan dat wij zijn.

We moeten met name letten op het overbrengen van onze ethische moraal op intelligente systemen. Dat we ze dus niet betonnen regels meegeven, maar iets leren over menselijke overwegingen. Heel belangrijk.

Ik geloof dus niet dat wij op enige korte termijn ook maar iets gaan zien van een bewustzijn in dit soort systemen. Daarvoor is de technologie nog veel te jong, als het al Überhaupt mogelijk is om bewustzijn te creëren in dit soort systemen. Dus: nadenken erover is prima en we moeten superintelligentie ook echt serieus nemen, maar er zijn momenteel wel degelijk andere, actuelere risico’s.

Een nuancering. Ik ben niet zozeer bang voor een systeem dat de wereld gaat overnemen in bezit van enige vorm van bewustzijn. Maar… waarschijnlijk zullen we veel vaker last krijgen van systemen die geprogrammeerd zijn met een bepaalde doelstelling en daarbij meedogenloos deze doelstelling willen gaan volgen. Zonder daarbij rekening te houden met zaken die wij als mensen belangrijk vinden zoals empathie en sociale gelijkheid. Gewoonweg omdat ze zo geprogrammeerd zijn. Omdat wat wij belangrijk vinden hun blinde vlek is. En dat is GEEN science fiction.

Facebook-algoritmes

Facebook levert een ‘prachtig’ voorbeeld van hoe een kunstmatig intelligent systeem totaal verkeerd kan uitpakken. Steeds slimmere Facebook-algoritmes hebben namelijk maar één doel: jou zo lang mogelijk op het platform houden. Maximale betrokkenheid creëren op de content. Clicks en reacties verzamelen. Maar het systeem is daarbij ongevoelig voor zaken als ‘de objectieve feitelijke weergave van zaken’. Waarheid is onbelangrijk, want het systeem is enkel geïnteresseerd in het tijd die je doorbrengt op het platform. Facebook doesn’t care about the truth, met alle kwalijke gevolgen van dien. Het platform wil stiekem dat jij negatieve emoties voelt, want dat houdt jou op het platform.

8. Impact op de arbeidsmarkt

KI gaat de komende jaren zorgen voor druk op de arbeidsmarkt. Door de snelle toename van de kwaliteit van kunstmatige intelligentie zullen slimme systemen veel beter worden in specifieke taken. Het herkennen van patronen uit grote hoeveelheden data, het verschaffen van specifieke inzichten, en het uitvoeren van cognitieve taken zal worden overgenomen door slimme KI-systemen. Professionals moeten de ontwikkeling van kunstmatige intelligentie scherp in de gaten houden, want systemen kijken steeds beter. Luisteren, spreken, analyseren, lezen beter en maken zelf content.

Gevarenzone

Er zijn dus zeker mensen met een baan in de gevarenzone die zich snel moeten gaan aanpassen. Maar veruit het grootste deel van de bevolking zal gaan samenwerken met kunstmatig intelligente systemen. En vergeet niet: er zullen ook weer heel veel nieuwe banen bijkomen, al zijn deze lastiger te bedenken dan de banen die verdwijnen.

De maatschappelijke ongelijkheid zal de komende jaren toenemen door de kloof tussen haves en have-nots. Wij moeten als samenleving mijns inziens zorgen voor de have-nots. De mensen die enkel de capaciteit hebben om routinematig hand- of denkwerk te verrichten. Want vergeet niet: een baan is meer dan alleen het salaris aan het einde van de maand. Het is daginvulling, doel, identiteit, status en een rol in de maatschappij. Wat we willen voorkomen is dat er een groep met mensen in onze maatschappij ontstaat die betaald en behandeld worden als robots.

Sociale stress

Wat we willen voorkomen is dat kunstmatige intelligentie enkel en alleen wordt ingezet om arbeid te reduceren. Als kostenbesparing. Dat veel mensen thuis komen te zitten zonder een dieper, groter doel in hun leven.
Dat jonge mensen misschien een diepere doelstelling gaan zoeken bij extreem religieuze organisaties of zich negatief keren jegens de maatschappij waar zij geen plek vinden.
De kwalitatieve opkomst van kunstmatige intelligentie zorgt nu en in de toekomst voor veel “sociale stress”. Mensen moeten zich continu aanpassen en zijn onzeker over hun baan en over hun werk.

Kortom: het wordt steeds belangrijker als professional om je aan te passen aan de snel veranderende omgeving. En dat kan leuk zijn, maar ook stress geven.

9. Autonome wapens

Elon Musk van Tesla waarschuwde enige tijd geleden nog de Verenigde Naties over autonome wapens, aangestuurd door kunstmatige intelligentie. Samen met 115 andere experts wees hij op de mogelijke dreiging van autonoom oorlogstuig. Logisch: het zijn krachtige middelen die veel schade aanbrengen. Niet alleen écht militair materieel is gevaarlijk, maar omdat technologie steeds makkelijker, goedkoper en gebruiksvriendelijker wordt, komt het in handen van iedereen… ook kwaadwillenden. Voor duizend dollar heb je al een hele goede drone met een camera. Een whizzkid kan daar software op installeren zodat de drone autonoom gaat vliegen en er is nu al facial recognition software waarmee de drone-camera gezichten kan herkennen en de desbetreffende persoon kan gaan volgen. En wat als een systeem zélf beslissingen gaan nemen over leven en dood, zoals nu al in oorlogsgebied? Moeten we dat wel overlaten aan algoritmes?

En het is wachten op de eerste autonome drone met gezichtsherkenning én een 3D geprinte buks, pistool of ander schiettuig. Check deze video van Slaughterbots om daar een beeld van te krijgen. Kunstmatige intelligentie maakt dit mogelijk.

10. Onbetrouwbaarheid neemt toe

Slimme systemen zijn steeds meer in staat content te maken: gezichten te creëren, teksten samen te stellen, tweets te produceren, beelden te manipuleren, stemmen te klonen en slim te adverteren.

KI systemen zijn in staat een video van de winter laten veranderen in zomer en een video van dag in nacht. Levensechte gezichten maken van mensen die nooit bestaan hebben.

Deepfake 

Open source software Deepfake kan foto’s van gezichten plakken op bewegende videobeelden. Zo lijkt het dus op video dat jij iets doet (wat dus niet waar is en niet is gebeurd).

Beroemdheden hebben hier nu al last van omdat kwaadwillenden makkelijk pornografische video’s maken met deze beroemdheden in de hoofdrol. Wanneer deze technologie iets gebruiksvriendelijker is, is het afpersen van een willekeurig iemand kinderlijk eenvoudig. Je kunt een foto plakken van wie-dan-ook en dit plakken op ranzige porno. Vervolgens is 1 mailtje voldoende: “Beste XYZ, In bijgevoegd filmbestand speel jij de hoofdrol. Tevens heb ik de namen en gegevens van al je 1.421 LinkedIn connecties gedownload en ben ik in staat hen te mailen met dit bestand. Wil je dit voorkomen, maak dan 5 bitcoins over aan onderstaand adres.” Faceswap video blackmailing.

Nep-content en nepnieuws

Bij kunstmatig intelligente systemen die nep-content maken ligt tevens het risico van manipulatie en beïnvloeding door bedrijven en overheden op de loer. Content kan dan met zo’n snelheid en schaal geproduceerd worden, dat meningen beïnvloed worden en nepnieuws met grote kracht de wereld in geslingerd wordt. Specifiek gericht op mensen die daar gevoelig voor zijn. Manipulatie, framing, sturing en beïnvloeding. Computational propaganda. Deze praktijken zijn al realiteit, zoals we hebben gezien bij de case rondom Cambridge Analytica, het bedrijf dat gegevens van 87 miljoen Facebookprofielen van Amerikanen wist buit te maken en deze gegevens gebruikte voor een onzuivere (angstzaaiende) campagne om president Trump aan de macht te krijgen. Bedrijven en overheden met slechte bedoelingen hebben met kunstmatige intelligentie een krachtige tool in handen.

Deepfake technologie

Wat als er een video opduikt van een Israelische generaal die iets zegt over het uitroeien van de Palestijnen met op de achtergrond beelden van wat waterboarding lijkt te zijn? Wat als we video’s te zien krijgen van Russische raketten die op Syrische steden vallen met een stem-opname van president Poetin die losjes vertelt over genocide? Kruidvat -> lont -> vonk -> explosie.

Ik maak me dus zorgen om Deepfake technologie. Mensen die vanaf een zolderkamer het gezicht van iemand anders plakken op een bewegende video en mensen zo van alles laten doen. Ik kan een gemanipuleerde video maken met mijn buurman in de hoofdrol waarbij hij een criminele activiteit onderneemt, bijvoorbeeld een mishandeling. Ik kan hem daarmee in diskrediet brengen of chanteren.

Het is niet ondenkbaar dat we over een paar jaar apathisch zijn geworden voor al het nieuws omdat we niks meer geloven: we kunnen onze ogen en oren niet meer vertrouwen. En dat is een ondermijning van de democratie.

Voice cloning

En hoe voorkomen we dat de algoritmes van sociale media ons steeds meer ‘op maat’ bedienen en daarmee onze eigen mening versterken in onze steeds sterker wordende echo-put? Dat verschillende groepen in de samenleving steeds meer leven in hun eigen filter bubbel van “gelijk hebben”? Zo worden op grote schaal steeds meer individuele filterbubbels gecreëerd met alle maatschappelijke onrust tot gevolg.

En wat te denken van ‘Voice cloning’? Het nabootsen van iemands stem met behulp van software is nu al mogelijk, zei het niet perfect. Dat wordt wel steeds beter. Identiteitsfraude en cybercriminaliteit liggen op de loer. Criminelen zullen voicemails laten inspreken door software met betalingsopdrachten aan henzelf. Social engineering (het gebruik van misleiding om individuen te manipuleren om vertrouwelijke of persoonlijke informatie bekend te maken die voor frauduleuze doeleinden kan worden gebruikt) middels Fake voice cloning cybercrime. Dat is nu al de realiteit.

11. Hacking algoritmes

Kunstmatige intelligente systemen worden steeds slimmer en kunnen binnen afzienbare tijd met grote snelheid en op grote schaal malware en ransomware verspreiden. Ook worden ze steeds beter in het binnendringen van systemen en het kraken van encryptie en beveiligingen, zoals recent nog met de Captcha sleutel. Met name wanneer de kracht van kunstmatige intelligentie nog meer gaat toenemen, zullen we kritisch moeten kijken naar onze huidige versleutelingsmethodes. Ransomware-as-a-service wordt steeds beter door kunstmatige intelligentie. Ook andere computervirussen worden steeds slimmer door trail and error.

Voorbeeld: Een zelfrijdende auto is software op wielen. Het is verbonden met het internet en kan dus gehackt worden. (is al gebeurd). Dat betekent dat een eenzame gek op z’n zolderkamertje een drama zoals in Nice kan veroorzaken. Ik verwacht dat er steeds slimmere software komt waarmee je systemen kunt hacken of aanvallen die zo makkelijk worden als internetbankieren anno nu.

(De Amerikaanse overheid waarschuwde trouwens voor autonome voertuigen omdat kwaadwillenden beide handen vrij hebben tijdens het rijden om met een mitailleur een “drive-by-shooting” te doen.)

Ook in bijvoorbeeld ziekenhuizen is steeds meer apparatuur aangesloten op het internet, Wat als de digitale systemen daar gehackt worden met zogenaamde gijzelsoftware? Dat is software die complete computersystemen kan blokkeren in ruil voor losgeld. Je moet er niet aan denken dat iemand een enorme storing in pacemakers creëert of dreigt dat te doen.

12. Loss of Skills

Door het gebruik van computers en smartphone verliezen we steeds meer menselijke vaardigheden. Is dat jammer? Soms wel, soms niet. Slimme software maakt ons leven makkelijker en zorgt ervoor dat we minder saaie taken hoeven te doen. Navigeren, schrijven met de hand, hoofdrekenen, onthouden van telefoonnummers, in staat zijn om regen te voorspellen door naar de lucht te kijken et cetera. Niet meteen van cruciaal belang. We verliezen vaardigheden in het dagelijks leven en laten deze over aan technologie. Zo gaat het al eeuwen. Vrijwel niemand weet bijvoorbeeld nog hoe je eigenhandig vuur maakt. Mijns inziens is het wel belangrijk ons af te vragen: worden we daarbij niet te afhankelijk van nieuwe technologie? Hoe hulpeloos willen we zijn zonder digitale technologie om ons heen?

Slimme computersystemen

En niet onbelangrijk aangezien slimme computersystemen steeds meer gaan begrijpen wie we zijn, wat we doen en waarom we dat doen en ons gaan bedienen op maat: is het niet een belangrijke menselijke vaardigheid om frustratie te verdragen? Of genoegen te nemen met iets minder dan ‘hypergepersonaliseerd’?

In ons werk worden wij steeds meer geassisteerd door slimme computersystemen die emoties en gemoedstoestand van derden lezen, zoals nu bijvoorbeeld al in de klantenservice gebeurt en in Amerikaanse supermarkten mee wordt geëxperimenteerd. In hoeverre verliezen wij de vaardigheid om zélf deze waarnemingen te doen en onze antennes te trainen? Worden we dan uiteindelijk minder goed in het lezen van onze medemens in een fysiek gesprek?

Dat is nu al een beetje het geval natuurlijk, omdat we steeds meer gebruikmaken van onze smartphone in onze communicatie. Zijn we daardoor minder goed geworden in het aflezen van onze gesprekspartner in een face-to-face gesprek? Kortom, welke van onze vaardigheden, zowel praktisch als emotioneel, willen we overlaten aan slimme computersystemen? Zijn aandacht, intimiteit, liefde, concentratie, frustratietolerantie, empathie aspecten uit ons leven die wij steeds meer willen laten overnemen door technologie?

Wat dat betreft is KI als technologische ontwikkeling een tweesnijdend zwaard: vlijmscherp in zowel de mogelijke positieve als de negatieve uitkomst.

Uitgelichte lezing

Kunstmatige Intelligentie

1# Kunstmatige Intelligentie

De ontwikkelingen rondom kunstmatige intelligentie gaan razendsnel. Het is de meest belangrijke technologische trend van het komende decennium. Slimme machines die voorspellingen kunnen doen en verassende inzichten genereren uit grote hoeveelheden data.

In deze lezing krijgt u een inspirerende blik op de ontwikkelingen op het gebied van kunstmatige intelligentie. Neem kennis van de voorbeelden, de voordelen en de mogelijke risico's. Meest geboekte lezing van 2020!

Bekijk lezing

Geselecteerd boek

De digitale butler

De digitale butler

Kansen en bedreigingen van kunstmatige intelligentie. Wat is er mogelijk met kunstmatige intelligentie? Wat niet? Hoe gebruiken bedrijven het? Wat zijn de risico's?

Welke menselijke vaardigheden worden overgenomen door kunstmatig intelligente software? Dit boek stond 27 dagen in de top 10 van Managementboek.nl.

Bekijk het boek Koop mijn boek
"In drie kwartier kregen de deelnemers aan ons ANVR reiscongres in Portugal een spervuur aan voorbeelden van toepassingen kunstmatige intelligentie voorgeschoteld. De presentatie van Jarno heeft ons op een hele aanschouwelijke manier duidelijk gemaakt dat de toekomst al is begonnen. Toppresentatie!"
Frank Oostdam
Directeur ANVR
Frank Oostdam
"Samenwerken met Jarno ervaar ik elke keer weer als heel prettig. Ook voor Frankwatching's meest recente Conversational Commerce Event heeft Jarno actief met me meegedacht, stond hij open voor ideeën en zorgde op de dag zelf voor een sterke openings keynote. Een waardevolle aanvulling voor het programma, zowel inhoudelijk als ook in persoon."
Lindy Prins
Frankwatching
Lindy Prins

Inspirerende lezing voor Thuiswerkers

Het normale kantoorleven verdwijnt door de tweede coronagolf steeds verder uit het zicht. We werken thuis. Dat heeft voordelen maar ook nadelen. Geen praatjes met collega’s. Niet even snel kunnen overleggen. Er is gebrek aan sociale cohesie. Aan nieuwe ideeën. En soms ook gebrek aan motivatie. We merken hoe belangrijk verbinding en relaties zijn.

Misschien helpt het om een inspirerende sessie over innovatie, technologie en verbinding te organiseren voor uw medewerkers? Een ‘energyboost‘!
Laat het me weten. Al mijn lezingen kunnen ook prima online gegeven worden. Met hetzelfde enthousiasme als bij een fysieke bijeenkomst.

Wilt u uw team inspireren? Motiveren? Weer even (online) bij elkaar brengen? Neem dan contact met me op. Ik denk graag mee.

Neem contact met mij op