Gezichtsherkennings-app maakt einde aan privacy
Nog een voorbeeld: Een nieuwe app met gezichtsherkenningstechnologie: Clearview. Met deze app kun je een foto maken (uploaden) van iedereen en deze app vertelt je dan wie het is en geeft de sociale media profielen waar deze foto’s gevonden zijn. Het bedrijf heeft een database van maar liefst 3 miljard foto’s! In perspectief: de FBI heeft een database van iets meer dan 400 miljoen foto’s.
Het eerste risico is natuurlijk: vals positieven. Dat de applicatie onnauwkeurig is en zegt dat jij iemand bent terwijl je dat niet bent. Ik heb bijvoorbeeld een eeneiige tweelingbroer: waarschijnlijk herkent de app niet het verschil. Het risico is dat we te veel gaan vertrouwen op de kwaliteit van deze algoritmes.
Tweede risico: dat deze app ‘uitlekt’ of wordt gepubliceerd naar het grote publiek? Hoe zit het dan met beroepen waar anonimiteit juist heel belangrijk is, zoals verpleegkundigen of politieagent? Hoe voorkomen we dat individuele medewerkers van een bedrijf de app niet voor eigen gebruik gaan gebruiken?
Of: Stel, je bent in de rosse buurt en iemand maakt een foto van jou en kan je zo afpersen? Of je wordt willekeurig op straat staande gehouden, je foto wordt gemaakt en vervolgens word je afgeperst om drugs te transporteren, ik noem maar iets. Of ik zie een leuke dame in de trein, maak haar foto en kan haar vervolgens gaan stalken. Genoeg om over na te denken.

Het risico van het gebruik van kunstmatige intelligentie door overheden is dat we waarschijnlijk meer totalitaire staten krijgen die deze technologie inzetten om controle over hun mensen te houden. Of het is op z’n minst zo dat bestaande totalitaire staten KI gebruiken om hun grip te behouden.
Nog een voorbeeld: Casino’s in China gebruiken computervision om mensen meer geld te laten uitgeven.
Sommige Chinese casino’s integreren gezichtsherkenningstechnologie en slimme algoritmen om hun casinobezoekers zoveel mogelijk geld uit te laten geven. Van iedere bezoeker wordt een profiel opgebouwd op basis van gezichtsherkenningstechnologie, de tijd die ze doorbrengen aan de speeltafel, de hoeveelheid geld die ze inleggen en de manier van spelen (high risk). Bij de spelers waarvan de kans het grootst is dat ze het meeste geld verliezen, [wat betekent: winst voor het casino], wordt geprobeerd ze zo lang mogelijk aan de speeltafel te houden. Met gezichtsherkenningstechnologie worden ze bij de ingang al herkend. Een medewerker kan dan even contact met ze maken om ze bijvoorbeeld een gratis maaltijd aan te bieden.

6. Veel invloed van grote technologiebedrijven
Bovenstaand onderwerp sluit aan bij de macht van grote technologiebedrijven. Facebook, Microsoft, Google, Apple, Alibaba, Tencent, Baidu en Amazon. Deze acht technologiebedrijven hebben het financiële vermogen, de data en de intellectuele capaciteiten om kunstmatige intelligentie kwalitatief enorm te laten groeien. Het gevaar is dus dat een heel krachtige technologie in handen komt van een relatief kleine groep commerciële (!) bedrijven. En hoe beter de technologie, hoe meer mensen het gaan gebruiken, hoe beter de technologie wordt. Et cetera. Dat geeft een steeds grotere voorsprong aan de grote jongens. Het “winner takes all” mechanisme van het internettijdperk geldt ook voor data (data monopolies) en algoritmes.
Ook werkt de overdracht van algoritmes in zogenaamde ‘transfer learning’ steeds beter. Er is dan steeds minder data nodig voor een goed resultaat. Een systeem van Google was bijvoorbeeld al enige tijd in staat om goed van Engels naar Spaans en het Portugees te vertalen. Met nieuwe transfer learning technieken kan dit systeem met zeer beperkte input inmiddels van Spaans naar Portugees vertalen en vice versa. De grote techbedrijven hebben de data en deze transfer learning modellen.
En de eerder genoemde commerciële doelstelling, zo leert de ervaring, zal altijd overheersen en het is onduidelijk hoe deze bedrijven de technologie in de toekomst gaan gebruiken.

Stemanalyse
Daarom willen bedrijven de verborgen geheimen in je stem weten. Niets zo persoonlijk als onze eigen stem; en wat blijkt: onze stem blijkt veel informatie te bevatten over bijvoorbeeld ons gedrag, identiteit, emoties en onze mentale gezondheid.
Snelheid van spreken, volume, pauze tussen woorden, gebruik van “ehmm”, klemtoon, accent / dialect, vocabulaire, benadrukken van bepaalde woorden: in onze stem zitten veel informatiepunten.
Want nu steeds meer toepassingen en apparaten de mogelijkheid krijgen tot stembesturing, ontdekken commerciële bedrijven de waarde van deze biometrische data. En deze data kan over het algemeen makkelijk geoogst worden.
In de commerciële context kan deze software bijvoorbeeld gebruikt worden om te voorspellen of iemand zijn lening wel of niet terug gaat betalen, (!) of kan het door verzekeraars gebruikt worden in het voorselectietraject van bijvoorbeeld een arbeidsongeschiktheidsverzekering. Wanneer iemands stem bijvoorbeeld verraadt of hij of zij gevoelig is voor psychische problemen. Het risico is natuurlijk dat mensen, terecht of onterecht, bij de deur van de verzekeraar al worden geweigerd omdat ze mogelijk een hogere kans hebben op een bepaalde fysieke of mentale klacht.
Surveillance capitalism: verlies van onze menselijke autonomie.
“Surveillance kapitalisme” is dat tech-bedrijven steeds meer data over ons verzamelen, ons steeds beter leren kennen en ons gedrag, onze gevoelens en gedachten leren kennen. Ze gaan steeds beter voorspellen wat hun gebruikers in de toekomst gaan doen. Middels subtiele acties, zoals het belonen van gewenst gedrag, of ontmoedigen van ongewenst worden we gemanipuleerd. Dit is nadelig voor onze menselijke autonomie.
Ook een nadeel: je ziet dat het verdienmodel van “predictive products” wereldwijd door technologiebedrijven wordt omarmd. We weten niet precies wat bedrijven over ons weten en in welke mate ze voorspellingen doen. En we weten we niet welke voorspellingen en welke data verkocht worden aan andere bedrijven.
Vaak is overigens de technologie niet het probleem, maar het verdienmodel. Advertenties voor aandacht en geld. Dat is de werkelijke reden van negativiteit, manipulatie en onethisch gebruik. Technologie is niet altijd schadelijk: het verdienmodel wel.
7. Kunstmatige superintelligentie
In de discussie over de nadelen van kunstmatige intelligentie, overheerst mijns inziens iets te vaak de discussie over superintelligentie. Systemen zo intelligent dat ze op meerdere facetten de menselijke intelligentie ver overstijgen. Dat ze zichzelf allerlei vaardigheden en kennis eigen maken, zonder tussenkomst van mensen. Dat ze zichzelf trainen op voor hen onbekende situaties. Dat ze context snappen. Een soort superintelligent orakel dat de mensheid slechts beschouwd als ‘slakken in de tuin’: zolang je er geen last van hebt, mogen ze blijven leven.
Ethische moraal op intelligente systemen
Ik vind echter dat we dit scenario wel serieus moeten nemen. Hoe eerder we hier serieus over nadenken, hoe beter. Veel zaken rondom dit thema hebben een hoog science fiction gehalte. Maar dat neemt niet weg dat we ons goed moeten voorbereiden op een mogelijke toekomst waarin kunstmatig intelligente software op heel veel vlakken intelligenter is dan dat wij zijn.
We moeten met name letten op het overbrengen van onze ethische moraal op intelligente systemen. Dat we ze dus niet betonnen regels meegeven, maar iets leren over menselijke overwegingen. Heel belangrijk.
Ik geloof dus niet dat wij op enige korte termijn ook maar iets gaan zien van een bewustzijn in dit soort systemen. Daarvoor is de technologie nog veel te jong, als het al Überhaupt mogelijk is om bewustzijn te creëren in dit soort systemen. Dus: nadenken erover is prima en we moeten superintelligentie ook echt serieus nemen, maar er zijn momenteel wel degelijk andere, actuelere risico’s.
Een nuancering. Ik ben niet zozeer bang voor een systeem dat de wereld gaat overnemen in bezit van enige vorm van bewustzijn. Maar… waarschijnlijk zullen we veel vaker last krijgen van systemen die geprogrammeerd zijn met een bepaalde doelstelling en daarbij meedogenloos deze doelstelling willen gaan volgen. Zonder daarbij rekening te houden met zaken die wij als mensen belangrijk vinden zoals empathie en sociale gelijkheid. Gewoonweg omdat ze zo geprogrammeerd zijn. Omdat wat wij belangrijk vinden hun blinde vlek is. En dat is GEEN science fiction.
Facebook-algoritmes
Facebook levert een ‘prachtig’ voorbeeld van hoe een kunstmatig intelligent systeem totaal verkeerd kan uitpakken. Steeds slimmere Facebook-algoritmes hebben namelijk maar één doel: jou zo lang mogelijk op het platform houden. Maximale betrokkenheid creëren op de content. Clicks en reacties verzamelen. Maar het systeem is daarbij ongevoelig voor zaken als ‘de objectieve feitelijke weergave van zaken’. Waarheid is onbelangrijk, want het systeem is enkel geïnteresseerd in het tijd die je doorbrengt op het platform. Facebook doesn’t care about the truth, met alle kwalijke gevolgen van dien. Het platform wil stiekem dat jij negatieve emoties voelt, want dat houdt jou op het platform.
