Onder mijn socialmediaposts, als reactie op mijn nieuwsbrief en na mijn presentaties, gaat het vaak over de ethische kant van kunstmatige intelligentie. En dat is niet zo vreemd, want het is een technologie met enorme impact. Daar hoef ik jullie gelukkig niets meer over uit te leggen.
En ik ben vaak heel positief over AI, maar ik wil niet wegkijken van de ethische overwegingen. Ik noem 9 belangrijke overwegingen.
Echter; wie deze ethische bezwaren als losstaande incidenten ziet, mist het grotere plaatje. We moeten durven kijken naar het systeem waarin AI ontstaat, maar daarover later meer.
Het eerste ethische bezwaar dat ik vaak hoor, is de hoge energieconsumptie van AI-modellen. Niet alleen het trainen van taalmodellen kost veel energie, vooral het dagelijkse gebruik is relatief energie-intensief. Ik kijk daar niet voor weg en erken dat dit een reëel probleem is. Met name het genereren van afbeeldingen en AI-video’s (!) kost veel energie.
Tegelijkertijd: Het totale energieverbruik van ChatGPT is vergelijkbaar met dat van 20.000 Amerikaanse huishoudens. Ter vergelijking: Netflix verbruikt evenveel als 800.000 huishoudens en alle videostreaming wereldwijd (YouTube, Amazon, Disney) evenveel als 33 miljoen huishoudens. Da’s 1.600 keer zoveel als het wereldwijde ChatGPT gebruik.
Het is dus goed om kritisch te zijn op je gebruik van ChatGPT, en je af te vragen of een gewone zoekopdracht via Google ook volstaat. En of het taakje überhaupt wel zo nodig is. Tegelijkertijd is het belangrijk om te reflecteren op je bredere klimaatafdruk, zoals vleesconsumptie, fast fashion en videostreaming.
De kernvraag die hieronder ligt is: is onze jacht op productiviteitswinst deze ecologische impact waard?
Het tweede ethische bezwaar betreft het gebruik van auteursrechtelijk beschermd materiaal bij het trainen van taalmodellen. Dat materiaal is gemaakt dankzij de tijd, creativiteit en inzet van journalisten, kunstenaars en andere makers. Amerikaanse technologiebedrijven betalen hier niets voor, maar verdienen nu wel dikke knaken. Ik vind dat een terecht punt van kritiek. Makers zouden hiervoor financieel gecompenseerd moeten worden.
Tegelijkertijd ben ik niet van mening dat deze technologische ontwikkeling daardoor moet worden stopgezet. De rechterlijke macht doet steeds vaker uitspraken in dit domein, waarbij technologiebedrijven regelmatig in het gelijk worden gesteld.
Een derde ethisch bezwaar is de impact van kunstmatige intelligentie op arbeid.
- Banen verdwijnen door efficiëntie
Dit staat wat mij betreft los van de discussie over hoeveel nieuwe banen AI onder de streep oplevert. Het kan best zijn dat er netto groei komt, maar de realiteit is ook dat er mensen buiten de boot gaan vallen.
Je kunt simpelweg niet negeren dat bepaalde functies zwaar onder druk komen te staan. We zien dit al bij softwareontwikkelaars. Een paar jaar geleden nog cruciaal voor elk team, maar tegenwoordig leidt de inzet van AI tot hogere productiviteit, waardoor er minder snel nieuwe mensen worden aangenomen. Je kunt als bedrijf meer doen met minder mensen.
Ook in sommige aspecten van de zakelijke dienstverlening zie ik code oranje. Voor dezelfde hoeveelheid werkzaamheden kun je toe met minder mensen. En bedrijven kunnen nu eenmaal niet razendsnel hun klantenportefeuille verdubbelen om iedereen aan het werk te houden.
- Werk verliest zingevende elementen
Een ethisch bezwaar van AI is ook dat sommige banen zullen worden uitgehold door AI.
Door de economische druk om maximale efficiëntie te bereiken, worden dan taken geautomatiseerd die het werk juist waardevol, creatief en plezierig maken. Mensen doen dan alleen nog die taken die AI nog niet kan uitvoeren.
Het risico is dat werk wordt gereduceerd tot een puur economische transactie, waarbij de menselijke en zingevende aspecten verdwijnen. En dat is erg jammer, want werk is immers meer dan ‘geld verdienen’; het gaat ook om betekenis, identiteit, vervulling en status.
De rol van AI als ‘denkende laag’ in het dagelijks leven (zoeken, beslissen, schrijven, communiceren) wordt steeds normaler. Het risico is dat het gebruik van AI in sommige gevallen het eigen denkvermogen aantast.
Mensen stellen een vraag aan ChatGPT en kopiëren het antwoord zonder na te denken. Iedere moeite om zelf na te denken wordt gemarginaliseerd. Je wordt per saldo dommer en minder goed in kritisch nadenken.
Ik heb hier eerder over geschreven, maar het tegenovergestelde kan ook waar zijn. Het hangt af van de manier waarop je AI gebruikt. Als je AI inzet als sparringpartner, kun je er juist slimmer van worden, bijvoorbeeld wanneer het systeem kritische vragen stelt of nieuwe informatie en feedback biedt. Luie mensen worden luier met ChatGPT, slimme mensen worden slimmer.
Een veelgehoord bezwaar is ook de machtsconcentratie bij een beperkt aantal grote technologiebedrijven zoals OpenAI, Microsoft, Google en Meta. Deze bedrijven vergaren enorme financiële middelen, die ze vervolgens weer kunnen inzetten om betere modellen te ontwikkelen en hun voorsprong verder uit te bouwen. Zo ontstaat een vicieuze cirkel van macht en (in ons geval) afhankelijkheid.
De macht zit daarbij niet alleen in de modellen (LLM’s), maar in de hele stack: de cloudinfrastructuur (AWS, Azure, Google Cloud) en de chips (NVIDIA).
Wat gebeurt er als slechts vier partijen de basislagen van kennis en communicatie controleren? Als de cognitieve laag van de samenleving geprivatiseerd raakt?
Gelukkig zijn er initiatieven die deze ontwikkeling proberen te keren, zoals GPT-NL, Mistral, de AI-fabriek in Groningen en een LLM in Zwitserland. Of deze bewegingen voldoende tegenwicht bieden, zal de tijd uitwijzen.
Een ander ethisch probleem is de vervaging van de grens tussen echt en nep. We weten niet meer of de stem die we horen menselijk is of door AI gegenereerd. We weten niet meer wie of wat we precies zien in video’s op sociale media. Is het een daadwerkelijk evenement, of een fictief scenario, gecreëerd op een laptop? Alles lijkt echt en tegelijk ook nep. De scheidslijn vervaagt steeds verder. Daarmee verliezen we een gedeelde werkelijkheid.
‘Reality apathy’ ligt op de loer: een staat van onverschilligheid waarin we de moeite niet meer nemen om feit van fictie te onderscheiden. Dit is een fundamenteel gevaar voor de democratie
Ik heb hier eerder uitgebreid over geschreven. Ook over (politieke en commerciële) beïnvloeding door AI-systemen.
Ook staat de scheiding tussen mens en machine onder druk.
AI-systemen worden daarnaast steeds bekwamer in het nabootsen van menselijke communicatie. Sociale relaties lopen daarmee het gevaar gereduceerd te worden tot functionele transacties tussen AI-systemen, in plaats van authentieke, menselijke connecties.
En wat gebeurt er met onze maatschappij als we steeds vaker interactie hebben met AI’s die zijn geoptimaliseerd om ons een goed gevoel te geven (AI-vrienden, romantische partners) en ons niks meer leren over onszelf en elkaar?
Een volgend bezwaar betreft het risico op surveillance. Kunstmatige intelligentie kan worden gebruikt door overheden of bedrijven om mensen te monitoren. Voor wie zich hierin wil verdiepen: verdiep je in Palantir, Peter Thiel en zijn surveillancemachine. Wat mij betreft is dit een zwaar onderbelicht risico van AI-gebruik. De Volkskrant publiceerde hierover een interessant stuk, en De Technoloog wijdde er een boeiende aflevering aan. Duik maar eens in die rabbithole.
Een ander ethisch bezwaar is de toename van lagekwaliteitcontent door AI, wat het internet vervuilt. Dit staat bekend als de ‘Dead Internet Theory‘. Door de enorme hoeveelheid AI-gegenereerde rommel wordt het steeds moeilijker om waarachtige, waardevolle informatie te onderscheiden. Zuivere, betrouwbare data verdwijnen naar de achtergrond. Ons internet brokkelt af. 🙁
Tot slot is er het bezwaar dat AI-systemen nog steeds vol vooroordelen zitten. Deze modellen zijn getraind op het hele internet; en dat internet zit vol met vooringenomenheid. Het is een spiegel van wie we zijn, niet van wie we zouden willen zijn. Onze donkere, negatieve kanten zitten er ook in, en worden zo onbedoeld overgenomen door de systemen die we bouwen. Vooroordelen worden de antwoorden van AI-systemen.
Ongelijkheid
wat tevens een nadeel en een risico is, en wat we zeker niet mogen vergeten, is dat kunstmatige intelligentie in sommige gevallen gaat zorgen voor meer ongelijkheid.
Mensen die kunnen werken met de technologie en de middelen hebben om hier stappen in te maken, pakken de economische winsten, de extra productiviteit en de voordelen.
Mensen die minder digitaal vaardig zijn en niet de economische middelen hebben om kunstmatige intelligentie serieus in te zetten voor hun bedrijf of professionele ontwikkeling, blijven een stap achter.
De voordelen van AI en digitalisering komen misschien dus onevenredig terecht bij een selecte groep mensen die het reeds goed hebben. Dit zou de ongelijkheid kunnen versterken.
Als we kijken naar de vele ethische bezwaren rondom kunstmatige intelligentie – van hoog energieverbruik en baanverlies tot machtsconcentratie en de vervaging van werkelijkheid – lijkt het verleidelijk om ze als losse problemen te behandelen. Maar daarmee missen we het grotere verband.
Deze uitdagingen zijn namelijk geen geïsoleerde incidenten, maar hangen samen met één dominante kracht: het kapitalistische kader waarin AI nu ontstaat. Technologie wordt momenteel vooral ingezet voor economische groei, hogere productiviteit en maximale efficiëntie. Vanuit dat perspectief zijn zaken als baanverlies en machtsconcentratie niet toevallig, maar juist logische gevolgen van het systeem.
Arbeid wordt gereduceerd tot een kostenpost die zo klein mogelijk moet worden gemaakt, waardoor banen verdwijnen of worden uitgehold. Tegelijkertijd zorgt de dynamiek van het kapitalisme voor een concentratie van macht en middelen bij een beperkt aantal grote spelers, waardoor zij een haast onoverbrugbare voorsprong creëren. Hierdoor belanden de voordelen van AI-technologie vooral bij hen die al veel hebben, terwijl de maatschappelijke kosten – van burn-outs, klimaatschade en inkomensonzekerheid tot een verlies aan gedeelde realiteit – bij iedereen terechtkomen.
De essentie van het probleem is dat AI wordt geoptimaliseerd voor doelen die het kapitalistische systeem voorschrijft. Willen we een rechtvaardige samenleving creëren die iedereen dient, dan moeten we voorbij economische groei durven denken. AI moet ook gericht zijn op maatschappelijke vooruitgang, menselijk welzijn en het oplossen van gezamenlijke problemen.
De meest prangende vraag is wat mij betreft voor wie en waarom we AI ontwikkelen. En we moeten onszelf daarbij toestaan verder te kijken dan productiviteit en economische winst. We willen immers allemaal een rechtvaardige, prettige samenleving waar we met z’n allen het stuur in handen hebben.
Dit artikel verscheen eerder als nieuwsbrief. Sluit je aan bij 27.000 abonnees en blijf op de hoogte van de voordelen en nadelen van AI.
Jarno Duursma is onafhankelijk spreker, auteur en publicist over AI en digitale technologie. Hij schreef vier techboeken en twee rapporten over generatieve AI. Met ruim 1500 lezingen in binnen- en buitenland is hij een veelgevraagd spreker. Zijn werk verscheen in FD, NRC en Volkskrant. Hij is LinkedIn AI Top Voice en maker van de podcast *Listening to the Future* en de nieuwsbrieven *Trending in Tech* en *Signals from the Future*.