AI: Technologische revolutie of ethische nachtmerrie?

Er zijn weinig onderwerpen dit jaar zoveel besproken als de opkomst van kunstmatige intelligentie (artificial intelligence, AI). De maatschappelijke reacties lopen uiteen van ‘veelbelovend’ en ‘revolutionair’ tot ‘eng’ en ‘oncontroleerbaar’. Ondanks de tweeledige publieke opinie is het gebruik van AI-software als ChatGPT, Midjourney en Bard in de maanden na de lancering geëxplodeerd. Met honderden miljoenen actieve gebruikers komt er geleidelijk ook meer aandacht voor de schaduwkant van deze technologische ontwikkeling. De massale berekeningen en computerkracht die nodig zijn voor het gebruik van AI vreten namelijk energie. Eén opdracht aan ChatGPT staat gelijk aan een uur lang een lamp laten branden. Naast deze zorgwekkende voetafdruk zijn er ook grote vragen rondom de werksituatie van de mensen die de AI ‘trainen’ en de omgang van de technologie met privacygevoelige informatie. Zijn deze zorgen terecht? In hoeverre is AI ethisch verantwoord te gebruiken? We vroegen het aan dr. Oskar Gstrein, assistent professor aan de Rijksuniversiteit Groningen, en Wessel Kouw, beleidsmedewerker i-besturing en duurzaamheid bij Chief Information Office-Rijk (CIO-Rijk).

Dr. Oskar Gstrein (links) en Wessel Kouw (rechts)

Het gesprek met beide heren vindt plaats in een videovergadering, ook al zo’n razendsnelle revolutie in moderne technologie. Hoe werkt dat toch met de opkomst van zulke hypes? Dr. Gstrein, assistent professor bij het departement Bestuur en Innovatie van Campus Fryslân en lid van het Data Research Centre daar, legt het uit: “Ontwikkeling in de technologie loopt altijd door, ook zonder dat wij het weten. Op een bepaald strategisch moment wordt daar een inspirerend narratief omheen bedacht waarmee de technologie de wereld in wordt gelanceerd. Gebeurt dat goed, dan ontstaat er een hype. Daar komt ook een gevecht op de markt bij, waarbij één partij er uiteindelijk met het grootste marktaandeel vandoor gaat. Deze partij ontwikkelt vervolgens een verdienmodel om het nieuwe fenomeen.”

Hoe weet hij dit? “Omdat we dit ook zagen bij hypes in het verleden, zoals blockchain”, geeft dr. Gstrein aan. “En we zien het nu weer bij generatieve AI, zoals ChatGPT. Het zal er binnenkort om gaan spannen wie er het grootste marktaandeel in zijn zak steekt en welk verdienmodel er ontstaat. Het aantal gebruikers en het maatschappelijke enthousiasme stagneren namelijk. Bovendien is Microsoft een replica aan het maken waarmee ze de concurrentiestrijd willen gaan aanbinden.” Erop of eronder voor OpenAI (de organisatie achter ChatGPT), dus.

“De kennis uit het recente verleden is heel waardevol, maar we hebben het nog niet geleerd.”

Predictive policing

We weten dus het verloop van een hype in globale lijnen. Maar hebben deze eerdere hypes ons iets geleerd over de maatschappelijke impact die deze hype mogelijk gaat hebben? Dr. Gstrein: “De kennis uit het recente verleden is heel waardevol, maar we hebben het nog niet geleerd.” Als voorbeeld noemt hij predictive policing. “Ook dat was een hype met een aantrekkelijk narratief. Namelijk, op basis van algoritmes en criminaliteitscijfers kunnen voorspellen waar de kans op nieuwe wetsovertredingen het grootst is – zodat daar preventief kan worden opgetreden. Dit fenomeen is vrij kort geleden opgedoken en niet lang daarna geflopt. De vermeende maatschappelijke impact zou gigantisch zijn, maar het bleek in de realiteit simpelweg niet te werken.” Dit had onder meer te maken met de diversiteit aan factoren die een rol spelen in criminaliteitscijfers, “en de algoritmes zouden op den duur hun eigen bias gaan vormen”, vult Wessel aan. Hij legt uit: “Als de politie in een bepaalde criminele wijk extra veel gaat patrouilleren omdat het algoritme die plek aanwees, zullen ze daar ongetwijfeld meer wetsovertredingen zien dan normaal. Vanaf dan is die data al niet meer betrouwbaar.”

“Dit fenomeen is kortgeleden opgekomen en snel uitgedoofd”, voegt Dr. Gstrein toe, “maar we zitten nog steeds een beetje in de nasleep. De lessen uit die hype zijn nog niet getrokken”. Welke lessen zijn dat dan? “Eigenlijk zouden er bij de opkomst van een nieuwe, veelbelovende technologische innovatie direct kaders moeten worden gesteld, waarbinnen de doelstellingen, afwegingen en voorwaarden van het gebruik ervan zijn bepaald. Dan gaat de hype minder een eigen leven leiden en is er meer duidelijkheid voor de gebruiker. Er wordt momenteel door de EU wel aan een zogeheten AI Act gewerkt, waarin het ontwerpen, het gebruik en de verkoop van AI wordt gereguleerd. Maar dat komt nu veel te laat bij ChatGPT”, concludeert dr. Gstrein.

Dilemma’s door datacentra

Wessel Kouw sluit zich hierbij aan. Wessel: ”Vanuit CIO-Rijk wordt momenteel gewerkt aan de Handreiking voor Rijksoverheidsorganisaties voor het gebruik van online beschikbare generatieve AI. Daarbij wordt ingegaan op de kansen en risico’s van deze generatieve AI om uiteindelijk tot gedragsregels voor medewerkers te komen. Het is dan aan rijksorganisaties zelf om een risicoafweging te maken.” Wessel ziet zeker kansen voor het gebruik van online beschikbare generatieve AI. Bij Nationale-Nederlanden (NN) wordt ChatGPT bijvoorbeeld gebruikt om klantgesprekken samen te vatten, wat een significante tijdsbesparing oplevert voor medewerkers.

Toch denkt hij dat de overheid beter terughoudend kan zijn in het gebruik ervan. Het eerste pijnpunt is het exorbitante energieverbruik en de vervuilende uitstoot van datacentra die alle opdrachten verwerken. De datacentra waar de meeste dataverwerking op het internet (waaronder AI) op draait, zijn verantwoordelijk voor in ieder geval drie procent van het elektriciteitsverbruik wereldwijd en één procent van de globale CO₂-uitstoot, volgens het Internationaal Energie Agentschap (IEA). Daarbij moeten we zeker niet vergeten dat er alleen al in de Verenigde Staten jaarlijks miljarden aan drinkwater worden gebruikt om de datacentra te koelen. In Azië schijnt dit nog meer te zijn.” Maar dit is niet eens de grootste factor van impact op het milieu die AI met zich meebrengt. “Dat is namelijk de toeleveringsketen van de hardware waarmee deze datacentra gevuld zijn”, vertelt Wessel. “Welke grondstoffen er zijn gebruikt voor de hardware, waar de onderdelen vandaan komen, en in welke arbeidsomstandigheden deze zijn vervaardigd heeft allemaal invloed op de voetafdruk. Helemaal exact weten we het niet, maar die moet gigantisch zijn.” Reden genoeg om als overheid met veel aandacht voor duurzaamheid goed na te denken over de inzet van AI. 

Maar er is meer. Wessel: “Duurzaamheid gaat ook om sociale vraagstukken. Naast de slechte arbeidsomstandigheden bij het delven van de juiste grondstoffen en het in elkaar zetten van onderdelen, worden ook de ‘crowd workers’, werknemers die de AI-modellen trainen met moeilijk te automatiseren taken, flink onderbetaald. Hun situatie is vergelijkbaar met de werkomstandigheden die we kennen van de ‘sweatshops’ in de fashionwereld.” “Bovendien ervaren zij een hoge werkdruk, waardoor ze zichzelf genoodzaakt zien AI te gebruiken om AI te trainen, waardoor de foutieve biases die zij juist moeten voorkomen worden versterkt”, vult dr. Gstrein aan.

De kansen ten spijt, klinkt dit allemaal niet heel positief. Die teneur speelt mee in de afwegingen van de overheid om AI te gebruiken. “Er zijn nu richtlijnen in de maak”, bevestigt Wessel, “maar we moeten alsnog heel voorzichtig zijn. Als overheid is de ruimte om fouten te maken zeer beperkt, zeker als de uitkomst van ons handelen direct invloed heeft op de samenleving of individuen. Met eerdere technologische hypes en nieuwe algoritmes hebben we altijd ingezet op transparantie. Als overheid moeten wij weten waar de informatie die we genereren vandaan komt om te bepalen hoe betrouwbaar deze is. Bij ChatGPT en veel vergelijkbare generatieve AI mist die transparantie nu nog volledig. Dat legt beperkingen op aan het gebruik van dergelijke diensten, en vereist een zorgvuldige belangenafweging.” Hij vult later aan: “We zien dat om deze reden Apple, maar ook vele banken het gebruik van ChatGPT verbieden bij hun werknemers. Zo ver gaan we bij het Rijk (nog) niet.” 
 

“Als overheid hebben we een zeer beperkte ruimte om fouten te maken.”

Wessel Kouw

Resultaten zonder procesinzicht

Dr. Gstrein bevestigt het gebrek aan transparantie bij ChatGPT en de meeste andere AI-software. “De resultaten van een opdracht zijn vrijwel altijd bruikbaar. Maar hoe het systeem precies tot zijn antwoord komt, blijft onduidelijk. ChatGPT genereert antwoorden op prompts van de gebruiker op basis van patronen en informatie die het geleerd heeft tijdens zijn training. In combinatie met taalkundige voorspellingsmodellen wordt een specifiek antwoord gevormd, dat dus altijd op zichzelf staat en zeker geen correcte informatie hoeft te bevatten. Dit soort systemen draaien op ontzettend veel data en zijn daardoor tot op heden erg foutgevoelig, waardoor de kans dat een antwoord onjuistheden of onwaarheden (‘hallucinaties’) bevat, groot is. En mocht het onjuiste resultaat van de opdracht toch worden gebruikt, wie is er dan verantwoordelijk voor de fout?” Wessel valt dr. Gstrein bij met een voorbeeld: “Als een rijksambtenaar een beleidstekst opstelt met ChatGPT die later fouten blijkt te bevatten, kun je de ambtenaar daar de schuld van geven? En zo niet, wie is dan verantwoordelijk? Het AI-systeem zelf, het bedrijf erachter? We weten het niet. Bovendien blijft het proces onbekend. Dat processen transparant zijn is in overheidsland juist ontzettend belangrijk, voor de accountability en legitimiteit van bepaalde beslissingen, maar ook om er lering uit te kunnen trekken voor de toekomst. Dat kan niet met de meest populaire AI-technologieën zoals zij op dit moment worden toegepast.”

Toch is met name ChatGPT erg populair bij werkend Nederland. Waarom dan? Dr. Gstrein: “Omdat het gros van de mensen niet op de hoogte is van de eerdergenoemde risico’s. Mensen hebben te veel vertrouwen. Wat betreft bewustwording van de foutgevoeligheid en ecologische en sociale consequenties van het gebruik van AI valt er nog veel te winnen.” Dr. Gstrein pleit daarom voor meer interdisciplinaire opleidingen, waardoor voor meer mensen duidelijk wordt in wat voor contexten AI allemaal een rol speelt, en hoe. Daarnaast benadrukt dr. Grstein de waarde van impact assessments om tijdig te kunnen inschatten wat voor ecologisch, sociaal en economisch effect een nieuwe innovatie gaat hebben. Wessel ziet met name voordelen in een handreiking vanuit het Rijk en nadere uitwerking per organisatie, waarin de afwegingen en risico’s worden meegenomen. Ook zou volgens hem het gebruik van een soort ‘energielabels’ kunnen worden overwogen, om verschillende AI-software met elkaar te kunnen vergelijken op het gebied van milieu-impact. Maar ook bewustwording bij gebruikers is wat hem betreft belangrijk. “Voor veel vragen die nu aan ChatGPT worden gesteld, kun je ook op een andere manier tot een antwoord komen. Een handig model als het gaat om duurzaamheidsvraagstukken is de R-ladder, waarbij de meest duurzame optie ‘Refuse/Rethink’ is.” Kortom, vraag jezelf af: heb ik dit echt nodig? “De meest duurzame energie is immers energie die je niet gebruikt”, voegt Wessel toe. De vraag is vooralsnog waarvoor we AI écht nodig hebben – en hoe we het in die gevallen verantwoord in kunnen zetten.

“Het gros van de mensen is niet op de hoogte van de risico’s. Mensen hebben te veel vertrouwen.”

Dr. Oskar Gstrein