Ga naar de inhoud

De overdreven angst voor AI (kunstmatige intelligentie)

Door de ongekende populariteit van ChatGPT nam de AI hype sterk toe. We worden dagelijks overspoeld door nieuwsartikelen die AI (kunstmatige intelligentie) als de grootste uitvinding van de mensheid bestempelen. AI is ‘kwalitatief anders’, ‘transformerend’, ‘revolutionair’, ‘alles zal veranderen,’ beweren de artikelen. OpenAI, het bedrijf achter ChatGPT, kondigde een belangrijke upgrade van GPT4, de technologie achter ChatGPT, aan.

7 min leestijd

Onderzoekers van Microsoft beweren al dat GPT4 ‘trekjes van kunstmatige algemene intelligentie’ ofwel menselijke intelligentie laat zien, de heilige graal van AI-onderzoek. Er zijn fantastische claims over het bereiken van het punt van de ‘AI singulariteit’, van machines die de menselijke intelligentie evenaren en vervolgens overtreffen.

In de zakenpers wordt gesproken over honderden miljoenen banen die verloren gaan, omdat AI mensen in een hele reeks beroepen zou vervangen. Anderen maken zich zorgen over een sciencefictionachtige nabije toekomst, waar superintelligente AI op hol staat en de mensheid vernietigt of tot slaaf maakt. Zijn deze voorspellingen gebaseerd op de werkelijkheid, of gaat het om een door de Tech-wereld opgewekte hype?

De AI-modellen zijn gebaseerd op wat we ‘neurale netwerken’ noemen. De term ‘neuraal’ roept beelden op van kunstmatige hersenen opgebouwd uit computerchips, maar in werkelijkheid functioneren neurale netwerken absoluut niet zoals menselijke hersenen. Deze zogenaamde neurale netwerken hebben geen overeenkomst met het netwerk van neuronen in de hersenen. Deze terminologie was echter een belangrijke reden dat de kunstmatige “neurale netwerken” populair en breed aanvaard werden, ondanks de ernstige beperkingen en gebreken.

De zelflerende systemen die momenteel worden gebruikt zijn een uitbreiding van statistische methoden, terwijl er geen theoretische rechtvaardiging is om ze op deze manier uit te breiden. Traditionele statistische methodes zijn eenvoudig. Het is gemakkelijk om te begrijpen wat ze doen, wanneer ze werken en waarom ze werken. Ze hebben wiskundige garanties dat de resultaten van hun analyse zinvol zijn, als ze aan bepaalde voorwaarden voldoen. Omdat de echte wereld ingewikkeld is, wordt nooit aan die voorwaarden voldaan, waardoor statistische voorspellingen zelden accuraat zijn. Economen, epidemiologen en statistici erkennen dit en gebruiken vervolgens hun intuïtie bij het gebruik van statistieken, om zo bij benadering een houvast te hebben voor toepassingen bij hantering in specifieke contexten. Deze beperkingen worden vaak over het hoofd gezien, wat leidt tot het misbruik van traditionele statistische methoden met soms catastrofale gevolgen, zoals bij de grote financiële crisis van 2008 of het bankroet van het LTCM (Long-Term Capital Management) hedge fund in 1998, die het mondiale financiële systeem bijna omverwierp. Denk daarbij aan het beroemde citaat van Mark Twain: ‘Leugens, enorme leugens en statistieken.’

De zelflerende systemen zijn gebaseerd op het achterwege laten van zorgvuldigheid die nodig is om statistische methoden verstandig te gebruiken. De echte wereld is rommelig en chaotisch en daardoor niet te modelleren met traditionele statistische methoden. Het antwoord uit de AI wereld is dus om elke pretentie te laten vallen op theoretische rechtvaardiging van waarom en hoe deze AI-modellen, die vele malen gecompliceerder zijn dan traditionele statistische methoden, zouden moeten werken. De afwezigheid van deze principiële beperkingen maakt het AI-model ‘sterker’. Het zijn feitelijk gedetailleerde en gecompliceerde pogingen om de juiste grafiek of wiskundige functie te vinden die past bij de aangetroffen gegevens, zonder dat we de onderliggende relaties begrijpen.

Maar het is ook waar dat deze AI-modellen soms dingen kunnen doen die andere technologieën niet kunnen. Sommige resultaten zijn verbazingwekkend, zoals de passages die ChatGPT kan genereren of de beelden die DALL-E kan creëren. (*) Dit biedt fantastische mogelijkheden om mensen te verbazen en een hype te creëren. De reden dat ze ‘zo goed’ werken zijn de verbijsterende hoeveelheden trainingsgegevens—genoeg om bijna alle tekst en beelden te omvatten die door mensen zijn gecreëerd. Zelfs met deze schaal van trainingsgegevens en miljarden parameters werken de AI-modellen niet spontaan, maar vereisen klungelige ad-hoc noodoplossingen om de gewenste resultaten te bereiken.

De AI-modellen bezitten geen enkele vorm van menselijk inzicht, maar zijn goed in na-aperij en slagen erin om mensen te doen geloven dat ze intelligent zijn door de enorme hoeveelheid tekst die ze hebben geabsorbeerd.

De modellen ontwikkelen vaak valse correlaties, d.w.z. ze werken om de verkeerde redenen. Er is bijvoorbeeld gemeld dat veel beeldmodellen werken door correlaties te benutten die betrekking hebben op de structuur van het beeld, de achtergrond, de fotohoek en specifieke kenmerken. Deze beeld AI modellen geven dan slechte resultaten in ongecontroleerde situaties. Een sofa met luipaardmotief zou bijvoorbeeld worden geïdentificeerd als een luipaard; de modellen werken niet als er een kleine hoeveelheid vaste patroonruis wordt toegevoegd (die niet door mensen kan worden waargenomen) of als de beelden worden gedraaid, bijvoorbeeld bij een auto die na een ongeluk ondersteboven ligt. ChatGPT, is ondanks al de indrukwekkende proza, poëzie en essays, niet in staat om een eenvoudige vermenigvuldiging van twee grote getallen te doen, die een rekenmachine uit de jaren zeventig makkelijk aankan.

De AI-modellen bezitten geen enkele vorm van menselijk inzicht, maar zijn goed in na-aperij en slagen erin om mensen te doen geloven dat ze intelligent zijn door de enorme hoeveelheid tekst die ze hebben geabsorbeerd. Daarom noemde computerlinguïst Emily Bender de omvangrijke taalmodellen zoals ChatGPT en BART en BERT van Google, ‘Stochastische Papegaaien’ in een paper van 2021. Aan haar coauteurs Timnit Gebru en Margaret Mitchell van Google, werd gevraagd hun namen van het paper terug te trekken. Toen ze weigerden, volgde ontslag door Google.

Deze kritiek richt zich niet alleen op de huidige grote taalmodellen, maar op het hele paradigma van het proberen om kunstmatige intelligentie te ontwikkelen. We worden niet goed in dingen door er alleen maar over te lezen, dat komt via de praktijk, door te zien wat wel en wat niet werkt. Dit geldt zelfs voor puur intellectuele taken als lezen en schrijven. Zelfs voor formele vakken zoals wiskunde, men kan er niet goed in worden zonder te oefenen. Deze AI-modellen hebben geen eigen doel. Ze kunnen daarom geen betekenis begrijpen of betekenisvolle tekst of afbeeldingen produceren. Veel AI-critici stellen dat echte intelligentie sociale ‘gesitueerdheid’ vereist.

Fysieke dingen doen in de echte wereld, vereist het omgaan met complexiteit, het niet-lineaire en chaos. Het impliceert ook praktijk, door het feitelijke doen van die dingen. Daarom was de vooruitgang bij de robotisering buitengewoon traag: de huidige robots kunnen alleen vaste repetitieve taken uitvoeren waarbij identieke harde objecten betrokken zijn, zoals bij een assemblagelijn. Zelfs na een jarenlange hype over auto’s zonder bestuurder, en enorme bedragen aan financiering voor dat onderzoek, lijkt volledig geautomatiseerd rijden in de nabije toekomst nog steeds niet haalbaar.

De huidige AI-ontwikkeling, is gebaseerd op het opsporen van statistische correlaties met behulp van ‘neurale netwerken’, die worden behandeld als black-boxes, bevordert een op pseudowetenschap gebaseerde mythe van het creëren van intelligentie ten koste van het ontwikkelen van een wetenschappelijk inzicht in hoe en waarom deze netwerken werken. In plaats daarvan benadrukken ze spektakels, zoals het maken van indrukwekkende demo’s en het scoren bij gestandaardiseerde tests op basis van opgeslagen gegevens.

De enige significante gevallen van commercieel gebruik van de huidige versies van AI zijn advertenties: gericht op kopers bij sociale media en video streaming platforms. Dit vereist niet de hoge mate van betrouwbaarheid die nodig is bij andere technische oplossingen; ze hoeven alleen maar ‘goed genoeg’ te zijn. En slechte resultaten, zoals de verspreiding van fake news en de creatie van met haat gevulde informatiebubbels, worden nauwelijks bestraft.

Een klein voordeel bij dit alles is dat, gezien de sombere vooruitzichten van de AI singulariteit, de vrees voor een superintelligente kwaadaardige AI die de mensheid vernietigt, nogal overdreven overkomt. Maar dat geeft weinig troost aan hen die last hebben van ‘AI-besluitvormingssystemen’. We hebben al talloze voorbeelden van AI-besluitvormingssystemen waardoor mensen wereldwijd legitieme verzekeringsuitkeringen, medische voorzieningen, uitkeringen bij ziekenhuisopnames en bijstandsuitkeringen mislopen. Door AI-systemen moesten minderheden in de VS langere gevangenisstraffen uitzitten. Er waren zelfs berichten over het intrekken van de ouderlijke rechten bij minderheidsgroepen, die gebaseerd waren op valse statistische correlaties, die vaak neerkwamen op het feit dat ze niet genoeg geld hadden om hun kinderen goed te voeden en te verzorgen. En natuurlijk over het bevorderen van haatzaaiende taal op sociale media. Zoals de bekende linguïst Noam Chomsky in een recent artikel schreef: ‘ChatGPT lijkt op de banaliteit van het kwaad: plagiaat, apathie en eliminatie.’

*1)  DALL-E is een kunstmatige-intelligentiemodel dat afbeeldingen en kunstwerken kan maken door tekstbeschrijvingen in te voeren.

(*) Bappa Sinha is een technoloog die geïnteresseerd is in de impact van technologie op de samenleving en de politiek.)