Ga naar de inhoud

Maneuvers rond artificiële intelligentie

Voor zover er al publieke aandacht is voor wat er zich binnen de Europese cenakels afspeelt gaat die momenteel naar wapenleveringen voor Oekraïne, de energiefactuur, wrijvingen rond Biden’s America first politiek, misschien ook nog de ‘bewaking van onze grenzen’ of het ‘Qatargate’ schandaal. Maar artificiële intelligentie? Is er nu iets dat minder met politiek, laat staan het leven van de gewone burger, te maken heeft dan zo’n hightech onderwerp?

12 min leestijd

Veel gelobby, grote belangen

Naar het intense gelobby van Big Tech en andere bedrijven te oordelen zijn er bij AI grote belangen gemoeid. Sinds de Europese Commissie in april 2021 haar ontwerp voor een Verordening over Artificiële Intelligentie lanceerde zijn er honderden contacten en vergaderingen geweest tussen ‘belanghebbenden’ en nationale en Europese ambtenaren, Europarlementsleden of hun medewerkers. Corporate Europe Observatory (CEO), de bekende NGO die het gelobby rond de Europese instellingen in kaart brengt, publiceerde daarover onlangs de brochure The Lobbying Ghost in the Machine. Zij noteerden tot half januari 2023 1012 lobbymeetings met europarlementsleden, die gewijd waren aan Artificiële Intelligentie (AI). Daarin waren 551 verschillende lobbyisten betrokken. De meesten traden op voor Big Tech: Google, Microsoft, Meta (Facebook), Huawei en anderen. Ja, ook organisaties die meer het publiek belang behartigen, zoals de Europese consumentenorganisatie BEUC of de voorvechters van ‘digitale rechten’ EDRi, hadden hun contacten, maar er is weinig twijfel aan wie de grootste invloed heeft.

Niet alleen het Europees Parlement is betrokken bij de goedkeuring van de Commissievoorstellen, maar ook de 27 lidstaten. Hun ministers verantwoordelijk voor het dossier beraadslagen daarover in de Raad van de EU, maar informatie daarover is schaars, zoals ook over de voorafgaande beraadslagingen onder de ‘permanente vertegenwoordigers’ (COREPER). De Raad heeft inmiddels haar gemeenschappelijk standpunt bekendgemaakt, en nu moet het Parlement zich daarover uitspreken. Maar vooraleer er definitief beslist wordt, wordt er en petit comité overlegd welk compromis kan gevonden worden tussen de verschillende instellingen. Dit zijn de beruchte trialogen, tussen een beperkt aantal vertegenwoordigers van de Europese Commissie, de Raad en het Parlement, waar opnieuw geen notulen van bestaan, en waar eens te meer lobbyisten hun ding kunnen doen.

Wat evenmin bekend is, zijn de contacten die de (huidige en vorige) Commissie had met belanghebbenden. Toen Ursula von der Leyen in december 2019 aantrad als nieuwe commissievoorzitter beloofde ze over een aantal ‘prioritaire’ dossiers binnen de 100 dagen voorstellen op tafel te leggen. Daaronder niet alleen de Green Deal, maar ook Artificiële Intelligentie, waarvoor een ‘ethisch’ kader moest gecreëerd worden. En voor AI werd de 100-dagen-deadline inderdaad gehaald (in tegenstelling tot het dossier over fatsoenlijke minimumlonen en de loonkloof tussen mannen en vrouwen). Natuurlijk komt zo’n voorstel niet binnen enkele weken tot stand. De Commissie Juncker was er al enkele jaren mee bezig, en liet zich bijstaan door een AI expertengroep van professoren en vertegenwoordigers van bedrijven (IBM, Google, Airbus, Bosch, Telenor, AXA, SAP …) of sectorlobbys (Orgalim, DigitalEurope, European Banking Federation…).

Waarover gaat het dan eigenlijk?

Om te begrijpen waarom AI niet alleen het speelveld is van computerdeskundigen maar ook een aanzienlijke commerciële, politieke en sociale dimensie heeft, is een beetje inzicht nodig in het begrip ‘AI’ en de aard van de bedrijfsbelangen hierin.

Eén van de methodes van AI is ‘machine learning’. In plaats van een programma (algoritme) te schrijven dat een welbepaalde taak moet uitvoeren, kan men aan een computer een hele hoop gevallen voorleggen en daaruit regels laten afleiden. Wil je bijvoorbeeld een computer laten spreken, dan zou het zeer moeilijk zijn door precieze regels aan te geven hoe een mens zich uitdrukt in een bepaalde taal. Men kan daarentegen grote hoeveelheden tekst en spraak laten analyseren door een computer en daaruit bepaalde regelmatigheden afleiden. Het spreekt vanzelf dat men enorme hoeveelheden data moet verwerken om tot een behoorlijk resultaat te komen, en het zijn dan ook maar de zéér grote spelers die zoiets aankunnen. De resultaten kunnen behoorlijk indrukwekkend zijn, en zelfs veel verder gaan dan het imiteren van een menselijke spreker. De onlangs gelanceerde ‘chatbot’ (‘spreekrobot’) ChatGPT kan op een ‘intelligente’ manier vragen beantwoorden, artikels samenvatten of zelfs een essay schrijven (maar ook bevreemdende fouten begaan). Een andere AI-toepassing (DALL-E) creëert ‘kunstwerken’.

Maar het kan ook zijn dat uw sollicitatiebrief door een AI- programma geanalyseerd wordt, en dan komen we al heel wat dichterbij de sociale problemen die door AI gesteld worden. Een programma kan zijn lessen getrokken hebben uit een massa data afkomstig uit de human resources sfeer. Wat waren de kenmerken van ‘goede’ kandidaten, en welke van de ‘te mijden’ sollicitanten? Afhankelijk van het geanalyseerde materiaal (CV, naam, woonplaats, foto, …) en de programmering van het leerprogramma kunnen de resultaten nogal variëren. En als mensen met de voornaam Mohammed, of vrouwen met drie kinderen of meer, slecht uit de AI- evaluatie komen kan men niet eens een personeelsverantwoordelijke van vooringenomenheid beschuldigen, want “AI heeft het gezegd”.

Dit zijn geen doembeelden meer van tegenstanders van technische vooruitgang. Er zijn ondertussen voorbeelden van spectaculair ‘wangedrag’ van AI-systemen. Bij ons is het bekendste waarschijnlijk het  SyRI schandaal in Nederland. Door Systeem Risico Indicatie-software los te laten op allerlei databanken werden duizenden vermeende fraudeurs in de sociale zekerheid opgespoord, zonder dat ambtenaren zich daarvoor moesten moe maken. De ‘fraudeurs’ moesten duizenden euro’s terugbetalen en hun uitkeringen werden stopgezet. Tot bleek dat dit onterecht was, en premier Rutte moest toegeven dat het “verschrikkelijk was misgegaan” en zijn regering ontslag moest nemen.

Een ander voorbeeld. In 2017 ging de gouverneur van de Mexicaanse provincie Salta in zee met Microsoft om een AI-programma te ontwikkelen ‘om tienerzwangerschappen te voorkomen’. De gouverneur kondigde fier aan dat men “met technologie vijf of zes jaar op voorhand kan voorzien en met naam, toenaam en adres aanduiden welk toekomstig tienermeisje voor 86% voorbestemd is om als adolescente zwanger te worden.” Om privacyrechten bij het verzamelen van ‘data’ (zoals etniciteit, land van oorsprong, handicaps, al dan niet warm water in de badkamer) maakte men zich niet druk. Zelfs elementaire onderzoeksprincipes werden blijkbaar in de wind geslagen, want het programma werd getest op dezelfde data waarmee het gevoed geweest was. Een verkiezingswissel plaatste een punt achter het project in Salta, maar naar verluidt vond het zijn weg naar Colombië en Brazilië.

Binnen het algemene kader van AI werden diverse methodes ontwikkeld. Zo zijn neurale netwerken geïnspireerd door de structuur van het menselijk brein, waar de ca. 100 miljard neuronen met elkaar communiceren via de synapsen. Een neuraal netwerk bestaat uit een groot aantal nodes, die elk een beperkte berekening kunnen uitvoeren en signalen sturen naar andere nodes; het leidt tot een welbepaalde manier van machine learning.

Risico’s

Het lijdt geen twijfel dat AI voor nuttige toepassingen kan zorgen. Weersvoorspelling bijvoorbeeld berust op een enorme en nog groeiende hoeveelheid data; voor de snelle verwerking en interpretatie ervan kan AI nuttig zijn. Voor het ontwikkelen van nieuwe geneesmiddelen wordt de zoektocht onder de haast oneindige hoeveelheid moleculen nu al door AI-ondersteund. Het wordt echter al vlug problematischer als men het heeft over ‘sociale’ toepassingen. We hadden het al over de ‘intelligente’ opsporing van fraudeurs in Nederland en van toekomstige tienermoeders in Mexico. Het probleem stelt zich al bij de input: hoe komt men aan de gegevens, in wiens handen komen ze terecht (herinner u Cambridge Analytica), hoeveel privacy wordt daarbij geschonden, enz. We hadden het een tijdje geleden al over de bedenkelijke Europese plannen voor een “ruimte voor gezondheidsgegevens” (EHDS). En na de input komt de output, de conclusies of aanbevelingen die een AI-analyse afleidt uit de input: het profiel van een fraudeur, een shopper, een extremist, een voorbeeldige werknemer? Men denkt er bijvoorbeeld ook aan om via AI fake news te detecteren in de informatiestroom, terwijl met gezichtsherkenning of de detectie van ‘verdacht’ gedrag op videobeelden een droom van de veiligheidsindustrie en bewakingsfirma’s in vervulling gaat.

Natuurlijk komen de AI-protagonisten met heel andere toepassingen naar voren, waarbij Big Tech zich plots bezorgd toont om armoede, honger, gezondheid of biodiversiteit. Het in kaart brengen van pinguïnkolonies op de Zuidpool, stropers in de Afrikaanse natuurgebieden detecteren, vroegtijdig depressies opsporen door analyse van berichten op sociale media (!), de spraak van spraakgestoorden begrijpen en vertalen, grotere landbouwopbrengsten garanderen, het staat plots allemaal op de agenda van de miljardenbedrijven. Natuurlijk is er nergens sprake van killer robots, al mag men er rustig van uitgaan dat de grote wapenbedrijven bezig zijn met het ontwerp van digitale killers die op ‘intelligente’ wijze beslissingen nemen en voorgeprogrammeerde vijanden uitschakelen.

Voor een grondige doorlichting van de Commissievoorstellen, zie Human Rights Watch.

Belangen

Als AI een hot topic is geworden bij het Wereld Economisch Forum, consultancybedrijven, de Europese Commissie en de VS-administratie, dan is het omdat er grote economische belangen bij gemoeid zijn. En zoals we reeds vermeldden zijn het alleen de zeer grote bedrijven die over de nodige knowhow en technische middelen beschikken om mee te dingen in een nieuwe markt. Schattingen over de grootte van die markt variëren nogal (en grote spelers zullen geneigd zijn om te overdrijven, om zo hun overheden warm te maken) maar het gaat over honderden miljarden. Statista spreekt over 1850 miljard $ in 2030, PricewaterhouseCoopers (PwC) heeft het over “een potentiële bijdrage tot de  wereldeconomie in 2030 van 15.700 miljard $”.

Wie zegt markt, zegt niet alleen aanbieders, maar ook afnemers. En ook daar zijn er grote verwachtingen, omdat met AI taken kunnen uitgevoerd worden die normaal buiten het bereik liggen van gewone computerprogramma’s. De grote persagentschappen konden tot nog toe niet zonder een hoop menselijke intelligentie om berichten op te stellen en informatie te filteren. Hoe aanlokkelijk is het niet om een zaal met menselijke breinen te vervangen door een elektronisch brein dat de zaken afhandelt? En belangstelling vanwege verzekeringsmaatschappijen en banken moet ook niet verbazen. Een AI-beurshandelaar zou kunnen rekening houden met de evolutie van een oorlogssituatie, de ligging van tankerschepen, zelfs de ervaringen met kuddegedrag (herd behaviour) van de traders, enzovoort. Verzekeringen kunnen profielen laten aanleggen van risicoklanten, risicowijken of risicogroepen…

Toepassingen legio dus, maar het kan ook op vele manieren misgaan. Wat als een AI-bestuurde tanker zonder bemanning kapseist en een enorme milieuschade veroorzaakt? Wie is dan verantwoordelijk, wie moet eventuele schadeclaims betalen? Dergelijke overwegingen blijken een belangrijke reden voor de touwtrekkerij binnen de Europese instellingen te zijn.

Het algemeen belang … van Big Tech

De grote spelers in de AI-sector (Google, Microsoft, Amazon, IBM…) zijn natuurlijk elkaars concurrenten, maar ze hebben ook gemeenschappelijke belangen. En zoals uitgelegd in de brochure The Lobbying Ghost in the Machine gaat het lobbywerk binnen de EU van deze topbedrijven vooral over de kwestie van AI-systemen met algemene toepassingen (general purpose AI) en de verantwoordelijkheid rond deze toepassingen.

Een woordje uitleg. Twee vaststellingen:

  1. De aanpak in het AI-ontwerp van de Europese Commissie wordt ‘risico gebaseerd’ Naarmate mogelijke misbruiken groter worden, wordt de regulering ook strenger, en waar het risico al te groot wordt, zou de aanwending wettelijk verboden worden. Omdat dit doorgaans strenger is dan de Amerikaanse geplande AI Bill of Rights, die op vrijwilligheid berust, wordt dwingende wetgeving in de EU-aanpak als publieksvriendelijker beschouwd. (Er zij wel op gewezen dat de EU regulering alleen van toepassing zal zijn op de civiele sector; AI- gestuurde killer robots vallen er dus volledig buiten.) [1]
  2. Een AI-systeem ontwikkelen voor een zeer specifieke toepassing is commercieel niet aantrekkelijk. Men slaagt er daarentegen steeds meer in om systemen te maken die voor een hele reeks toepassingen kunnen dienen, ze moeten alleen ‘opgeleid’ worden voor hun specifieke taak. Een dergelijk general purpose system kan bijvoorbeeld getraind worden om ingezet te worden in de klachtendienst van een bedrijf, of om studenten te begeleiden bij hun studie, of een villa te ontwerpen rekening houdend met de wensen van de klant.

Vaststelling 2 opent het aantrekkelijke perspectief voor de Googles en Microsofts om een grote markt te kunnen bereiken, maar ze willen er ook een tweede voordeel bij: zo weinig mogelijk onderworpen zijn aan reglementering, in het bijzonder  zich onttrekken aan de verantwoordelijkheid wanneer het misgaat. Het lobbywerk van Big Tech concentreert zich dan ook op twee concrete punten: general purpose AI-systemen buiten het toepassingsgebied van de Europese regelgeving houden, en de definitie van AI zo eng mogelijk maken.

Daarbovenop komt er een ‘geostrategisch’ aspect. De grote spelers zijn Amerikaanse bedrijven; de EU speelt hierin een geringe rol en wordt voorbijgestoken door China. Toen de Europese Commissie herademde als Trump opgevolgd werd door Biden werd een VS-EU overlegorgaan gecreëerd, de Trade and Technology Council (TTC) om “samenwerking te bevorderen in handel- en technologie-gerelateerde onderwerpen, gebaseerd op gedeelde democratische waarden.” In december 2022 ging een derde vergadering van de TTC door, waar blijkbaar weinig sprake was van democratische waarden, en des te meer van internationale technische standaards, waar men niet van plan is China in te betrekken. De VS willen een nauwe definitie van AI, en zo weinig mogelijk beperkingen voor AI voor algemeen gebruik.

Wat wordt het?

Alles wijst erop dat de – al niet erg stringente – aanvankelijke voorstellen nog verder afgezwakt uit de behandeling in de Raad en in het Parlement zullen komen. De Raad (samengesteld uit de nationale ministers) heeft haar standpunt klaar, en het vernauwde de definitie van wat een AI systeem is.  Bovendien werden een aantal uitzonderingen toegevoegd, zoals bij toepassingen voor de ‘nationale veiligheid‘. Een juridische doorlichting door ECNL vreest dat net die toepassingsgebieden zullen buiten schot blijven waar ze het meest kwaad kunnen: het militaire, grensbewaking (Frontex), Europol en andere Europese agentschappen.

In het Europees Parlement blijken vooral liberalen (Renew), christendemocraten (EVP) en Conservatieven (ECR) door BigTech onder de arm te zijn genomen. Ze willen general purpose AI zo losjes mogelijk behandelen,  ECR wil het helemaal buiten de reglementering houden. Volgens Euractiv zouden de tenoren van het dossier in het Europees Parlement de definitie van AI overnemen van de VS. Wel zouden biometrische data (gezichtsherkenning, oogkenmerken, vingerafdrukken …) ontoelaatbaar geacht worden in AI-systemen.

We will see…

[1] Zie  Geharmoniseerde  regels betreffende artificiële intelligentie, Overweging 12, “AI-systemen die uitsluitend voor militaire doeleinden worden ontwikkeld of gebruikt, moeten van het toepassingsgebied van deze verordening worden uitgesloten wanneer dat gebruik onder de exclusieve bevoegdheid valt van het gemeenschappelijk buitenlands en veiligheidsbeleid, (…) “ De NAVO heeft trouwens al eigen plannen in verband met AI opgesteld.

Toegevoegd op 8 maart 2023: Lighthouse Reports, een Nederlands initiatief voor onderzoeksjournalistiek, en het Rotterdams journalistiek platform Vers Beton brachten zopas een rapport uit over de gevolgen van algorithmisch opsporen van ‘sociale fraude’ aan de hand van interviews met slachtoffers in Rotterdam.