De Europese AI Act is eindelijk een feit. Met enig gejubel werd op 9 december het bereikte akkoord ontvangen. Maar kritiek is er ook.
door Robert Heeg
Sinds de komst van ChatGPT wordt een pittige discussie gevoerd rond AI. Diverse internationale initiatieven werden in het leven geroepen om de weggalopperende algoritmen te beteugelen. Dat leidt soms tot rigoureuze acties; in Italië waren de zorgen dermate groot dat het land ChatGPT een maandlang verbood. Ondertussen werd druk onderhandeld over een Europese AI Act, waarover op de valreep van 2023 nu een (voorlopig) akkoord is bereikt. Een ‘historisch akkoord’ zelfs, in de woorden van Eurocommissaris Thierry Breton. Uitgangspunt in de AI Act is: hoe groter de risico’s, hoe strenger de regels. Enkele kernpunten:
- De EU wil precies weten welke data worden gebruikt voor de training van grote taalmodellen (LLM’s), waaronder ChatGPT en Google Gemini. Alle technische documentatie moet geopenbaard.
- LLM-aanbieders moeten bij het gebruik van data het Europese auteursrecht gaan naleven.
- Scraping, waarmee beelden van het web worden gehaald voor gezichtsherkenning, wordt verboden.
- De wet geldt niet voor onderzoek, innovatie en niet-professioneel gebruik.
Misdaad voorspellen
De AI Act bestrijkt een breed veld, want kunstmatige intelligentie kan invloed hebben op alle sectoren. De Europese regelgeving moet mensenrechten, gezondheid en milieu beschermen, en tegelijkertijd een kader scheppen waarbinnen (tech-)bedrijven kunnen opereren. Dat laatste was een struikelblok want Duitsland, Frankrijk en Italië vreesden dat té strenge regels niet alleen de Amerikaanse techreuzen zou raken, maar ook Europese bedrijven.
Volgens Europarlementariër Kim van Sparrentak (GroenLinks) voerden zowel Amerikaanse als Europese bedrijven een stevige techlobby om AI Act op het laatste moment af te zwakken. Tegenover de NOS zei ze onder meer met OpenAI te hebben gesproken. De ChatGPT-maker zei de maatregelen in de AI Act zelf al te nemen, ‘maar ze willen het niet in regels vastgelegd hebben.’ Toch is Van Sparrentak trots op de overeenkomst, met name op de voorwaarde dat AI niet mag worden ingezet voor predictive policing; op basis van data voorspellen waar en door wie een misdaad wordt gepleegd. Daarmee moet ook een tweede toeslagenschandaal worden voorkomen.
Onnodige lasten
Namens het Europese digitale bedrijfsleven reageerde Cecilia Bonefeld-Dahl, directeur van belangenorganisatie DIGITALEUROPE op de AI Act. Ze noemde de tekst ‘iets waarmee we kunnen werken en een goede basis voor verdere discussies.’ Maar ook uitte zij zorgen: ‘De twee extra beoordelingen die AI-innovators moeten ondergaan, zullen additionele onnodige lasten meebrengen. Fundamentele rechten worden elders al beschermd in de Act, en duurzaamheidsvereisten zijn niet gerelateerd aan risico’s en worden al voldoende gedekt in andere EU-wetgeving.’
Kosten en boetes
NLdigital, een collectief van Nederlandse bedrijven die de digitale transformatie mogelijk maken, reageerde behoudend positief: ‘We zijn blij dat er een nieuw kader ligt om de ontwikkeling van AI in goede banen te leiden. Vanuit de sector pleiten we al langer voor een zorgvuldige aanpak. Een aanpak die gericht is op het reguleren van risicovolle toepassingen van AI en het bevorderen van transparantie, verklaarbaarheid en veiligheid van AI-modellen.’
Het collectief vindt dat de AI Act innovatie moet stimuleren en niet afremmen. Dat laatste noemt NLdigital een reëel risico voor het mkb-bedrijfsleven, dat wel eens kan worden geconfronteerd ‘met 300.000 euro aan nalevingskosten.’ Niet naleven kan nog duurder uitpakken: op overtredingen staan geldboetes van tussen de 7,5 miljoen en 35 miljoen euro, afhankelijk van de ernst van de overtreding en de jaaromzet van de AI-producent.