Paulan Korenhof en de filosofie van AI

“Het kan zomaar betekenen dat straks iedereen op hetzelfde tijdstip wortels verbouwt”

AI wordt in toenemende mate gebruikt om digitale voorstellingen te creëren van onze leefomgeving. Die zijn niet altijd accuraat, waarschuwt filosoof Paulan Korenhof, docent en onderzoeker bij Wageningen University & Research.  

Door Robert Heeg

Foto: Guy Ackermans

Paulan Korenhof doet onderzoek en geeft onderwijs als assistant professor bij de Environmental Policy Group van Wageningen University & Research (WUR). De groep doet onderzoek naar wereldwijd milieubeleid en hoe verschillende technologieën daarin eventueel een rol spelen. In haar presentatie tijdens de Dies Natalis van WUR besprak zij onder meer de beperkingen van AI. 

Hoe ontstond jouw interesse in AI?

‘Dat gaat terug naar het verschil tussen tekenen met krijtjes, houtkool of andere materialen, en welke invloed dat heeft op de informatie die je overbrengt en wat je ermee wil bereiken. Een boodschappenlijstje beitelen we niet in een stuk steen want dat is een ontzettend lang proces en steen kun je moeilijk vervoeren. Maar we doen het wel voor een grafsteen, omdat die juist zo lang mogelijk moet blijven staan. AI is voor mij gewoon de nieuwe laag in hoe materie onze informatie vormt en de manier waarop we daarmee omgaan. Met AI kunnen we interessante dingen doen, maar niet als jij een boer bent in een arm gebied zonder internetverbinding.’

Je onderzoekt digitale representaties en hoe die de wereld sturen. Wat moeten we ons daarbij voorstellen? 

‘Onze keuzes baseren we op de informatie die we hebben. Die komt steeds meer vanuit digitale technologie en specifiek AI. In mijn onderzoek kijk ik bijvoorbeeld naar Destination Earth. Dat is een project van de Europese Unie om een digital twin van de planeet te maken; een soort kaart voor de verschillende milieutoekomsten. Daarmee kun je dan experimenteren en afwegingen maken. Met technologie worden allerlei afbeeldingen, visuele representaties en simulaties gemaakt van wat er gebeurt als je X of A doet. Dit brengt risico’s met zich mee. We vergeten soms dat the map is not the territory en rijden dan een sloot in. Elke representatie is gemaakt en berust op menselijke keuzes en aannames over wat belangrijk is.’

De inzet van AI heeft vaak een winstoogmerk. Zou er vaker vanuit filosofisch oogmerk naar AI moeten worden gekeken? 

‘Er zijn momenteel al veel filosofen die AI bestuderen. Op pragmatisch niveau zou ik op zijn minst de vraag willen omdraaien: belangrijker dan ‘wat heb ik eraan?’ is ‘wat heb ik er níet aan?’ Wat zijn de blinde vlekken en vooroordelen in deze systemen? Hoe stuurt het ons gedrag en hoe we de wereld zien? Van wie en welke partij worden we afhankelijk als AI een kernrol in bepaalde processen gaat spelen? Je wordt afhankelijk van een andere – commerciële – partij die mogelijk hele andere belangen heeft. Deze partij bepaalt vervolgens hoe de AI werkt, op welke data die getraind wordt, en wat je te zien krijgt.’

Je noemt ‘kunstmatige intelligentie – deels – een technologie op zoek naar een probleem. Is het dan bij uitstek een technologie voor onderzoekers, of juist niet? 

‘Onderzoekers zijn geïnteresseerd in de wereld begrijpen en zien graag iets onderbouwd: het moet verklaard worden. Bij AI-inzet is niet in alle gevallen evident hoe de output verkregen is. Vaak kan het wel correlaties laten zien maar of deze kloppen, en hoe het werkt, dat is een ander verhaal en vereist nieuw onderzoek. AI kan wel een ondersteunende of versnellende rol spelen. AI functioneert niet zonder data, het zit ingebed in een systeem dat samenhangt met heel veel andere dingen. Hoe meer data je hebt, hoe groter vaak de behoefte aan AI.’

AI is niet meer dan wat je erin stopt?

‘Ja, je ziet nu veel recommendation algorithms opkomen, ook rondom milieubeleid. Als je een AI bouwt die advies geeft over welke groente je kan verbouwen in bepaalde klimaatomstandigheden, dan maakt het nogal uit welke groenten je invoert in de dataset. Voer je bijvoorbeeld geen spruitjes in omdat je die vies vindt, dan komen spruitjes er ook nooit uit als advies. Een ander nadeel is: als alle algoritme hetzelfde werken en er geen rekening mee houden dat we variatie in voedsel willen, dan kan het zomaar betekenen dat straks iedereen op hetzelfde tijdstip wortels verbouwt.’

Wat zijn volgens jou de grootste uitdagingen die AI met zich meebrengt binnen wetenschappelijk onderzoek?

‘Er zijn tal van problemen, zoals privacyvraagstukken, bias in de AI, ethiek, het mogelijke gebrek en transparantie en uitlegbaarheid. Dan is er nog de milieu-impact: AI heeft veel data en processing power nodig. Enorme energieverslindende systemen optuigen om te zorgen dat iedereen plaatjes van een kat in een taco kan genereren, lijkt me niet echt proportioneel. Wat dan wél acceptabel is, vereist een maatschappelijk debat.’

Hoe ziet het vervolg van je onderzoek eruit?

‘Mijn onderzoek is ongoing. AI in milieubeleid is volop in ontwikkeling. Mijn streven is om in een vroeg stadium met projecten mee te denken. Ik wil ontwikkelaars handvatten en opties ter overweging geven om de sociale en milieutechnische wenselijkheid van projecten te verbeteren. De eerste vraag hierbij is: heb je echt AI nodig om je probleem op te lossen? We hebben al genoeg menselijke breinen op aarde. Die zijn misschien wat langzamer, maar de manier waarop onze hersenen informatie produceren is ruimschoots vertegenwoordigd.’

Over Paulan Korenhof

Dr. Paulan Korenhof heeft een achtergrond in filosofie, recht en kunst, en onderzoekt vanuit die unieke positie hoe digitale representaties de wereld sturen. Haar PhD-project ging over de representatie van individuen, bijvoorbeeld over het recht om je persoonlijke informatie van het internet te laten verwijderen. Bij de Environmental Policy Group van Wageningen University & Research geeft zij onderwijs en onderzoekt zij technologieën, waaronder AI, die digitale voorstellingen produceren van onze omgeving.