Longread

Verantwoorde AI voor voedsel- en ecosystemen


Veel WUR-groepen werken steeds meer met kunstmatige intelligentie (AI). Welke kansen en dilemma’s biedt dat voor het Wageningse onderzoek? En hoe kan WUR investeren in zogenaamde ‘verantwoorde AI’?

De Wageningse onderzoekgroepen produceren en gebruiken steeds meer data. Deze gegevens zijn van fundamenteel belang voor ons begrip van voedselsysteem, ecosystemen en alle processen die in Wageningen worden bestudeerd. AI biedt veel nieuwe manieren om deze gegevens te interpreteren.

Zo doet het Netherlands Plant Eco-phenotyping Centre (NPEC) in Wageningen enorm veel metingen aan planten onder gecontroleerde omstandigheden. Door meerdere gewasvariëteiten onder verschillende milieuomstandigheden te telen en door te meten, proberen onderzoekers te achterhalen hoe de interactie tussen DNA en milieuomstandigheden werkt. Deze metingen genereren enorm veel data; inmiddels meer dan 1.000 terabyte.

NPEC maakt momenteel al gebruik van AI, vertellen hoogleraar Mark Aarts en Rick van de Zedde van NPEC. Zo maken plantenonderzoekers beelden van planten in de kas, waarbij een AI-programma zorgt voor een filter op de beelden, zodat alleen de relevante plantonderdelen worden geanalyseerd en irrelevante aspecten als de achtergrond, potten en stokken worden gefilterd. Maar nu ontdekken ze dat ze meer informatie uit de enorme databerg kunnen halen dan nu gebeurt.

Ziektedetectie bij planten

Zo loopt er een project naar ziektedetectie bij planten. De onderzoekers in dit project kweken verschillende rassen in de kas, introduceren een ziekteverwekker en volgen vervolgens de gezondheid van de planten. Ze gebruiken een reeks volledig geautomatiseerde beeldvormingssystemen om vast te stellen: zijn de planten ziek of niet, en hoe ziek zijn ze? Ze trainen nu een AI-systeem om de ziektestadia op de camerabeelden te herkennen, vanuit de aanname dat de computer de ziekten met AI eerder en nauwkeuriger kan vaststellen dan wij met het blote oog.


Waar AI ook bij kan helpen, is het vinden en verklaren van gekke afwijkingen bij tests. Als de gegevens van sommige planten afwijken van het gemiddelde, komt dat dan omdat ze minder water hebben gekregen (slangetje verstopt) of omdat dat genotype anders reageert op een behandeling? Vaak zien onderzoekers dergelijke afwijkingen pas in een later stadium en dan is de betekenis - zeker in grote datasets - niet meer te achterhalen. Met AI kan de computer dat direct opmerken en analyseren, of terugzoeken in de database.

NPEC werkt hierbij samen met de drie hoogleraren aan op het gebied van artificiele intelligentie (AI) die WUR ruim twee jaar geleden aannam. Anna Fensel, Ricardo da Silva Torres en Ioannis Athanasiadis werken in verschillende leerstoelgroepen met ondersteuning van het Wageningen Data Competence Centre. Ze creëren, ontwikkelen en passen AI-kennis toe voor vraagstukken in het Wageningse domein.

AI-hoogleraar Da Silva Torres was de afgelopen jaren betrokken bij enkele van de 7 fellowship-projecten om AI in Wageningse vakgebieden te versterken. In een van de projecten werkte Da Silva Torres samen met de groep Aquatische Ecologie en Waterkwaliteitsbeheer. Deze groep doet onderzoek naar de veerkracht van ecosystemen en mogelijke kantelpunten als die veerkracht afneemt.

Veerkracht van koraalrif

De groep wilde remote sensing beelden gebruiken van vegetaties en met behulp van Turing-patronen de veerkracht van een ecosysteem bepalen. Een Turing-patroon is een wiskundige verklaring voor het ontstaan van patronen in de biologie, uit de interactie van twee variabelen. Aan de hand van zulke patronen wilden de ecologen bijvoorbeeld de veerkracht van koraalrif bepalen en nagaan of dat ecosysteem op het punt stond om dood te gaan. Da Silva Torres bracht hierbij de AI-kennis in; hij schreef een algoritme dat de remote sensing beelden beoordeelt en classificeert in termen van veerkracht.


Met zo’n algoritme kun je ook de veerkracht van een savanne of regenwoud bepalen aan de hand van satellietbeelden, zegt Da Silva Torres. Steeds heeft hij de domeinkennis van leerstoelgroepen nodig om een goed algoritme te maken. De onderzoekgroepen kunnen de juiste context en variabelen aandragen en aangeven welke eigenschappen van een entiteit relevant zijn. Bovendien kunnen zij het algoritme testen aan de hand van hun onderzoekexpertise. Deze samenwerking tussen AI- en domeinexperts is voor beiden voordelig en biedt veel kansen in beide richtingen.

De interactie tussen mens en machine is volgens de AI-hoogleraren cruciaal, omdat veel AI niet volledig geautomatiseerd kan worden vanwege het risico dat de computer data op een verkeerde manier interpreteert en classificeert. Om zicht te houden op de ontwikkeling van AI is het daarom belangrijk dat herkomst en gebruik van data transparant is. Ofwel FAIR: findable, accessible, interoperable and reusable, dus vindbaar, bereikbaar, combineerbaar en opnieuw te gebruiken. Dat maakt FAIR een duurzaam alternatief voor de huidige datamanagementpraktijken van de grote technologiebedrijven.

Testcentra voor algoritmen

Ten tweede is het belangrijk dat we de instructies en algoritmen goed gaan vastleggen. Er is nu EU-wetgeving die de lidstaten verplicht om de algoritmen te categoriseren en aan te geven hoe gevaarlijk ze zijn. Ook komen er testcentra voor algoritmen. Zo wordt WUR onderdeel van het Europees centrum voor testen en experimenteren van AI-toepassingen in de agrifoodsector. Hoogleraar Ioannis Athanasiadis is betrokken bij dit testcentrum, samen met collega’s van Wageningen Research en de leerstoelgroepen Agrotechnologie en Geo-informatiekunde.

Ten derde moeten we de vraag beantwoorden: van wie is de data en welke AI willen we eigenlijk? Daarom vind er bij WUR onderzoek plaats naar de ethical, legal and societal aspects (ELSA) van AI. De Wageningse techniekfilosoof Vincent Blok is hier bij betrokken, net als AI-hoogleraar Da Silva Torres. ELSA is een virtueel lab, benadrukt Blok, het experimenteert met de ethische, juridische en sociale kant van artificiële intelligentie in concrete praktijken.

Zo onderzoekt Blok melkrobots. Die heeft de boer om te melken, maar de melkrobot bevat artificiële intelligentie en kan daarmee ook gebruikt worden voor diergezondheid en medische diagnostiek. Willen de boeren dat? Dan komt er een algoritme dat de gezondheid van de koeien beoordeelt. Van wie is die data en wie is verantwoordelijk als een koe ziek blijft of zelfs dood gaat? Dat soort vragen werpt het ELSA-lab op om in te brengen in het ontwerpproces van een slimme AI-melkrobot.


Wat hierbij ook een rol speelt: AI is een beslissingsondersteunend systeem, het geeft de boer advies, maar gelooft en vertrouwt de boer dat advies? Blok: ‘Dan moet je ervoor zorgen dat AI geen black box is, je moet goed kunnen uitleggen hoe AI tot het advies komt. Wellicht moet je hierbij ook de expertise van de boer in het AI-systeem kunnen inbrengen en laten meewegen.’ Op deze manier wordt AI een interface tussen technologie en gedrag.

Zo zijn er meer voorbeelden van ‘responsible AI’. Hoogleraar Anna Fensel heeft technische oplossingen ontwikkeld voor verantwoorde toegang en gebruik van gegevens. Dergelijke oplossingen omvatten beschrijvingen en hulpmiddelen voor het delen van gegevens die voldoen aan de grondslagen van de Algemene Verordening Gegevensbescherming van de EU. Stel: je rijdt auto. Wil je als automobilist data over je reis delen voor de verkeersveiligheid? Waarschijnlijk wel. Zo bereik je ‘positief data delen’. Zo kunnen consumenten ook data delen over ziekten, levensstijl en gedrag op een transparante manier voor doeleinden waar iedereen baat bij heeft. In dat geval is het belangrijk om te overwegen welke gegevens mensen willen delen, met wie, op welke wijze en hoe lang.

Gezichtsherkenning

Veel problemen hebben niet te maken met technologie an sich, maar met het feit dat een paar grote bedrijven de touwtjes in handen hebben, zegt Blok. Dat is lastig op te lossen tijdens het ontwerpproces in ELSA. Dan moet je eerder kijken naar de AI Act van de EU die de macht en concurrentie van techbedrijven reguleert en die bijvoorbeeld instemming van consumenten vereist bij het gebruik van AI voor gezichtsherkenning.

Bij software voor gezichtsherkenning gaat het wat Blok betreft niet om een verbod, maar om verantwoord gebruik. Het kan bijvoorbeeld nuttig zijn bij voedingsonderzoek. Veel voedingsonderzoek, om te onderzoeken wat mensen eten, gebeurt nu met behulp van vragenlijsten, waarvan we weten dat mensen die niet goed invullen. Een smartwatch die de consumptie van proefpersonen bijhoudt, kan uitkomst bieden.


Een stap verder is dat de voedingsonderzoekers camera’s installeren in verzorgingstehuizen om te zien hoeveel en wat de bewoners eten en hoe lang ze op het eten kauwen, zegt Blok. Dat kan niet zonder toestemming van de bewoners. Een optie om hiermee om te gaan is dat de camera’s alleen de voedselinname en kauwbewegingen van een deel van het gezicht rond de mond registreren. Je kunt in dit geval dus AI-protocollen maken die de camerabeelden zodanig begrenst dat er voedingsonderzoek mogelijk is zonder gezichtsherkenning.

Hoe worden die AI-protocollen eigenlijk gemaakt? Dat is het onderzoeksterrein van AI-hoogleraar Anna Fensel. Ze werkt aan kennisgrafieken. Kennisgrafieken ordenen en verbinden informatie, zodat onderzoekers betekenisvolle verbanden kunnen leggen en waardevolle inzichten kunnen ontdekken. Zo ontstaat een uitgebreid kennisnetwerk dat dient als basis voor FAIR data. Voor onderzoekers kunnen de kennisgrafieken een alternatief zijn voor het handmatig doorzoeken van grote hoeveelheden literatuur om relevante informatie te vinden en het grotere geheel beter te begrijpen. Zo’n kennisgrafiek wordt momenteel bijvoorbeeld ontwikkeld in het EU-project SoilWise, dat gegevens over de bodemgezondheid verzamelt.

Deze kennisgrafieken zijn semantische netwerken, zegt Fensel, die de betekenis van woorden en symbolen gebruiken om structuur in gegevens aan te brengen. AI gaat daarmee in essentie niet om nulletjes en eentjes, maar om taal, identiteit en betekenis. Semantische netwerken zorgen ervoor dat informatie betekenis krijgt door de samenwerking van mens en machine.

Digitale tomaat

Filosoof Vincent Blok past deze semantiek bijvoorbeeld toe op de tomaat. Blok: ‘We doen een project met digital twins, digitale kopieën of representaties van echte dingen om met die kopieën te experimenteren. Zo hebben we een digitale kopie van een tomaat gemaakt, maar welke gegevens heb je dan nodig? De planten- en voedingswetenschapper zal zeggen: we hebben informatie nodig over vorm, kleur, watergehalte en vitamines. De supermarkt noemt uniformiteit en prijs en de consument weer andere elementen. Je komt er al snel achter dat er veel impliciete definities en kenmerken zijn om een digitale tomaat vast te leggen – het is geen neutrale representatie, al denken ingenieurs dat vaak wel. Beslissingen over de gewenste tomaat worden vaak om commerciële redenen genomen en het definiëren van de digitale tomaat maakt die redenen zichtbaar.’

Maar in de volgende fase van AI gaat de computer wellicht zonder nauwkeurige instructie van de mens een eigen tomaat ontwerpen, op basis van hypothesen uit de verzamelde gegevens. Bij NPEC komt deze toekomst al binnen bereik. Mark Aarts: ‘De volgende stap is dat AI patronen gaat herkennen in grote databestanden die de onderzoekers nog niet hadden opgemerkt. Vervolgens kunnen we door AI gegenereerde hypothesen onderzoeken. AI signaleert bijvoorbeeld een patroon en vraagt de onderzoekers: is dit een interessant patroon? We zijn ervan overtuigd dat dit een belangrijke rol gaat spelen in de plantenveredeling.’

Is er dan nog werk voor de plantenonderzoeker? Aarts: ‘Ja, de domeinexperts blijven een belangrijke rol spelen bij het ontwerpen en toepassen van AI-methoden voor data-interpretatie, samen met de AI-experts. Hierdoor kunnen we zowel voortgang boeken in de domeinkennis als AI-methoden.’

Lees meer

Lees meer over AI bij WUR