Nieuws

Slim algoritme kan honderden uren werk besparen bij het verwerken van beelden

article_published_on_label
19 april 2022

In de land- en tuinbouw worden steeds meer robots ingezet. De prestaties van deze robots zijn voor een groot deel afhankelijk van algoritmen die beelden van gewassen kunnen verwerken. Om de algoritmen goed te laten werken moeten mensen beelden selecteren en labelen, en dit is een tijdrovende klus. Een nieuw active learning algoritme, ontwikkeld door PhD-student Pieter Blok, is in staat om zelf te bepalen welke beelden het meest informatief zijn. Deze innovatie kan zorgen voor een enorme arbeidsbesparing in de wereld van de agrofoodrobotica.

Door middel van deep learning worden robotsystemen in de agrarische sector steeds beter in het herkennen en verwerken van foto’s van gewassen. Om de systemen goed te trainen, zijn er honderden tot wel duizenden beelden nodig van het gewas waar ze voor worden ingezet. Die beelden worden voor een groot deel door mensen verwerkt. Eerst zoeken ze uit welke foto’s relevant zijn en daarna moeten ze die annoteren: pixels intekenen en labelen. Aan de hand van deze informatie leert een systeem patronen te herkennen die ze in de kas of op het veld zullen tegenkomen.

Het uitzoeken en annoteren van beelden door experts is een dure, arbeidsintensieve klus waarbij menselijke fouten kunnen worden gemaakt. Pieter Blok, PhD-student bij Wageningen University & Research, ging op zoek naar een methode die het uitzoeken en annoteren van beelden kan vereenvoudigen. Hij ontwierp een algoritme dat gebruik maakt van active learning, een slimme sampling-techniek. Het algoritme is in staat om zelf de meest interessante beelden van een dataset te selecteren. Dat zijn de beelden waar het systeem moeite mee heeft, en daardoor het meeste van kan leren.

Proef met broccoli

Om zijn algoritme te testen ging Blok aan de slag met foto’s van broccoliplanten in het veld. In de afbeelding hieronder is te zien hoe dat werkt. Drie verschillende pogingen van het systeem om de broccoli te verwerken gaven drie verschillende outputs op hetzelfde beeld: ziek (links), te rijp (midden), en gezond (rechts). De onzekerheidsfactor was dus erg groot, en het algoritme concludeerde dat dit een interessant beeld was om door de mens te laten labelen. Het gelabelde beeld werd daarna weer gevoed aan het systeem, zodat die ervan leert. Blok: ‘Als het algoritme ergens onzeker over is, ligt daar waarschijnlijk veel ruimte om zijn prestaties te verbeteren.’

Door alleen de ‘onzekere’ beelden aan de mens over te laten, bespaarde de methode van Blok zeeën van tijd. Bij random sampling zouden mensen 2.300 beelden hebben moeten labelen, maar door zijn smart sampling hoefde dat maar bij 900 beelden. Een besparing van 1.400 beelden dus. Blok maakt een snelle rekensom: ‘Eén beeld annoteren kost zo’n 3 tot 5 minuten. Als je 1.400 beelden bespaart, zoals in mijn dataset, heb je het in totaal over een tijdsbesparing van misschien wel 7.000 minuten. Dat zijn ruim 116 uur.’

Vrij toegankelijk

Volgens Blok lopen alle bedrijven in de agrarische sector ertegenaan dat het annoteren van beelden veel tijd kost. Hij hoopt dan ook dat zijn innovatieve methode veel zal worden ingezet. Zijn software, die de naam MaskAL heeft gekregen, is gratis te downloaden.

Pieter Blok voerde zijn onderzoek uit in opdracht van de Topsector TKI AgroFood. Daarnaast hebben de bedrijven Agrifac Machinery B.V. en Exxact Robotics een financiële en technische bijdrage geleverd.