Nieuws

Schoonheid van landschappen meten met social media

Gepubliceerd op
8 oktober 2021

Het vastleggen van de esthetische kwaliteiten van landschappen via de eigen ervaringen van mensen is al lange tijd een doelstelling van beleidsmakers en wetenschappelijke onderzoekers. Een recent onderzoek door onderzoekers van onder andere Wageningen University & Research heeft nieuwe technieken ontwikkeld om, voor berekeningsdoeleinden, te meten hoe mensen genieten van de natuur.

Genieten van de schoonheid van de natuur is nauw verbonden met recreatie, welzijn en met geestelijke en lichamelijke gezondheid. Op deze manier leveren de ecosystemen die het landschap vormgeven aanzienlijke culturele bijdragen aan de samenleving. Het meten van deze bijdragen is een kerndoelstelling van de natuurlijke kapitaalrekeningen. Het doel hiervan is de waarde die door natuurlijke ecosystemen wordt geleverd, op te nemen in nationale economische statistieken. Bijvoorbeeld om duurzame beleidsdoelstellingen te ondersteunen.

Flickr-afbeeldingen en deep learning

Het nieuwe onderzoek heeft afbeeldingen van sociale media gebruikt als een omvangrijke nieuwe bron van informatie, in combinatie met het zogenaamde ‘deep learning’. Dit is een soort kunstmatige intelligentie (AI) waarbij kunstmatige neurale netwerken worden gebruikt die uit vele berekeningsknopen zijn samengesteld. Hiermee kan de inhoud van beelden worden begrepen. Het onderzoeksteam heeft een deep learning-model toegepast op meer dan 9 miljoen openbare afbeeldingen op het social media-platform Flickr. Ze modelleerden met succes het genot dat mensen beleefden aan de natuur voor heel Groot-Brittannië, door nauwkeurig belangrijke gebieden met een landschappelijke schoonheid vast te leggen, waaronder het Snowdonia National Park in Wales, het Lake District in Engeland en de Schotse Hooglanden.

Het model is getraind met een database van esthetische voorkeuren die tot stand is gekomen door middel van crowdsourcing. Hierdoor kan het model de esthetische kwaliteit van het landschap in natuurfoto's voorspellen, als directe weergave van het esthetische genot van mensen.

Grootschalige modellering

Het modelleren van het esthetische genot van het landschap op grote schaal is een uitdagende opdracht. De dagelijkse ervaringen van mensen tijdens recreatieve activiteiten zijn subjectief en daarom moeilijk te meten. Bestaande onderzoeksmethodes kunnen een aantal waarnemingen vastleggen, maar het is duur om die op nationale schaal uit te voeren. Ook laten traditionele modellen vaak de individuele ervaring buiten beschouwing. Het nieuwe onderzoek had tot doel deze tekortkomingen te overwinnen. Ilan Havinga, Wageningen University & Research, legt uit: “Het op grote schaal meten van de esthetische bijdragen van landschappen aan het welzijn van individuele personen is een lastige taak. Dit onderzoek biedt een technologische basis om het esthetische genot van het landschap voor mensen te modelleren, terwijl het belangrijkste element erin zit verwerkt: de mensen zelf.”

Volgende stappen

Het onderzoek is ontwikkeld door onderzoekers van Wageningen University & Research in samenwerking met EPFL en het Centraal Bureau voor de Statistiek. Wageningen University & Research is betrokken bij de ontwikkeling van de natuurlijk kapitaalrekeningen in Europa, via het Mapping and Assessment for Integrated Ecosystem Accounting (MAIA) project dat het onderzoek gedeeltelijk heeft gefinancierd.

Het onderzoeksteam werkt momenteel aan het toepassen van het nieuwe model in Nederland, Spanje en andere Europese landen, om verdere ondersteuning te bieden bij de ontwikkeling van de natuurlijk kapitaalrekeningen in Europa.

Waar genieten mensen van de esthetische kwaliteit van landschappen? En hoe kunnen we dit meten op een schaal die groot genoeg is om voor de nationale statistieken te gebruiken? Foto © Graeme Churchard (cc-by/2.0).
Waar genieten mensen van de esthetische kwaliteit van landschappen? En hoe kunnen we dit meten op een schaal die groot genoeg is om voor de nationale statistieken te gebruiken? Foto © Graeme Churchard (cc-by/2.0).