07

Dit artikel hoort bij: Landmacht 03

Vijandelijke voertuigen opsporen met algoritme

Tekst Nico Schinkelshoek
Foto SM Cristian Schrik, DEMCON

‘Niet meer uren naar video’s kijken’

Defensie start het ene na het andere innovatieproject. Het Commando Landstrijdkrachten heeft er zelfs een speciale sectie voor: de afdeling Innovatie. In deze rubriek belicht Landmacht bijzondere trajecten die deze groep initieert of ondersteunt. Ditmaal het Nationaal Technologie Project SyDATaR (Synthethic Data based Automatic Threat Recognition).

Negen maanden geleden gingen de Robot and Autonomous Systems-eenheid van 13 Lichte Brigade en technologiebedrijf DEMCON samen met de haalbaarheidsstudie van start. De centrale vraag: kun je een algoritme trainen met synthetische data, zodat een camera onder bijvoorbeeld een drone zelfstandig dreigingen kan detecteren, herkennen en identificeren? In andere woorden: lukt het om het model met zo’n 50.000 virtuele foto’s te ‘voeden’ en zelf een militair wapensysteem aan te laten wijzen? Het antwoord daarop is ‘volmondig ja’, zegt een trotse Timo Roestenberg, business manager bij DEMCON.

Timo Roestenberg praat en gebruikt daarbij zijn handen.
Timo Roestenberg van DEMCON.

Synthetische data: de mens in the lead

Bij synthetische data gaat het om kunstmatig gegenereerde data. Wel stelt de mens daarbij vooraf de regels op. Omdat het in dit geval ging om afbeeldingen van een bosrijke omgeving, moesten ze onder meer voldoen aan bepaalde hoeveelheden bomen, struiken en gras. Dit om de werkelijkheid zo goed mogelijk na te bootsen. In tegenstelling tot AI-gegenereerde foto’s, heeft de mens bij synthetische data een stuk meer invloed op het eindresultaat. Het model trainen kon overigens ook met echte foto’s uit openbare bronnen, maar die zijn vaak moeilijker te verkrijgen of minder betrouwbaar.

Het model kreeg dus een enorme stapel synthetische afbeeldingen voorgelegd, in de hoop dat de computer uiteindelijk de juiste voertuigen zou aanwijzen. Roestenberg maakt daarbij de vergelijking met het aanleren van een kind wat het verschil is tussen een tijger en een kat. “Er zijn bepaalde eigenschappen waaraan je het dier herkent. Bijvoorbeeld het formaat. Dat is de grote truc.”

Luitenant-kolonel Martijn Hädicke luistert, zijn handen gevouwen.
Luitenant-kolonel Martijn Hädicke, hoofd Ontwikkeling en Innovatie Robot Autonome Systemen.

Algoritme corrigeren

Spot het algoritme bijvoorbeeld een Fennek, dan zet het daar een kadertje omheen. “Je moet wel zeker weten dat je een positieve identificatie hebt”, zegt luitenant-kolonel Martijn Hädicke, hoofd Ontwikkeling en Innovatie Robot Autonome Systemen. Het team corrigeerde daarom wekelijks het model in de afgelopen maanden.

Links twee luchtfoto’s van een bosrijke omgeving, daarnaast dezelfde twee foto’s met daarop rode vierkantjes om vijandelijke voertuigen getrokken.
Het model geeft aan waar zich vijandelijke voertuigen bevinden.

Zeker in de beginperiode vergiste de computer zich weleens. Zo waren er in eerste instantie alleen natuurlijke objecten in het model verwerkt. Na het testen met echte dronebeelden bleek al snel dat er in het veld ook dixies staan, betonplaten liggen en busjes rijden. Data die het model nog nooit had gezien. “Die objecten werden aangewezen als vijandig. We hebben daarom datasets toegevoegd met al deze elementen erin, en het algoritme opnieuw getraind”, vertelt Roestenberg.

Toepassen in veld

Vele aanpassingen later werkt het model goed genoeg om het systeem binnenkort ook in de praktijk te testen. Te beginnen met experimenten in een afgesloten militaire oefenomgeving, in de context van een eenheid. De verwachting is dat bijvoorbeeld een drone-operator veel baat heeft bij deze ontwikkeling. Zeker wanneer de vliegroutes ook vooraf geprogrammeerd zijn. “We gaan ervan uit dat we in een omgeving moeten opereren waar in hoge mate elektronische oorlogsvoering bestaat. Met deze vorm van autonomie hoeft de dronebestuurder niet meer constant mee te kijken op het scherm. Alleen wanneer een spotting report verschijnt als het algoritme iets opvallends waarneemt, is focus vereist. Zo kunnen we de constante videostroom die nu bestaat zoveel mogelijk elimineren. Daar zit namelijk ook een kwetsbaarheid in, omdat het de vijand een aangrijpingspunt geeft om de drone en het grondstation te detecteren. Hoe minder je zendt, hoe minder zichtbaar je bent.”

Overste Hädicke houdt een drone vast.
‘Hoe minder je zendt, hoe minder zichtbaar je bent.’

Urenlang kijken

Het model bepaalt in 20 milliseconden of een waarneming relevant is. Uiteindelijk zal de mens moeten vertrouwen op een algoritme en beslissingen moeten nemen op basis van een berichtje. Maar voordat dat zover is, is er nog een lange weg te gaan, benadrukken de twee. “Technisch gezien hebben we nog veel ideeën voor verbetering”, zegt Roestenberg. Zo kunnen er nog veel meer data, soorten vijandelijke doelen en terreinen toegevoegd worden. Hädicke: "Uiteindelijk stelt het model ons in staat beter gebruik te maken van het kennisvermogen van de mens om met een missie bezig te zijn en niet urenlang naar een video te kijken.”

Een drone vanaf bovenaf.
De drone-operator heeft naar verwachting baat bij de ontwikkeling.

Samenwerking met industrie

Bij dit project werkte Defensie nauw samen met de Nederlandse industrie. Zelf beschikte de landmacht bijvoorbeeld niet over voldoende data om het systeem te trainen. Roestenberg: “De Nederlandse industrie heeft veel kennis en kan veel, maar weet niet altijd wat de uitdagingen zijn die spelen bij Defensie. Andersom weet Defensie niet altijd wat er mogelijk is. Bij dit project hebben we goed naar elkaar geluisterd en zijn we tot een unieke oplossing met een ontzettend gaaf resultaat gekomen.”

Overste Hädicke en Roestenberg poseren naast elkaar op de weg.