Onderzoekers laten drones beter navigeren

TU Delft en de Westfälische Hochschule presenteren een op optische flow gebaseerd leerproces waarmee robots afstanden kunnen inschatten op basis van de vorm, kleur, textuur van objecten.

Trefwoorden: #drones, #navigeren, #optische flow, #robot, #TU Delft, #Westfälische Hochschule

Lees verder

research

( Foto: MAVLab TU Delft )

ENGINEERINGNET.BE - Een van de dingen waar insecten veel gebruik van maken is ‘optische flow’: de manier waarop objecten zich door hun gezichtsveld bewegen. Die helpt hen om op bloemen te landen en obstakels en vijanden te ontwijken.

Optische flow heeft twee fundamentele beperkingen, die uitgebreid zijn beschreven in de toenemende literatuur in de door biologie geïnspireerde robotica. De eerste is dat optische flow alleen gecombineerde informatie verschaft over afstand en snelheid, en niet over afstand of snelheid afzonderlijk.

Dat betekent bijvoorbeeld dat als er twee drones aan het landen zijn, en een daarvan twee keer zo hoog en snel vliegt als de andere, ze allebei dezelfde optische flow waarnemen. Maar voor een goede besturing moeten deze twee drones verschillend reageren op afwijkingen in de divergentie van de optische flow.

Ook is de optische flow in de richting waarin een robot beweegt heel klein. Dat is nadelig, omdat daardoor de metingen van de optische flow in die richting relatief veel ruis vertonen en dus weinig informatie verschaffen over de aanwezigheid van obstakels.

“We realiseerden ons dat beide problemen opgelost zouden zijn als robots ook de visuele verschijning van objecten in hun omgeving detecteren”, aldus Guido de Croon, hoogleraar Bio-inspired Micro Air Vehicles.

Daartoe ontwikkelde De Croon een theorie, waaruit blijkt dat vliegende robots door actief te oscilleren afstanden kunnen waarnemen. Op die manier kan een robot bijvoorbeeld leren hoe fijn de textuur van gras er vanaf verschillende afstanden uitziet tijdens het landen, of hoe dik boomstammen op verschillende afstanden zijn als hij door een bos vliegt.

“Leren om afstanden te bepalen op basis van visuele verschijning levert veel snellere en vloeiendere landingen op dan voorheen mogelijk waren”, vertelt Christophe De Wagter, onderzoeker aan de TU Delft. “Ook konden de robots nu obstakels in de vliegrichting heel duidelijk zien om ze te ontwijken. Daardoor werd de detectie van obstakels beter, en konden onze robots sneller vliegen.”

De gepresenteerde methodes zijn bijzonder relevant voor vliegende robots met beperkte sensoren en rekenkracht, met name als die actief zijn in een omgeving met weinig ruimte, bijvoorbeeld in een kas om gewassen te monitoren of in een magazijn om de voorraad bij te houden.


Video: