top of page

Andocken autonomer mobiler Roboter

Autorenbild: Lucas MusterLucas Muster

Durch die stetige Weiterentwicklung von Produktionsanlagen wird die Robotik zu einem immer wichtigeren Faktor für die Autonomie von Fabriken. Hierbei können zwei große Gebiete der Robotik getrennt werden: die mobile und die stationäre Robotik. Während stationäre Robotersysteme – bspw. ein Roboterarm – in einer Fertigungsstation fixiert montiert sind und nur einen gewissen Arbeitsbereich aufweisen, ist die mobile Robotik deutlich flexibler. Ein mobiler Roboter kann genutzt werden, um verschiedene Stationen innerhalb einer Fabrik autonom anzufahren und Objekte zu transportieren. Mit mobiler Robotik können flexible und komplexe Fertigungsanlagen umgesetzt werden und ein reibungsfreier Ablauf zwischen einzelnen Stationen und Lagersystemen gewährleistet werden. Ein Beispiel hierfür wäre die Aufnahme einer Kiste bei einer Fertigungsstation innerhalb einer Fabrik durch einen mobilen Roboter, die anschließende Transportierung sowie das Ablegen in ein Lagersystem. Doch wie können sich Roboter innerhalb einer Fabrik autonom bewegen? Mithilfe von Sensoren, die auf dem mobilen Roboter integriert sind, kann die Umgebung erfasst werden, wodurch der Roboter in der Lage ist, sich frei im Raum zu bewegen. LIDAR(light detection and ranging)-Sensoren bieten hier einen besonderen Vorteil, da sie innerhalb eines definierten Bereichs um den Roboter mit Hilfe eines Laserstrahls Entfernungen zu Objekten messen können. Auf diese Weise kann der Roboter eine Karte erstellen, wodurch festgestellt werden kann, welche Bewegungsbahn zum gewünschten Ziel führt. Hier kommen Algorithmen ins Spiel, welche dem Roboter helfen sich im Raum zu orientieren. Einer dieser Algorithmen ist der sogenannte Adaptive Monte Carlo Lokalisation (AMCL) Algorithmus – ein statistischer Lokalisierungsalgorithmus – wodurch Vorhersagen über die Pose des Roboters getroffen werden können. Durch diesen Algorithmus ist der Roboter in der Lage seine eigene Position zu bestimmen und Schätzungen zu zukünftigen Bewegungen auf Basis der Kinematik durchzuführen. Diese statistischen Algorithmen bringen gewisse Ungenauigkeiten mit sich, die im Regelfall vernachlässigbar sind. Wenn es jedoch um die exakte Positionierung des Roboters an einem bestimmten Punkt im Raum (Fertigungsstation, Lagerplatz etc.) oder um das Greifen von Objekten geht, sind diese Algorithmen zu ungenau. Erweitert man den Roboter mit einem zusätzlichen Greifarm, um Objekte eigenständig zu greifen, wird eine gewisse Genauigkeit vorausgesetzt. Kleine Abweichungen bei der Positionierung des mobilen Roboters können zu fehlerhaftem Verhalten des Greifarms führen. Aus diesem Grund müssen zusätzliche Algorithmen eingesetzt werden, die sich an Umgebungsmerkmalen (z.B. Wänden) orientieren. Dabei misst der Roboter mit Hilfe des LIDAR-Sensors einen Bereich ab, um sich anschließend danach zu orientieren. Der berechnete Differenzwinkel wird für fortlaufende Neuorientierungen genutzt, während sich der Roboter entlang der Wand bewegt (siehe Abbildung 1). Einen Nachteil stellt hierbei auftretendes Messrauschen bei der Durchführung von Laserscans dar, wodurch Abweichungen zwischen Berechnung und realer Ausführung entstehen können.


Abbildung 1: Der mobile Roboter nutzt einen Teil der Laserscandaten, um sich entsprechend der Wand zu orientieren und so die gewünschte Zielpose zu erreichen


Wie berechnet der Roboter den Differenzwinkel aus den gewonnen Laserscan-Daten? Um diese Frage zu beantworten müssen wir einen Machine-Learning-Algorithmus nutzen. Die Laserscan-Daten sind nichts Anderes als definierte Punkte in einem Koordinatensystem. Sie haben in Bezug auf den mobilen Roboter einen x- und einen y-Wert und werden in einer Matrix gesammelt. Das Ziel ist es, aus dieser Matrix die Richtung zu schätzen, die die tatsächliche Wand zeigt. Dafür können viele unterschiedliche Algorithmen eingesetzt werden. Eine Möglichkeit ist die Hauptkomponentenanalyse (Principal Component Analysis, kurz PCA). Die PCA projiziert diese Punkte im Koordinatensystem auf eine Achse, die am besten den Datensatz repräsentiert.


Abbildung 2: Aufgenommene Messdaten des LIDAR-Sensors


Abbildung 3: Projektion der Messdaten durch PCA auf die reale Wand


Wie kann man sich das vorstellen? In Abbildung 2 sind Beispieldaten des Laserscans abgebildet, welche vom LIDAR-Sensor erfasst wurden. Durch eine PCA wird die Achse bestimmt, auf der die Datenpunkte am „besten“ liegen – in unserem Fall die reale Wand (siehe Abbildung 3). Diese Achse ist ein Richtungsvektor, der sich abhängig der Datenwolke verändert. Der Vektor richtet sich nach den Daten des Laserscans und wird genutzt, um die Orientierung des mobilen Roboters zu regeln. Somit kann durch das Messen der Wand über den LIDAR-Sensor ein Richtungsvektor bestimmt werden, welcher anschließend in die Regelung des mobilen Roboters integriert werden kann. Dieser fährt mit einer konstanten Geschwindigkeit an der Wand entlang und richtet sich entsprechend dieser Messung aus, bis er zum gewünschten Ziel gelangt. Anschließend ist der Roboter in der Lage Objekte zu greifen, da sein Orientierungsfehler im Vergleich zu den oben beschriebenen statistischen Verfahren deutlich verbessert wurde.



Comments


bottom of page