Robot Vision vom Astronaut bis zur Apfelernte

Robotik in der Industrie gibt es bereits seit den 50er-Jahren des letzten Jahrhunderts. Eingesetzt wurde sie zuerst Anfang der 60er-Jahre in der Automobilindustrie zum Vereinzeln von Spritzgussteilen. Das Problem bei der Robotik war jedoch, dass die Roboter eigentlich blind waren. Man musste sowohl die Koordinaten des aufzunehmenden Objekts, als auch die Zielkoordinaten exakt definieren. Mehr noch: Das aufzugreifende Objekt musste sich in einer exakt definierten Position befinden.

Autor: Dr. Lutz Kreutzer, MVTec Software GmbH.


Bild 1: Der Robonaut R2 wurde von der Nasa und GM gemeinsam entwickelt.
Bild: Nasa

Mit der Zeit kam das Bedürfnis der Industrie auf, den Robotern das Sehen beizubringen. Wenn ein Vision-System unumgänglich wurde, mussten die Ingenieure entsprechende Software selbst entwickeln. Das kostete enorme Entwicklungszeit. Inzwischen gibt es Bildverarbeitungs-Standardsoftware. Aufgrund deren hohe Qualität sind Eigenentwicklungen heutzutage kaum noch in der Lage, in Bezug auf Know-how, Robustheit, Zuverlässigkeit und Schnelligkeit zu konkurrieren. Erst vor wenigen Jahren wurde seitens der Roboterhersteller und auch der Anwender verstanden, dass Bilderkennungseinheiten, die mit Standardsoftware ausgerüstet sind, die Industrie-Robotik erheblich vorantreiben können. Seither werden mehr und mehr Robotik-Systeme bereits mit Bildverarbeitungssystemen ausgestattet, bevor sie ausgeliefert werden. Selbst die Forschung hat mittlerweile erkannt, dass Standardsoftware mehr zu bieten hat als so manche zeitraubende Eigenentwicklung. Das zeigen immer mehr Service-Roboter, die an namhaften Instituten entwickelt wurden. Die 3D-Bildverarbeitung bietet der Robotik viele Anwendungsmöglichkeiten. In erster Linie soll der Roboter das Sehen lernen und - das ist das Ausschlaggebende - selbst entscheiden können, was er tun muss. Das ist eine große Herausforderung an die Bildverarbeitungssoftware. Denn die Software steht in Analogie zum Handlungsprozess in der Bildverarbeitungskette für das Gehirn. Zur Lösung der anspruchsvollen Anforderungen der Robotik, muss das gesamte Repertoire der Bildverarbeitungssoftware ausgeschöpft werden. Halcon ist eine der umfangreichsten Bildverarbeitungsbibliotheken am Weltmarkt und auf 3D-Vision spezialisiert. Um die Vielfalt der Software zu verdeutlichen, werden im Folgenden einige Beispiele erläutert.

Sehende Roboter im Kfz-Bau

Es war auch diesmal der Automobilbau, der die Robotik voranbrachte: 3D-Vision wurde gebraucht. Ein Roboter soll z.B. eine Tür greifen und einbauen. Die Anforderung ist, dass die Position des Objekts nicht exakt definiert sein muss, damit ein Roboter es findet. In dem Beispiel (Bild 2) soll der Roboter selbst sehen, in welcher Lage sich die Autotür befindet, damit er sie eigenständig greifen kann. Dazu muss er ein Modell der Tür kennen. Das Modell wird entweder zuvor vom Programm gelernt oder liegt bereits als CAD-Modell vor. In diesem Beispiel wird nicht etwa die räumliche Information der gesamten Tür benötigt, sondern nur wenige, aber eindeutige Merkmale, was den Arbeitsspeicher der Prozessoren enorm entlastet und für entsprechende Schnelligkeit sorgt. Das perspektivisch deformierbare Matching von Halcon erkennt an ausgeprägten Kanten flächenhafter Elemente die perspektivische Verzerrung der schräg gestellten Autotür. So kann das System die Tür räumlich exakt einordnen und gezielt greifen.

Anzeige

Ein Roboter für die Nasa

Die Robotik hat auch längst in der Raumfahrt Einzug gehalten. Eine gemeinsame Entwicklung von der Nasa und General Motors ist der erste im Weltraum eingesetzte humanoide Roboter-Astronaut, der Robonaut R2 (Bild 1). Sein Bildverarbeitungssystem wurde von den Nasa-Ingenieuren mit 3D-Vision-Technologien realisiert. Der Robonaut arbeitet in der internationalen Raumstation ISS weitgehend autonom. Die Software interpretiert die Bilder, die der R2 sieht, und steuert daraufhin die Bewegungen, die er in Echtzeit vollführt. Der Vorteil gegenüber den vorhergehenden Entwicklungen der Nasa liegt in der wesentlich höheren Flexibilität des Roboters und besteht auch darin, dass eine permanente Supervision nicht mehr nötig ist. In der Raumfahrt ist beides erforderlich. Denn der R2 wird auch als Roboter gehandelt, der eventuell auf künftigen Reisen zum Mond oder Mars eingesetzt werden könnte.

Humanoide Roboter im Team

Kawada Industries hat einen neuen Typ von Industrieroboter präsentiert, der sich stark an der Biomechanik des Menschen, aber auch an seinen Bedürfnissen in der Arbeitswelt orientiert. Der Kawada Nextage arbeitet mit 3D-Vision. Der Roboter wurde speziell entwickelt, um Hand in Hand und Seite an Seite mit Menschen und herkömmlichen Industrierobotern zu arbeiten (Bild 3). Dazu ist er mit einer Stereo-Kameraeinheit im Kopf und je einer Kamera an jeder Greiferhand ausgestattet. Mit der Stereo-Einheit detektiert der Roboter u.a. jede Veränderung in seiner Umgebung, was für die Arbeitsplatzsicherheit und das Teamwork von entscheidender Bedeutung ist. Um die genaue Position von Werkteilen zu erkennen, braucht der Roboter nur zwei zuvor kalibrierte Marken am Arbeitstisch. Werkteile können dann von den Handkameras in unterschiedlichen Positionen und Lagen erkannt und gegriffen werden. Diese Technologie in Kooperation mit Menschen wird bereits erfolgreich in der Industrie in Japan eingesetzt.

Empfehlungen der Redaktion

Bin Picking im täglichen Einsatz

Bin Picking ('Griff in die Kiste') ist mittlerweile eine alltägliche Anforderung in der Industrierobotik. Lange war genau das ein großes Problem in der Automationstechnik. Ausgereifte 3D-Vision-Technologien sorgen auch hier dafür, dass ein Roboter gezielt auf eines von zahlreichen unsortierten und zufällig geschütteten Objekten zufährt und es sicher aufgreift. Eine gängige Methode wird Sheet-of-Light genannt. Eine Laserlinie wird auf die Oberfläche von lose geschütteten Objekten projiziert. Durch eine schräg dazu positionierte Kamera werden sukzessive die daraus erfassten Konturenlinien aufgenommen und von der Bildverarbeitungssoftware in eine Punktwolke umgewandelt. Die Software erkennt über das oberflächenbasierte 3D-Matching nicht nur mit hoher Geschwindigkeit die 3D-Lage der einzelnen Objekte, sondern entscheidet auch, welches der vielen Objekte anschließend vom Roboter angesteuert wird (Bild 4). Die hier gezeigte Applikation wird in der Automobilindustrie angewendet.

Automatische Apfelernte

Ein Problem der belgischen Agrarwirtschaft ist seit langem, dass zur Erntezeit für hochwertiges Tafelobst kaum mehr Saisonarbeiter zu finden sind. Deshalb wurde das Acro Institut beauftragt, einen automatischen Ernteroboter zu entwickeln. Der Prototyp der Apfel-Pflückmaschine arbeitet mit einem herkömmlichen Industrieroboter, der mit einem speziellen Vakuum-Greifer und einem Kamerasystem ausgestattet ist. Das Gerät kann von einem herkömmlichen Traktor gezogen werden. Die große Herausforderung ist neben den schwankenden Beleuchtungsbedingungen auch die unterschiedliche Form der Apfelbäume. Außerdem dürfen nur reife Früchte geerntet werden. Die Zuverlässigkeit der Ernteausbeute liegt derzeit bei 85%, das entspricht in etwa der Quote beim Pflücken von Hand.

Anzeige

Fazit

Die Beispiele zeigen, dass vieles bereits möglich ist. Die entscheidenden Software-Technologien zur intelligenten Robotik sind vorhanden. Allein die Kreativität der Ingenieure wird in Zukunft zeigen, wie stark solche Systeme vernetzt werden und wie viele neue Applikationen entwickelt werden.

Anzeige