KI stärkt Autonomie von Industrierobotern

Schlauere Roboter können mehr

Anwendungen mit künstlicher Intelligenz (KI) sollen die Fähigkeiten von Industrierobotern verbessern, um schnell und treffsicher auf Sensor- und Bilddaten zu reagieren. Die Integration von KI-Funktionen direkt in der Robotersteuerung ermöglicht neben einer Beschleunigung der Objekterkennung auch Steigerungen bei Qualität, Zuverlässigkeit und Geschwindigkeit sowie erweiterte Möglichkeiten der Zusammenarbeit mit Menschen.
 Sollen Roboter den Mitarbeitern in der Fertigung direkt zur Hand gehen, kann künstliche Intelligenz schon heute eine spürbare Hilfestellung geben.
Sollen Roboter den Mitarbeitern in der Fertigung direkt zur Hand gehen, kann künstliche Intelligenz schon heute eine spürbare Hilfestellung geben.Bild: ©zapp2photo/stock.adobe.com

Seit jeher gibt es Versuche, Industrieroboter außerhalb einer starren Programmierung flexibel auf veränderliche Situationen reagieren zu lassen. So werden die frei programmierbaren Bewegungen und Greifoperationen nicht starr vorgegeben, sondern reagieren auf den Input von Sensoren.

 Entwicklerboards und Single Board Computer mit integrierten KI-Beschleunigerchips bieten die Möglichkeit, Anwendungen von Machine Learning und Deep Learning direkt am Roboter auszuführen.
Entwicklerboards und Single Board Computer mit integrierten KI-Beschleunigerchips bieten die Möglichkeit, Anwendungen von Machine Learning und Deep Learning direkt am Roboter auszuführen.Bild: ©ninefotostudio/stock.adobe.com

Roboter brauchen mehr Flexibilität

Dabei handelt es sich dennoch immer um eine feste, algorithmische Programmierung, die meist auf hohe Arbeitsgeschwindigkeiten ausgelegt ist. In den meisten Anwendungen arbeitet die mitgelieferte Robotersteuerung die Programme ab. In besonders zeitkritischen Fällen, etwa zur Entformung neuer Kunststoffteile in Spritzgießmaschinen, ist die Integrationstiefe größer. Dort übernehmen die Maschinensteuerung und Antriebssteuereinheiten für die einzelnen Achsen die Steuerung der Roboterkinematik.

In vielen Fällen können und sollen Roboter Menschen nicht ersetzen, sondern diese unterstützen, ihnen zur Hand gehen. Mensch und Maschine sollen am Arbeitsplatz im gemeinsamen Prozess eng zusammenarbeiten. Noch weiter geht die Vision, dass Roboter Menschen in Krankenhäusern und Pflegeeinrichtungen, aber auch in der eigenen Wohnung oder auf ihren täglichen Wegen unterstützen.

Ein erster Schritt in diese Richtung sind sogenannte Cobots. Sie benötigen allerdings aufwendige zusätzliche Technik, etwa in Form von Kraft/Momenten-Sensorik oder einer berührungsempfindlichen Haut, um eine direkte Zusammenarbeit mit Menschen ohne Kompromisse bei der Sicherheit zu ermöglichen.

Vor allem die Unberechenbarkeit menschlicher Handlungen macht es nicht leicht, die Roboter aus ihren Käfigen zu befreien. Deshalb können sie bisher auch nur mit stark verminderter Geschwindigkeit kollaborativ arbeiten. Ein Einsatz außerhalb der industriellen Umgebung scheitert nicht zuletzt an der nicht vorab bekannten und veränderlichen Umgebung, die kein Softwareentwickler vorhersehen und berücksichtigen kann.

 In der Industrie übernehmen Roboter Arbeiten, die für Menschen zu gefährlich, 
zu kompliziert, zu schwer, zu schmutzig oder zu eintönig sind.
In der Industrie übernehmen Roboter Arbeiten, die für Menschen zu gefährlich, zu kompliziert, zu schwer, zu schmutzig oder zu eintönig sind.Bild: ©Peter Kemptner

Sinneswahrnehmungen für Roboter

Der sogenannte Griff in die Kiste zur Entnahme von in loser Schüttung angelieferten Werkstücken oder gefahrlos Hand in Hand mit Menschen zu arbeiten, gelten in der Robotik als klassische Herausforderungen. Lösungsansätze für beide Fälle ergeben sich in Verbindung mit Bildverarbeitungssystemen und hoch entwickelter Sensorik. Dazu zählen etwa 360°-Laserscanner, Time-of-Flight-Kameras (ToF) oder Stereo-3D-Tiefenkameras.

Sie verleihen den Robotern nicht nur die Möglichkeit, die zu greifenden Objekte zu erkennen, sondern auch die Umgebung dreidimensional wahrzunehmen. Darüber hinaus bieten sie die Möglichkeit, während des Arbeitsschritts eine visuelle Qualitätskontrolle der gegriffenen Teile vorzunehmen. So kann der Roboter für schlecht befundene Teile direkt ausschleusen. Das verursacht in der Regel geringere Kosten als zu einem späteren Zeitpunkt im Prozess.

Unabhängigkeit durch KI

Obwohl sich solche Aufgaben auch rein algorithmisch lösen lassen, braucht es mehr, um aus Robotern sowohl kooperative als auch effizient arbeitende Kollegen zu machen. Sie brauchen die Fähigkeit, sich auf neue Situationen einzustellen. KI-Anwendungen wie das Deep Learning eignen sich sehr gut für die Mustererkennung in Bilddaten. Ihre Echtzeit-Auswertungen ermöglichen eine verbesserte Treffsicherheit bei der Objekterfassung und des Personenschutzes beim kollaborativen Einsatz. Zugleich können sie für die Qualitätssicherung genutzt werden. Zusätzlich lassen sich Methoden des Machine Learning nutzen, um dem Roboter durch eine vorausschauende Positionierung einen statistischen Zeitvorteil zu verschaffen.

Seiten: 1 2Auf einer Seite lesen

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: ISW der Universität Stuttgart
Bild: ISW der Universität Stuttgart
Domänenspezifische Sprache

Domänenspezifische Sprache

Ein grundlegender Baustein zur Flexibilisierung von Automatisierungssystemen aus Softwaresicht sind modulare, virtualisierte Echtzeitarchitekturen, die als verteilte Echtzeitsysteme realisiert werden. Um Entwickler in die Lage zu versetzen, robuste Systeme hinsichtlich der Echtzeiteigenschaften zu entwerfen und zu verwalten, wurde am ISW der Universität Stuttgart auf Basis einer domänenspezifischen Sprache ein Werkzeug entwickelt, das die Analyse des Echtzeitverhaltens sowie die automatisierte Echtzeitorchestrierung Container-basierter Steuerungsanwendungen mit Kubernetes und Docker-Compose erlaubt.

mehr lesen