SPS & Bildverarbeitung: Wie geht es weiter? - Teil 2/2

SPS goes Vision

Die Welten der Automatisierung und Bildverarbeitung wachsen immer stärker zusammen. Wo aber stehen wir aktuell? Um dies zu klären, fand eine Podiumsdiskussion auf dem VDMA Forum während der SPS IPC Drives 2018 statt. Im zweiten Teil unserer Serie geht es um die Themen Usability und Echtzeit.

Waldl: Wir sprechen von einer mikrosekundengenauen Synchronisierung zwischen Kamera, Beleuchtung, Steuerung und Antrieben sowie einem Jitter von 100ns. Nur so lassen sich Bildeinzug und Lichtblitz so steuern, dass die Geschwindigkeit des Maschinenprozesses nicht beeinträchtigt wird.

Dr. Olaf Munkelt (MVTec Software): Für Bildverarbeiter ist Echtzeit die Zeit, die es braucht, um einen Zyklus zu durchlaufen und das ist – je nach Anwendung – völlig unterschiedlich. Das kann beim Barcodelesen 5ms sein, aber bei einer komplexen Robot-Vision-Lösung auch 500ms oder mehr.

Dr. Klaus Henning Noffz (Silicon Software): Echtzeit bedeutet, dass ich eine garantierte Reaktionszeit habe. Es gibt durchaus Anwendungen, die eine Reaktion unterhalb einer Mikrosekunde erfordern. Wir haben auf der Vision ein System gezeigt, das mit Deep Learning eine Klassifikation macht und eine Jitter-freie garantierte Reaktion/Klassifikation erreicht. Diese liegt im Bereich von mehreren Nanosekunden im Prinzip mit einem Jitter und einer Reaktion von einigen Mikrosekunden.

Rainer Schönhaar (Balluff): Wenn ich sehr schnelle Prozesse habe, kann das schon im Milli- oder Mikrosekundenbereich sein. Die Beleuchtung und Bildaufnahmen müssen so schnell erfolgen, wie es die Dynamik des Automatisierungsprozesses und der Objektanwesenheit erlaubt. Die andere Frage ist aber, bis wann ich ein Ergebnis benötige?

Waldl: Bei der Reaktionszeit mit einer FPGA-Lösung habe ich den Vorteil, dass ich die Reaktionszeit steuern kann, das heißt mit mehr Rechenleistung, verschiedenen Hardwarearchitekturen oder Algorithmen. Die Echtzeitfähigkeit bei einer Triggersituation erreiche ich nur, wenn das Vision-System in das Automatisierungssystem komplett integriert ist. Dort muss ich auch auf die harten Echtzeitanforderungen der Antriebs- und Automatisierungstechnik reagieren, und daraus ergibt sich mein Triggerzeitpunkt.

Keppler: Das Ergebnis der Bildverarbeitung muss rechtzeitig zur Verfügung stehen. Der Maschinentakt definiert dabei, was ‚rechtzeitig‘ ist, um beispielsweise Fehlerteile auszuschleusen.

Schönhaar: Wenn man aus Bildverarbeitungssicht sagt „ich hab eine Aufgabe abgeschlossen“, dann kann diese Aufgabe eventuell aber für die SPS zu diesem Zeitpunkt noch nicht erledigt sein. Wir müssen also neben der Laufzeit der Bildverarbeitung auch zusätzlich die Übertragungszeiten mit berücksichtigen.

Welche Möglichkeiten gibt es, die Usability von Vision-Systemen zu vereinfachen?

Schönhaar: Wir benutzen die Halcon-Bibliothek und machen eine Art eigenen ‚Dialekt‘ darüber, das heißt die Bedienung der (Smart-) Kamerasysteme so weit benutzerfreundlich, dass wir in deren Sprachgebrauch gehen: „Ich möchte einen Text lesen, ein Teil verifizieren oder finden.“ Das ist etwas anderes, als wenn man sagt „ich möchte eine Kante finden“. Natürlich gibt es hier Grenzen, für die wir dann einen Expert Mode mit zusätzlichen Parametern haben.

Waldl: Es geht darum, das Lösen der kompletten Bildverarbeitungslösung so einfach wie möglich zu machen. Daher haben wir die komplette Bildverarbeitung in die vorkonfigurierten Softwarebausteine von Mapp Vision integriert. Diese kommunizieren wiederum automatisch mit allen anderen Mapp-Bausteinen. Wenn ich es schaffe, ein Licht einfach zu parametrieren, z.B. den Winkel der Beleuchtung zu parametrieren und softwareseitig wiederholbar genau einzustellen oder Systeme in der Maschinenvisualisierung ohne ein zusätzliches Bedienterminal darstellen kann, da es Bestandteil der Visualisierung ist – dann habe ich die Usability für den Maschinenbauer deutlich vereinfacht.

Papenfort: Für die Einstellung der Kamera und die Kalibrierung brauchen wir Wizards. Das macht man nicht in den einzelnen Parametern, sondern man hat dafür entsprechende Tools, die das für einen erledigen. Für die Anwendung der Algorithmen stellen wir Funktionsbausteine zur Verfügung, die jeder SPS-Programmierer kennt. Der Programmierer muss also nicht C++ oder eine grafische Programmiersprache erlernen. Er nutzt die Programmiersprachen, die er schon aus der SPS kennt: IEC61131-3.

Munkelt: Auch Smartphone-Apps haben unterschiedliche Bedienkonzepte. Benutzerfreundlichkeit hat also verschiedene Facetten und ist ein Prozess. Dieser bedingt, dass wir Techniker stärker lernen müssen, zuzuhören, was die Anwender gut finden. Es ist nicht mehr wie vor zehn Jahren, als sie eine Oberfläche für XP geschrieben haben und die so bis in alle Ewigkeit geblieben ist. Die Investitionen, die man benötigt, um das Verständnis für die Benutzerfreundlichkeit zu erhöhen, werden immer größer. Gleichzeitig steigt aber damit auch die Akzeptanz der Systeme. Man muss unterscheiden, zwischen dem, was quasi die Algorithmik einem liefert und zwischen dem, was das Frontend zum Benutzer ist. Es gibt nicht mehr den Zwang, die One-Size-Fits-All Benutzeroberfläche zu haben. Die Anwender sind heute viel eher bereit eine neue Benutzeroberfläche zu akzeptieren, denn das sind sie bereits von ihrem Smartphone gewöhnt.

Ist es nicht gerade der Charme für die Anwender, dass er zukünftig Bildverarbeitung aus einer gewohnten SPS-Umgebung machen kann?

Munkelt: Wir alle möchten gerne das verwenden, was wir schon seit Jahren nutzen. Mir geht es aber darum, dass Ökosysteme wahnsinnig viele Aspekte vereinen. Den Spagat, den diese Systeme machen müssen, ist Anwender anzusprechen, die damit sowohl Motion Control als auch Vision-Aufgaben machen möchten.

Noffz: In der Bildverarbeitung haben wir uns bisher immer auf die Algorithmik konzentriert. Wenn wir zukünftig einen Skalierungseffekt haben wollen, müssen auch die Benutzeroberflächen nachziehen. Allerdings haben wir die Möglichkeit, beide Bereiche zu trennen, weil es im Grunde völlig verschiedene Aufgaben sind. Derjenige, der eine gute Algorithmik entwickelt, muss nicht unbedingt auch eine gute Benutzeroberfläche herstellen. Damit komme ich wieder auf OPC UA Vision. Wir haben zukünftig die Möglichkeit, über eine standardisierte Beschreibung die Ergebnisse eines Bildverarbeitungssystems zu bekommen, d.h. es gibt Firmen, die konzentrieren sich alleine auf die Algorithmik und stellen anschließend die Ergebnisse als eine Art Datenblock zur Verfügung. Daneben gibt es Firmen, die diese Blöcke in ihre Ökosysteme aufnehmen und dort in den gewohnten Nutzerumgebungen darstellen. Das ist eine geschickte Verbindung zwischen dem Algorithmik-Know-how der Bildverarbeiter und den großen Ökosystemen der Automatisierer. (peb)

B&R – Andreas Waldl, Produktmanager Integrated Machine Vision

Balluff – Rainer Schönhaar, Produktmanager Machine Vision

Beckhoff Automation – Dr. Josef Papenfort, Produktmanager Twincat

MVTec Software – Dr. Olaf Munkelt, CEO

Silicon Software – Dr. Klaus-Henning Noffz, CEO

Stemmer Imaging – Peter Keppler, Director of Corporate Sales

Seiten: 1 2Auf einer Seite lesen

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: KEB Automation KG
Bild: KEB Automation KG
Edge Devices als Basis für das IIoT im Maschinenbau

Edge Devices als Basis für das IIoT im Maschinenbau

Datenverarbeitung am Rand des Netzwerks: Edge Computing findet direkt an oder nahe einer bestimmten Datenquelle statt, um eine schnelle Analyse und Reaktion zu ermöglichen. Diese dezentrale Ergänzung zum Cloud Computing ermöglicht schnelle Reaktionszeiten für industrielle Anwendungen in der Fertigung oder Robotik. Durch Edge Computing werden Entscheidungen in Echtzeit sowie eine bessere Steuerung von Maschinen und Prozessen möglich.

mehr lesen
Bild: Insevis GmbH
Bild: Insevis GmbH
Von der S7 in die Cloud

Von der S7 in die Cloud

Insevis ist für seine Ergänzungen zur Siemens-Welt bekannt. Die Produktfamilien umfassen eigene Hutschienensteuerungen mit S7-CPUs mit und ohne Onboard-I/Os, S7-Panels ohne Windows und Verbindungen von beiden als Kompaktsysteme sowie Anbindungen an die IT-Ebene per MQTT und OPC UA.

mehr lesen

Simatic Automation Workstation

Die neue Siemens Simatic Automation Workstation ermöglicht es Herstellern, eine hardwarebasierte speicherprogrammierbare Steuerung (SPS), ein herkömmliches HMI und ein Edge-Gerät durch eine einzige, softwarebasierte Workstation zu ersetzen.

mehr lesen