Was können heutige Vision Sensoren wirklich leisten?

Bedienbarkeit im Fokus

Vor über zehn Jahren kamen die ersten Vision Sensoren auf den Markt. Seitdem hat sich einiges bei den technischen Möglichkeiten und der Bedienbarkeit der Produkte getan. Wie weit sind aber Vision Sensoren immer noch Wettbewerber zu klassischen Visionsystemen und wie sieht es mit der Usability der Geräte aus? Um dies zu klären, fand auf der SPS IPC Drives 2016 eine Podiumsdiskussion statt, bei der Vertreter der Firmen Baumer, ifm, MVTec, Sick und Stemmer Imaging teilnahmen.

Was ist ein Vision Sensor?

Mike Gonschior (ifm): Ein Vision Sensor ist der Versuch, Bildverarbeitung für mehr Anwender zugänglich zu machen.

Andreas Behrens (Sick): Vor zehn Jahren hätte ich gesagt, er muss smart und kompakt sein sowie alles können. Heute gibt es verschiedene Arten von Vision Sensoren. Auf der einen Seite einen einfachen Sensor, wie einen Code-Reader, dann Tool-orientierte Sensoren, die konfigurierbar sind sowie programmierbare Vision Sensoren, mit denen deutlich mehr möglich ist. Also angepasste Modelle, für die jeweiligen Benutzer.

Peter Keppler (Stemmer Imaging): In Wikipedia steht, dass es ein integriertes Visionsystem mit vordefinierten Algorithmen ist. Ein Sensor also, der für eine spezielle Aufgabe ausgelegt ist. Man muss also tatsächlich eine Grenze zu klassischen Visionsystemen ziehen, denn freiprogrammierbare Systeme sprechen ein ganz anderes Nutzerklientel an.

Marco Reiter-Wassmann (Baumer): Der Vision Sensor ist im Wesentlichen ein komplettes Bildverarbeitungssystem im Sensorformat, das an die Sensorik angepasst ist und von typische Sensorkunden bedient werden kann.

Wo sind die Grenzen eines Vision Sensors?

Olaf Munkelt (MVTec): Bildverarbeitungssysteme werden dort eingesetzt, wo große Datenmengen anfallen, große Bilder benötigt werden und entsprechende Rechenpower gebraucht wird. Dies sind Anwendungen, die ein Vision Sensor nicht lösen kann und wofür man PC-basierte Lösungen benötigt.

A.Behrens: Überall dort, wo ich mehrere Sensoren zusammenbringe, um eine Aufgabe zu lösen – Stichwort Sensorfusion – steht ein Bildverarbeitungssystem im Vordergrund.

P.Keppler: Wenn wir uns klassische Sensoren anschauen, sind das Produkte, die eine spezielle Aufgabe haben. Genau das versuchen wir mit Vision Sensoren nachzubilden, eine ganz spezielle Aufgabe zu lösen. Dagegen kann man mit einem Bildverarbeitungssystem eine Vielzahl von Einzelprüfungen mit einem einzigen System flexibel konfigurieren.

M.Gonschior: Die Grenzen sind nach oben, aber auch nach unten fließend. Die Frage ist: Welche Applikationen kann ich mit einem Vision Sensor schneller und robuster lösen als bisher? Wo kann er die Arbeit erleichtern bzw. Nutzen bieten? Das muss nicht zwangsweise die Ablösung einer existierenden Bildverarbeitungslösung sein, sondern kann auch der Ersatz einer Sensor-basierten Lösung bzw. einer alten Technologie sein.

M.Reiter-Wassmann: Wir sehen die Grenze dort, wo viele Sensoren in einem kleinen Raum eingesetzt werden. Wenn acht oder mehr Vision Sensoren benötigt werden, kann am Ende auch eine PC-Lösung mit Kameras die kommerziell sinnvollere Alternative sein.

Ist eine Unterscheidung zwischen einem Vision Sensor und einer intelligenter Kamera noch möglich?

M.Gonschior: Da sind die Grenzen sehr fließend. Es gibt keine klare Definition mehr. Ein Vision Sensor ist eine intelligente Kamera.

P.Keppler: Wenn ich mir intelligente Kameras anschaue, kann ich dort Prüfprogramme hinterlegen, was ich beim Vision Sensor nicht kann, denn der ist für eine einzelne Aufgabe ausgelegt.

A.Behrens: Ein intelligentes Kamerasystem besteht im Wesentlichen aus Sensorik, Bildaufnahme, Rechner, Betriebssystem, sowie weiteren Komponenten wie z.B. eine Bildverarbeitungssoftware. Sie haben also eine Vielzahl an Aufgaben und Komponenten, die Sie interdisziplinär erledigen müssen. Ein Vision Sensor soll dies ein Stückchen einfacher machen, d.h. ein komplettes Produkt, mit dem Sie sehr einfach Ihre Applikation lösen können.

M.Reiter-Wassmann: Ein Vision Sensor ist typischerweise durch einen Bediener parametrierbar. Bei einer programmierbaren intelligenten Kamera muss dagegen auch ein Programmierer ans Werk.

Wie muss ein Vision Sensor aufgebaut sein, damit ihn ein Automatisierer einsetzen kann?

A.Behrens: Der Sensor muss weltweit verfügbar sein, bereits vorkonfiguriert und die nötigen Schnittstellen mitbringen.

P.Keppler: Kommunikation mit der Anlage und der SPS ist ein ganz wesentlicher Aspekt. Wie das Gerät letztendlich aufgebaut ist, ist anfangs zweitrangig.

M.Gonschior: Der Anwender benutzt heute z.B. einen induktiven Näherungsschalter und erwartet von einem Vision Sensor die gleichen Attribute in mechanischer Robustheit, die derartige Industrieprodukte mitbringen. Gleichzeitig ist der Anwender nicht in Bildverarbeitung geschult ist, sondern eher Profi in SPS- Programmierung. Ein Vision Sensor muss daher so strukturiert sein, dass dieser Anwender ihn auch ohne Backgroundwissen sofort bedienen kann.

M.Reiter-Wassmann: Weltweite Unterstützung ist ein weiterer Punkt, d.h. dass die Unternehmen einen Support anbieten müssen, um Anwender in China, USA oder woanders entsprechend unterstützen zu können.

M.Gonschior: Da würde ich widersprechen. Wenn wir richtig gute Vision Sensoren auf den Markt bringen, dann müssen diese die Einfachheit eines Sensors besitzen, d.h. man braucht keine weltweiten Spezialisten, die dem Anwender beibringen, wie das Produkt funktioniert.

Wie komplex ist heutzutage die Bedienung eines Vision Sensors?

P.Keppler: Es ist sehr einfach geworden, weil man es geschafft hat vertikale Applikationen abzubilden. Es gibt tolle Benutzeroberflächen, die es erlauben, dies alles ohne Expertenwissen zu machen. Mit einer einfachen Nutzeroberfläche kann man allerdings auch nur schwer komplexe Aufgaben lösen.

M.Gonschior: Wir sehen zunehmend, dass die Entwicklungen im Consumerbereich die Erwartungshaltung der Anwender an ein Softwareprodukt deutlich verändert. Darum haben wir eine eigene User-Experience-Abteilung aufgebaut, um die Produkte so zu gestalten, dass es unseren Kunden leicht fällt sie zu bedienen.

A.Behrens: Wir beobachten, dass die Bedienung von Vision Sensoren vielleicht doch nicht das Einfachste auf der Welt ist. Stellen Sie sich vor, sie sind ein Anwender und müssen so ein Gerät bedienen. Dann stören Sie zwei Dinge: Sie sehen zu viele Knöpfe und haben irgendwelche Programme, die sie damit bedienen müssen. Die Wahrheit ist, dass wir als Hersteller auch viele Dinge in so einen Sensor einbauen müssen, damit er in allen möglichen Anwendungen lauffähig ist. Wir brauchen mehr Freiraum, damit auch Dritte auf unseren Sensoren Lösungen entwickeln können. Es gibt mit AppSpace bei uns die Möglichkeit, individualisierte Benutzeroberflächen für spezielle Industrien zu schaffen, die dann auf einen Großteil dieser Knöpfe verzichten können.

M.Reiter-Wassmann: Das Ziel, dass man keine Spezialisten mehr braucht, verfolgen wir auch. In der Realität müssen wir aber feststellen, dass parametrierbare Sensoren das eine sind. Wie kann ich aber einen Vision Sensor parametrieren? Dazu brauche ich zunächst ein Bild, das mir zeigt, was ich prüfen will. Um dieses Bild zu bekommen, brauche ich allerdings Erfahrungen z.B. für richtige Beleuchtung usw.

P.Keppler: Bildverarbeitung war vor fünfzehn Jahre eine absolute Expertentechnologie. Wir haben aber die letzten Jahre darauf hingearbeitet, die Benutzerfreundlichkeit der Sensoren zu vereinfachen, die Geräte in kompaktere Systeme gebracht, und genau auf die jeweilige Aufgabe zugeschnitten. Wenn wir jetzt versuchen Vision Sensoren auf komplexe Aufgabenstellung runter zu brechen, dann ist es entweder zu teuer oder ein Anwendungskompromiss. Vision Sensoren sind wichtig und haben ihren Markt, aber sie lösen die klassische Bildverarbeitung nicht ab, sondern ergänzen sie.

O.Munkelt: Allerdings muss man auch die Komplexität beherrschen, die die Algorithmik in sich hat, damit man sie auch ungeschulten Anwendern anbieten kann. Es gibt bereits Bereiche, wie die Identifikationstechnologie (Lesen von Barcodes), wo das funktioniert. Aber es gibt auch andere Anwendungen, wo es noch nicht funktioniert. Nach dem Motto: Wir zeigen den Sensoren fünf Schlecht- und fünf Gutteile und der Sensor kann danach selbst entscheiden, was gut oder schlecht ist. Dort ist noch ein weiter Weg zu gehen.

Welche Rolle spielen User Interfaces damit die Geräte einfacher zu bedienen sind?

P.Keppler: Das Mobiltelefon setzt da natürlich hohe Anforderungen, was die Bedienerfreundlichkeit angeht. Die Frage, die sich Hersteller stellen müssen: Schafft man es die komplexeren Funktionen eines Sensors in einfache Bedienoberflächen einzubinden? Insbesondere weil wir bei der Bildverarbeitung am Ende immer noch mit der Physik unterwegs sind und uns auch um physikalische Effekte auf der optischen Seite Gedanken machen müssen.

M.Gonschior: Die Usability ist der Schlüssel. Vision Sensoren werden für spezifische Applikationen gestaltet. Wenn es in dieser Applikation ein physikalisches Phänomen gibt, dann muss der Vision Sensor entsprechende Hilfestellung leisten, dieses Problem in den Griff zu bekommen. Wenn man die Randbedingungen dieser Applikationen kennt, kann man dem Anwender helfen, das Richtige zu tun und braucht keinen Spezialisten.

A.Behrens: Es gibt zwei Trends: Der eine sind Smartphone-Apps, also ein kleines Stückchen Programmcode, was wir bedenkenlos öffnen, ohne dass wir Angst davor haben es zu benutzen. Wenn ich so eine App für den Bediener und eine weitere für denjenigen, der die Maschine einrichtet, hätte, wären wir ein ganzes Stück weiter. Das zweite, was uns hilft, ist, dass die Bedienoberfläche mittlerweile dank Webtechnologie irgendwo sein kann und nicht zwangsweise auf dem Gerät.

Ist Deep Learning eine Technologie, die auch auf einem Vision Sensor laufen könnte?

P.Keppler: Lernfähige Algorithmen gibt es schon seit vielen Jahren und werden auch erfolgreich eingesetzt. Man braucht allerdings auch die richtigen Musterbilder, um das antrainieren zu können. Allerdings muss jemand auch festlegen, das ist gut und das schlecht. Wenn die Klassifizierung nicht funktioniert (= der Ausschluss zu groß wird), dann rächt es sich, wenn man vorher den Algorithmus nicht sauber trainiert hat. Bei einer klassischen Bildverarbeitung kann man dann immer noch ´den Regler verstellen, damit es wieder passt. Diese Algorithmen funktionieren, brauchen aber das entsprechende Expertenwissen zur Applikation und Algorithmik. Das Zusammenzuführen in eine reine Point&Click Software für einen Vision Sensor ist eine Herausforderung an das User Interface.

O.Munkelt: Heutzutage haben Vision Sensoren häufig eine ARM-Architektur, d.h. dort läuft Linux und die normale Toolchain darauf. Sie können Ihre Algorithmik implementieren und wenn der Vision Sensor zukünftig statt derzeit 1GHz dann 5GHz hat und statt acht Cores 64 zur Verfügung stellt und das auch noch bei 3,5W Leistungsaufnahme, können Sie auch andere Verfahren auf einen Vision Sensor bringen. Ich möchte meine Hand nicht dafür ins Feuer legen, wie die Welt in zehn Jahren aussieht, es ist aber durchaus möglich, dass wir dann eine Leistungsfähigkeit haben, die einem heutigen PC entspricht.

P.Keppler: Wenn wir uns bei den Chipherstellern umschauen, was es heutzutage an SoC-Varianten (System-on-Chip) gibt in Kombination mit Boards auf denen Datenprozessoren zum Rechnen drauf sind, dann ist diese Technologie bereits da. Sie ist noch nicht im Vision Sensor gelandet, aber was ist denn ein Vision Sensor? Das kann auch eine klassische nicht-intelligente Kameras sein, eine kleine Platine mit einem SoC und allen Schnittstellen drauf, die sie benötigen, und plötzlich rückt die klassische Bildverarbeitung mit ihren komplexen Algorithmen ganz nah ran an Vision Sensoren, über die wir gerade sprechen.

M.Gonschior: Wenn ich in meine Tasche fasse, habe ich mit meinem Smartphone bereits eine Art Vision Sensor. Smartphones benutzen den gleichen ARM-Prozessor, den wir auch in unseren Vision Sensoren nutzen. Die Technologieentwicklung im Consumerbereich treibt die Möglichkeiten der Vision Sensoren ständig voran. Mein Telefon liest beispielsweise QR-Codes oder erkennt bereits Gesichter, auch das ist Bildverarbeitung.

M.Reiter-Wassmann: Um nochmal auf das Beispiel zurückzukommen, bei dem der Vision Sensor entscheidet, was gut und was schlecht ist. Viele Anwender wollen verstehen, was ihr Gerät macht. Allerdings ist die Nachvollziehbarkeit bei Deep Learning schwierig.

O.Munkelt: Wenn Sie die Strecke von A nach B messen, wissen Sie, es sind 3cm. Das betrifft alle Technologien, die diese Transparenz und Nachvollziehbarkeit haben. Aber es gibt Technologien, die das nicht haben, wie alle Klassifikationstechnologien oder auch Deep Learning. Dort haben Sie ein Eingabebild, und der Computer erklärt, was er´sieht, beispielsweise ein Glas oder eine Flasche. Dann versuchen Sie das zu klassifizieren, aber was innendrin passiert, wissen Sie nicht.

M.Gonschior: Dieses Nachvollziehen hat wieder etwas mit UX-Design zu tun. Habe ich eine vernünftige Usability, stellt niemand eine Technologie in Frage. Mit meinem Telefon kann ich Visitenkarten scannen und einlesen, d.h. wenn die Aufgabe gelöst wird, und das Ergebnis stimmt, ist unwichtig, was innen passiert.

M.Reiter-Wassmann: Die Frage der Nachvollziehbarkeit kommt typischerweise dann auf, wenn es halt nicht funktioniert. Wenn beim Handy die Visitenkarte nicht sauber gelesen wird, dann probiert man es solange bis es funktioniert. In der Industrie gibt es aber meistens nur eine einzige Möglichkeit zum Klassifizieren. Wenn diese nicht funktioniert, dann fragt sich der Anwender schon, warum es nicht geklappt hat.

Wie könnte ein Vision Sensor in vier Jahren aussehen?

P.Keppler: Der Vision Sensor der Zukunft muss optimal auf die jeweilige Applikation abgestimmt sein, d.h. der Anwender muss eine unabhängige Beratung bekommen, welcher Sensor für ihn der Richtige ist.

A.Behrens: Gerade im Bereich der Sensorik gibt es sehr dynamische Entwicklungen, z.B. durch das autonome Fahren. Mittlerweile werden Anwendungen nicht nur durch 2D/3D-Systeme gelöst, sondern auch mittels Lidar. Die Erfassung von 3D-Punktewolken hat einen ganz anderen Kontext bekommen, und wird Applikationen ermöglichen, die heute noch gar nicht absehbar sind.

M.Reiter-Wassmann: Insgesamt wird die Leistungsfähigkeit der Geräte weiter zunehmen. Am Ende braucht es aber einen guten Kompromiss aus Kosten und Flexibilität, damit auch die entsprechende Marktbreite erreicht wird. Zudem muss ein Vision Sensor auch Kommunikationsstandards wie Profinet oder OPC UA integriert haben.

M.Gonschior: Ich würde soweit gehen zu sagen, dass der Vision Sensor selbst mit Hilfe seines User Interface den Kunden so beraten muss, dass dieser seine Applikationen sicher lösen kann.

www.baumer.com

www.ifm.com

www.mvtec.com

www.sick.de

www.stemmer-imaging.de

Marco Reiter-Wassmann, Vertriebsleiter Vision

Technologies, Baumer GmbH

Mike Gonschior, Produktmanager Objekterkennung,

Kamerasysteme & PMD, ifm electronic

Dr. Olaf Munkelt, CEO, MVTec Software

Andreas Behrens, Head of Marketing&Sales

Barcode-RFID-Vision, Sick AG

Peter Keppler, Director of Corporate Sales,

Stemmer Imaging

TeDo Verlag GmbH
http://www.sps-magazin.de

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: Indu-Sol GmbH
Bild: Indu-Sol GmbH
Zehn Messwerte auf einen Streich

Zehn Messwerte auf einen Streich

Der Multifunktionssensor für die vorausschauende Instandhaltung von Indu-Sol mit der Bezeichnung Sieds vereint Sensorik, Datenverarbeitung und Netzwerkkommunikation in einem kompakten und robusten IP65-Gehäuse. Er ist darauf ausgelegt, zehn physikalische Parameter zu messen, die die Verfügbarkeit von Anlagen beeinflussen.

mehr lesen
Bild: IPF Electronic GmbH
Bild: IPF Electronic GmbH
Mehr als nur robust

Mehr als nur robust

Induktive Sensoren werden vor allem aufgrund ihrer Nehmerqualitäten für den harten Industrieeinsatz geschätzt. Reichen Robustheit und damit auch eine höhere Temperaturbeständigkeit als Eigenschaften allein nicht aus, können sogenannte klimawechselfeste Sensoren von IPF Electronic echte Alternativen sein, wie die Erfahrungen der IBS Paper Performance Group zeigen.

mehr lesen