Was können heutige Vision Sensoren wirklich leisten?

Bedienbarkeit im Fokus

Vor über zehn Jahren kamen die ersten Vision Sensoren auf den Markt. Seitdem hat sich einiges bei den technischen Möglichkeiten und der Bedienbarkeit der Produkte getan. Wie weit sind aber Vision Sensoren immer noch Wettbewerber zu klassischen Visionsystemen und wie sieht es mit der Usability der Geräte aus? Um dies zu klären, fand auf der SPS IPC Drives 2016 eine Podiumsdiskussion statt, bei der Vertreter der Firmen Baumer, ifm, MVTec, Sick und Stemmer Imaging teilnahmen.

M.Gonschior: Die Usability ist der Schlüssel. Vision Sensoren werden für spezifische Applikationen gestaltet. Wenn es in dieser Applikation ein physikalisches Phänomen gibt, dann muss der Vision Sensor entsprechende Hilfestellung leisten, dieses Problem in den Griff zu bekommen. Wenn man die Randbedingungen dieser Applikationen kennt, kann man dem Anwender helfen, das Richtige zu tun und braucht keinen Spezialisten.

A.Behrens: Es gibt zwei Trends: Der eine sind Smartphone-Apps, also ein kleines Stückchen Programmcode, was wir bedenkenlos öffnen, ohne dass wir Angst davor haben es zu benutzen. Wenn ich so eine App für den Bediener und eine weitere für denjenigen, der die Maschine einrichtet, hätte, wären wir ein ganzes Stück weiter. Das zweite, was uns hilft, ist, dass die Bedienoberfläche mittlerweile dank Webtechnologie irgendwo sein kann und nicht zwangsweise auf dem Gerät.

Ist Deep Learning eine Technologie, die auch auf einem Vision Sensor laufen könnte?

P.Keppler: Lernfähige Algorithmen gibt es schon seit vielen Jahren und werden auch erfolgreich eingesetzt. Man braucht allerdings auch die richtigen Musterbilder, um das antrainieren zu können. Allerdings muss jemand auch festlegen, das ist gut und das schlecht. Wenn die Klassifizierung nicht funktioniert (= der Ausschluss zu groß wird), dann rächt es sich, wenn man vorher den Algorithmus nicht sauber trainiert hat. Bei einer klassischen Bildverarbeitung kann man dann immer noch ´den Regler verstellen, damit es wieder passt. Diese Algorithmen funktionieren, brauchen aber das entsprechende Expertenwissen zur Applikation und Algorithmik. Das Zusammenzuführen in eine reine Point&Click Software für einen Vision Sensor ist eine Herausforderung an das User Interface.

O.Munkelt: Heutzutage haben Vision Sensoren häufig eine ARM-Architektur, d.h. dort läuft Linux und die normale Toolchain darauf. Sie können Ihre Algorithmik implementieren und wenn der Vision Sensor zukünftig statt derzeit 1GHz dann 5GHz hat und statt acht Cores 64 zur Verfügung stellt und das auch noch bei 3,5W Leistungsaufnahme, können Sie auch andere Verfahren auf einen Vision Sensor bringen. Ich möchte meine Hand nicht dafür ins Feuer legen, wie die Welt in zehn Jahren aussieht, es ist aber durchaus möglich, dass wir dann eine Leistungsfähigkeit haben, die einem heutigen PC entspricht.

P.Keppler: Wenn wir uns bei den Chipherstellern umschauen, was es heutzutage an SoC-Varianten (System-on-Chip) gibt in Kombination mit Boards auf denen Datenprozessoren zum Rechnen drauf sind, dann ist diese Technologie bereits da. Sie ist noch nicht im Vision Sensor gelandet, aber was ist denn ein Vision Sensor? Das kann auch eine klassische nicht-intelligente Kameras sein, eine kleine Platine mit einem SoC und allen Schnittstellen drauf, die sie benötigen, und plötzlich rückt die klassische Bildverarbeitung mit ihren komplexen Algorithmen ganz nah ran an Vision Sensoren, über die wir gerade sprechen.

M.Gonschior: Wenn ich in meine Tasche fasse, habe ich mit meinem Smartphone bereits eine Art Vision Sensor. Smartphones benutzen den gleichen ARM-Prozessor, den wir auch in unseren Vision Sensoren nutzen. Die Technologieentwicklung im Consumerbereich treibt die Möglichkeiten der Vision Sensoren ständig voran. Mein Telefon liest beispielsweise QR-Codes oder erkennt bereits Gesichter, auch das ist Bildverarbeitung.

M.Reiter-Wassmann: Um nochmal auf das Beispiel zurückzukommen, bei dem der Vision Sensor entscheidet, was gut und was schlecht ist. Viele Anwender wollen verstehen, was ihr Gerät macht. Allerdings ist die Nachvollziehbarkeit bei Deep Learning schwierig.

O.Munkelt: Wenn Sie die Strecke von A nach B messen, wissen Sie, es sind 3cm. Das betrifft alle Technologien, die diese Transparenz und Nachvollziehbarkeit haben. Aber es gibt Technologien, die das nicht haben, wie alle Klassifikationstechnologien oder auch Deep Learning. Dort haben Sie ein Eingabebild, und der Computer erklärt, was er´sieht, beispielsweise ein Glas oder eine Flasche. Dann versuchen Sie das zu klassifizieren, aber was innendrin passiert, wissen Sie nicht.

M.Gonschior: Dieses Nachvollziehen hat wieder etwas mit UX-Design zu tun. Habe ich eine vernünftige Usability, stellt niemand eine Technologie in Frage. Mit meinem Telefon kann ich Visitenkarten scannen und einlesen, d.h. wenn die Aufgabe gelöst wird, und das Ergebnis stimmt, ist unwichtig, was innen passiert.

M.Reiter-Wassmann: Die Frage der Nachvollziehbarkeit kommt typischerweise dann auf, wenn es halt nicht funktioniert. Wenn beim Handy die Visitenkarte nicht sauber gelesen wird, dann probiert man es solange bis es funktioniert. In der Industrie gibt es aber meistens nur eine einzige Möglichkeit zum Klassifizieren. Wenn diese nicht funktioniert, dann fragt sich der Anwender schon, warum es nicht geklappt hat.

Wie könnte ein Vision Sensor in vier Jahren aussehen?

P.Keppler: Der Vision Sensor der Zukunft muss optimal auf die jeweilige Applikation abgestimmt sein, d.h. der Anwender muss eine unabhängige Beratung bekommen, welcher Sensor für ihn der Richtige ist.

A.Behrens: Gerade im Bereich der Sensorik gibt es sehr dynamische Entwicklungen, z.B. durch das autonome Fahren. Mittlerweile werden Anwendungen nicht nur durch 2D/3D-Systeme gelöst, sondern auch mittels Lidar. Die Erfassung von 3D-Punktewolken hat einen ganz anderen Kontext bekommen, und wird Applikationen ermöglichen, die heute noch gar nicht absehbar sind.

M.Reiter-Wassmann: Insgesamt wird die Leistungsfähigkeit der Geräte weiter zunehmen. Am Ende braucht es aber einen guten Kompromiss aus Kosten und Flexibilität, damit auch die entsprechende Marktbreite erreicht wird. Zudem muss ein Vision Sensor auch Kommunikationsstandards wie Profinet oder OPC UA integriert haben.

M.Gonschior: Ich würde soweit gehen zu sagen, dass der Vision Sensor selbst mit Hilfe seines User Interface den Kunden so beraten muss, dass dieser seine Applikationen sicher lösen kann.

www.baumer.com

www.ifm.com

www.mvtec.com

www.sick.de

www.stemmer-imaging.de

Marco Reiter-Wassmann, Vertriebsleiter Vision

Technologies, Baumer GmbH

Mike Gonschior, Produktmanager Objekterkennung,

Kamerasysteme & PMD, ifm electronic

Dr. Olaf Munkelt, CEO, MVTec Software

Andreas Behrens, Head of Marketing&Sales

Barcode-RFID-Vision, Sick AG

Peter Keppler, Director of Corporate Sales,

Stemmer Imaging

Seiten: 1 2 3Auf einer Seite lesen

TeDo Verlag GmbH
http://www.sps-magazin.de

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: Indu-Sol GmbH
Bild: Indu-Sol GmbH
Zehn Messwerte auf einen Streich

Zehn Messwerte auf einen Streich

Der Multifunktionssensor für die vorausschauende Instandhaltung von Indu-Sol mit der Bezeichnung Sieds vereint Sensorik, Datenverarbeitung und Netzwerkkommunikation in einem kompakten und robusten IP65-Gehäuse. Er ist darauf ausgelegt, zehn physikalische Parameter zu messen, die die Verfügbarkeit von Anlagen beeinflussen.

mehr lesen
Bild: IPF Electronic GmbH
Bild: IPF Electronic GmbH
Mehr als nur robust

Mehr als nur robust

Induktive Sensoren werden vor allem aufgrund ihrer Nehmerqualitäten für den harten Industrieeinsatz geschätzt. Reichen Robustheit und damit auch eine höhere Temperaturbeständigkeit als Eigenschaften allein nicht aus, können sogenannte klimawechselfeste Sensoren von IPF Electronic echte Alternativen sein, wie die Erfahrungen der IBS Paper Performance Group zeigen.

mehr lesen