Was können heutige Vision Sensoren wirklich leisten?

Bedienbarkeit im Fokus

Vor über zehn Jahren kamen die ersten Vision Sensoren auf den Markt. Seitdem hat sich einiges bei den technischen Möglichkeiten und der Bedienbarkeit der Produkte getan. Wie weit sind aber Vision Sensoren immer noch Wettbewerber zu klassischen Visionsystemen und wie sieht es mit der Usability der Geräte aus? Um dies zu klären, fand auf der SPS IPC Drives 2016 eine Podiumsdiskussion statt, bei der Vertreter der Firmen Baumer, ifm, MVTec, Sick und Stemmer Imaging teilnahmen.

P.Keppler: Wenn ich mir intelligente Kameras anschaue, kann ich dort Prüfprogramme hinterlegen, was ich beim Vision Sensor nicht kann, denn der ist für eine einzelne Aufgabe ausgelegt.

A.Behrens: Ein intelligentes Kamerasystem besteht im Wesentlichen aus Sensorik, Bildaufnahme, Rechner, Betriebssystem, sowie weiteren Komponenten wie z.B. eine Bildverarbeitungssoftware. Sie haben also eine Vielzahl an Aufgaben und Komponenten, die Sie interdisziplinär erledigen müssen. Ein Vision Sensor soll dies ein Stückchen einfacher machen, d.h. ein komplettes Produkt, mit dem Sie sehr einfach Ihre Applikation lösen können.

M.Reiter-Wassmann: Ein Vision Sensor ist typischerweise durch einen Bediener parametrierbar. Bei einer programmierbaren intelligenten Kamera muss dagegen auch ein Programmierer ans Werk.

Wie muss ein Vision Sensor aufgebaut sein, damit ihn ein Automatisierer einsetzen kann?

A.Behrens: Der Sensor muss weltweit verfügbar sein, bereits vorkonfiguriert und die nötigen Schnittstellen mitbringen.

P.Keppler: Kommunikation mit der Anlage und der SPS ist ein ganz wesentlicher Aspekt. Wie das Gerät letztendlich aufgebaut ist, ist anfangs zweitrangig.

M.Gonschior: Der Anwender benutzt heute z.B. einen induktiven Näherungsschalter und erwartet von einem Vision Sensor die gleichen Attribute in mechanischer Robustheit, die derartige Industrieprodukte mitbringen. Gleichzeitig ist der Anwender nicht in Bildverarbeitung geschult ist, sondern eher Profi in SPS- Programmierung. Ein Vision Sensor muss daher so strukturiert sein, dass dieser Anwender ihn auch ohne Backgroundwissen sofort bedienen kann.

M.Reiter-Wassmann: Weltweite Unterstützung ist ein weiterer Punkt, d.h. dass die Unternehmen einen Support anbieten müssen, um Anwender in China, USA oder woanders entsprechend unterstützen zu können.

M.Gonschior: Da würde ich widersprechen. Wenn wir richtig gute Vision Sensoren auf den Markt bringen, dann müssen diese die Einfachheit eines Sensors besitzen, d.h. man braucht keine weltweiten Spezialisten, die dem Anwender beibringen, wie das Produkt funktioniert.

Wie komplex ist heutzutage die Bedienung eines Vision Sensors?

P.Keppler: Es ist sehr einfach geworden, weil man es geschafft hat vertikale Applikationen abzubilden. Es gibt tolle Benutzeroberflächen, die es erlauben, dies alles ohne Expertenwissen zu machen. Mit einer einfachen Nutzeroberfläche kann man allerdings auch nur schwer komplexe Aufgaben lösen.

M.Gonschior: Wir sehen zunehmend, dass die Entwicklungen im Consumerbereich die Erwartungshaltung der Anwender an ein Softwareprodukt deutlich verändert. Darum haben wir eine eigene User-Experience-Abteilung aufgebaut, um die Produkte so zu gestalten, dass es unseren Kunden leicht fällt sie zu bedienen.

A.Behrens: Wir beobachten, dass die Bedienung von Vision Sensoren vielleicht doch nicht das Einfachste auf der Welt ist. Stellen Sie sich vor, sie sind ein Anwender und müssen so ein Gerät bedienen. Dann stören Sie zwei Dinge: Sie sehen zu viele Knöpfe und haben irgendwelche Programme, die sie damit bedienen müssen. Die Wahrheit ist, dass wir als Hersteller auch viele Dinge in so einen Sensor einbauen müssen, damit er in allen möglichen Anwendungen lauffähig ist. Wir brauchen mehr Freiraum, damit auch Dritte auf unseren Sensoren Lösungen entwickeln können. Es gibt mit AppSpace bei uns die Möglichkeit, individualisierte Benutzeroberflächen für spezielle Industrien zu schaffen, die dann auf einen Großteil dieser Knöpfe verzichten können.

M.Reiter-Wassmann: Das Ziel, dass man keine Spezialisten mehr braucht, verfolgen wir auch. In der Realität müssen wir aber feststellen, dass parametrierbare Sensoren das eine sind. Wie kann ich aber einen Vision Sensor parametrieren? Dazu brauche ich zunächst ein Bild, das mir zeigt, was ich prüfen will. Um dieses Bild zu bekommen, brauche ich allerdings Erfahrungen z.B. für richtige Beleuchtung usw.

P.Keppler: Bildverarbeitung war vor fünfzehn Jahre eine absolute Expertentechnologie. Wir haben aber die letzten Jahre darauf hingearbeitet, die Benutzerfreundlichkeit der Sensoren zu vereinfachen, die Geräte in kompaktere Systeme gebracht, und genau auf die jeweilige Aufgabe zugeschnitten. Wenn wir jetzt versuchen Vision Sensoren auf komplexe Aufgabenstellung runter zu brechen, dann ist es entweder zu teuer oder ein Anwendungskompromiss. Vision Sensoren sind wichtig und haben ihren Markt, aber sie lösen die klassische Bildverarbeitung nicht ab, sondern ergänzen sie.

O.Munkelt: Allerdings muss man auch die Komplexität beherrschen, die die Algorithmik in sich hat, damit man sie auch ungeschulten Anwendern anbieten kann. Es gibt bereits Bereiche, wie die Identifikationstechnologie (Lesen von Barcodes), wo das funktioniert. Aber es gibt auch andere Anwendungen, wo es noch nicht funktioniert. Nach dem Motto: Wir zeigen den Sensoren fünf Schlecht- und fünf Gutteile und der Sensor kann danach selbst entscheiden, was gut oder schlecht ist. Dort ist noch ein weiter Weg zu gehen.

Welche Rolle spielen User Interfaces damit die Geräte einfacher zu bedienen sind?

P.Keppler: Das Mobiltelefon setzt da natürlich hohe Anforderungen, was die Bedienerfreundlichkeit angeht. Die Frage, die sich Hersteller stellen müssen: Schafft man es die komplexeren Funktionen eines Sensors in einfache Bedienoberflächen einzubinden? Insbesondere weil wir bei der Bildverarbeitung am Ende immer noch mit der Physik unterwegs sind und uns auch um physikalische Effekte auf der optischen Seite Gedanken machen müssen.

Seiten: 1 2 3Auf einer Seite lesen

TeDo Verlag GmbH
http://www.sps-magazin.de

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: Fraunhofer-Institut ILT
Bild: Fraunhofer-Institut ILT
Laser-Tauchsonde sorgt für smartes Inline-Monitoring von Wasser und Abwasser

Laser-Tauchsonde sorgt für smartes Inline-Monitoring von Wasser und Abwasser

Eine neuartige laserbasierte Tauchsonde, die das Fraunhofer ILT mit Industriepartnern und Anwendern erprobt, könnte den Weg zu einem fortlaufenden Inline-Monitoring von Wasseraufbereitungsprozessen in Kläranlagen ebnen. Das 2D-Fluoreszenzmessverfahren ist in Verbindung mit einer intelligenten Auswertesoftware der Schlüssel zu einer energie- und ressourceneffizienten Wasseraufbereitung.

mehr lesen
Bild: Endress+Hauser (Deutschland) GmbH+Co. KG
Bild: Endress+Hauser (Deutschland) GmbH+Co. KG
Raman-Spektroskopie: Der molekulare Fingerabdruck

Raman-Spektroskopie: Der molekulare Fingerabdruck

Die Prozessanalyse liefert mit Hilfe verschiedener physikalischer und chemischer Messprinzipien Informationen über Stoffeigenschaften direkt aus verfahrenstechnischen Prozessen heraus. Besonders im Aufwind ist dabei die noch relativ junge Raman-Spektroskopie, mit der sich Materialeigenschaften unterschiedlicher Medien berührungslos bestimmen lassen.

mehr lesen