Highspeed-Zählen

Eine Machbarkeitsstudie von Imago Technologies für eine Applikation auf Grundlage der Event-based Vision-Technologie von Prophesee zeigt, dass Gelkapseln bei hohen Geschwindigkeiten auch dann gezählt werden können, wenn konventionelle Kameras bei transparenten, kontrastarmen Zählobjekten an ihre Grenze kommen.
Bild 1 | Event-based Vision erkennt transparente 
Gelkapseln sicher als einzelne Objekte. Die Gelkapseln fallen aus einer Vibrationsrinne und werden mit hoher Geschwindigkeit von einer Zeilenkamera gezählt.
Bild 1 | Event-based Vision erkennt transparente Gelkapseln sicher als einzelne Objekte. Die Gelkapseln fallen aus einer Vibrationsrinne und werden mit hoher Geschwindigkeit von einer Zeilenkamera gezählt. Bild: Imago Technologies GmbH

Mit der Event-based Kamera Vision Cam EB hat Imago Technologies ein System entwickelt, mit dem Industriekunden bereits Bewegungsanalysen von Objekten umsetzen oder das Verhalten von schnellen Flüssigkeiten analysieren können. Event-basierte Bildsensoren zeichnen dabei mit hoher Geschwindigkeit Veränderungen in einer Szene auf, anstatt Prüfobjekte Bild für Bild zu erfassen, d.h. dass Event-basierte Algorithmen Objekte auch bei sehr hohen Geschwindigkeiten verfolgen können.

Bild 2 | Gelkapseln werden von der Software im Durchlichtverfahren nicht zweifelsfrei als einzelne Objekte identifiziert und daher nicht fehlerfrei gezählt.
Bild 2 | Gelkapseln werden von der Software im Durchlichtverfahren nicht zweifelsfrei als einzelne Objekte identifiziert und daher nicht fehlerfrei gezählt.Bild: Imago Technologies GmbH

Bis zu 3.000 Tabletten/min

Highspeed-Zählautomaten zählen Kapseln, Tabletten und Dragees bei Geschwindigkeiten von bis zu 3.000 Tabletten pro Minute. Die Zählmaschinen kontrollieren Füllmengen und sorgen so dafür, dass die Inhalte von Schraubflaschen, Gläschen und Blisterverpackungen exakt der Mengenangabe auf dem Etikett entsprechen. Für das Zählen eingesetzte Zeilenkamerasysteme erlauben im Durchlichtverfahren eine absolut fehlerfreie und kontinuierliche Zählung auch dann, wenn Tabletten und Dragees eng aneinander liegend herunterfallen. Das Verfahren kommt jedoch bei Gelkapseln an seine Grenzen. Das transparente, kontrastarme Prüfobjekt kann nicht zweifelsfrei als einzelnes Objekt erkannt werden. In Bild 3 ist zu sehen, dass die herunterfallenden Gelkapseln als sich drehende Linsen zwischen Beleuchtung und Kamera erscheinen. Der Algorithmus kann nicht unterscheiden, ob es sich bei aneinander liegenden Prüfobjekten um die obere und untere Hälfte einer Kapsel oder um zwei unterschiedliche Kapseln handelt. Hier kommen nun die Vorteile eines Event-based Vision Systems ins Spiel: Generell eignet sich die Technologie für das schnelle Zählen von Objekten. Die Systemkosten liegen dabei im Vergleich des für Highspeed Anwendungen meist erforderlichen Hochleistungsrechners und Kamera nur bei der Hälfte oder einem Drittel der bisherigen Kosten.

Events statt Bilder

Event-based Vision beschreibt ein völlig neues Konzept, um schnelle Vorgänge zu analysieren. Es unterscheidet sich grundlegend von typischen Kamerasensoren, die mit einer bestimmten Wiederholrate Bilder liefern und diese anschließend ausgewertet werden. Der Kamerasensor der Vision Cam EB reagiert pixel-individuell nur auf Bewegungsänderungen und reduziert dadurch redundante Daten. Dies erlaubt schnellste Bewegungsanalysen und Klassifikationen. Durch die hohe Datenreduktion können selbst Highspeed Applikationen auf dem in die Kamera integrierten Linux-Rechner ablaufen. Bewegt sich vor einer Vision Cam EB eine Gelkapsel, so sind mehr als 300.000 Pixel in der Lage, dieses Ereignis zu erfassen und Events auszulösen. Der Event-based Chip ist direkt mit dem in die Vision Cam EB integrierten Doppelkernprozessor mit ARM-Architektur und Linux-Betriebssystem verbunden. Im Gegensatz zu herkömmlichen Visionsystemen wird bei dieser Architektur nicht mehr Bild für Bild in einem Speicher abgelegt und anschließend mit Hilfe geeigneter Algorithmik ausgewertet. Im Arbeitsspeicher werden vielmehr kontinuierlich Events gespeichert, versehen mit Koordinaten und Zeitstempel. Bei Event-Based Vision spricht man im Vergleich zur Bildverarbeitung nicht mehr von Bildern, sondern von 2D-Signalverarbeitung. Die Kunst der Mathematik besteht darin, die gespeicherten Events zu interpretieren. Damit die Mathematik für eine Reihe von Anwendungen einfacher wird, liefert der Sensorhersteller Prophesee eine Bibliothek mit. Diese kann zum Beispiel für Zählapplikationen eingesetzt werden. Zudem kann jeder Anwender eigene Algorithmen implementieren.

Das könnte Sie auch Interessieren

Weitere Beiträge

Hochpräzise Synchronisation

Letztes Jahr hat Beckhoff Automation sein Bildverarbeitungsprogramm für die Steuerungs-integrierte Bildverarbeitung rund um Twincat Vision mit eigenen Hardwarekomponenten erweitert. Das SPS-MAGAZIN sprach mit Bernd Stöber, Senior Produktmanager Vision, über die Besonderheiten dieser Komponenten und den damit verbunden Möglichkeiten für die Automatisierung.

mehr lesen
Bild: Pepperl+Fuchs SE
Bild: Pepperl+Fuchs SE
Ohne Schatteneffekte

Ohne Schatteneffekte

Wie viele Pakete liegen auf dem Eingangsförderband? Mit dem Sensorsystem Contour2D von Pepperl+Fuchs lässt sich der Belegungsgrad genau bestimmen. Das System kommt mit einem einzigen Lidar-Sensor und einer speziell entwickelten Auswerteeinheit aus. Schatteneffekte werden dank hoher Winkelauflösung korrigiert, um eine zuverlässige Erfassung zu gewährleisten.

mehr lesen

Grafische Vereinfachung

Komplexe Vision-Applikationen lassen sich mit dem B&R-System nun noch einfacher umsetzen. Möglich wird dies durch einen neuen grafischen Editor in der Software Automation Studio. Klassische Programmierarbeit ist dann nicht mehr notwendig.

mehr lesen