Lohnen sich Big-Data-Analysen für den Anwender

Smart statt Big data?

Das Thema Big-Data-Analysen geistert schon lange durch die Branche. Doch lohnen sich diese Verfahren in Zeiten einer Industrie 4.0 wirklich und kann der Anwender diese komplexen Systeme und Algorithmen überhaupt selber bedienen? Das SPS-MAGAZIN sprach über diese Problematiken mit Rahman Jamal, Global Technology & Marketing Director bei National Instruments (NI).

Was verstehen Sie unter Big Data?

Rahman Jamal: Bekanntlich ist die physikalische Welt die größte Datenquelle. Diese Daten sind allesamt analoger Natur, die dann in digitale Signale umgewandelt werden. Daher sprechen wir bei NI von Big Analog Data. Bei den Datenquellen handelt es sich z.B. um Maschinen, aber auch um Naturphänomene, die Licht, Radiowellen, Magnetismus, Spannung, Schallwellen usw. erzeugen. Diese Art von Big Data ist älter, schneller und umfangreicher als jede andere Art von Daten und heutige Ingenieure und Wissenschaftler müssen sie gut interpretieren können, um daraus einen Nutzen für ihr Unternehmen zu ziehen. Die Daten müssen die Anwender natürlich selbst erfassen, aber NI kann sie dabei unterstützen, diese Daten in Erkenntnisse umzuwandeln und einen maximalen Nutzen daraus zu ziehen.

Welche Vorteile ergeben sich aus der Analyse von Big Data?

Jamal: Prognosen sind bekanntermaßen schwierig. Doch würden Unternehmen davon profitieren, könnten sie durch Vorhersagen drohende Maschinenausfallzeiten erkennen, die Sicherheit ihres Personales sicherstellen oder die Effizienz ihrer Betriebsabläufe verbessern. Sinnvoll wäre also eine Vernetzung aller Geräte innerhalb des Unternehmens, um die richtigen Daten den richtigen Personen zur rechten Zeit vorzulegen zu können. Nur dies erlaubt es, auf Basis dieser Daten fundierte Entscheidungen zu fällen. Durch Analysen und die Steuerung und Regelung von Sensoren und Aktoren bereits in einem frühen Stadium des Lebenszyklus der Daten können Unternehmen schneller Nutzen aus den Daten ziehen. Wir adressieren dies mit unserer Hard- und Softwareplattform zur Erfassung von Informationen verschiedener Quellen und Arten, die es gestattet, die Analysen näher am Sensor durchzuführen und irrelevante Informationen bereits vorab herauszufiltern. Dies wiederum minimiert die Speicherüberlastung zentraler Server und führt schneller zu Erkenntnissen.

Rechnet sich für den Anwender überhaupt der Aufwand, um alle Daten erfassen zu können?

Jamal: Absolut! Gerade in der heutigen Zeit des Internet of Things, das aus tausenden von Sensoren mit noch nie dagewesener Embedded-Intelligenz besteht. Diese Sensoren wiederum erfassen Unmengen an Big Analog Data, die sie über extrem schnelle Drahtlosnetzwerke weiterleiten. So kann die richtige Information zur rechten Zeit zur Verfügung stehen, was es dem Anwender wie erwähnt ermöglicht, die richtige Entscheidung zu treffen. Dies wird am Ende ausschlaggebend sein, will man die Nase vorn haben. Außerdem müssen Sie bedenken, welche Kosten sich hinter falsch angewandter Datenverwaltung verstecken. Man mag vielleicht mit dem momentanen Resultat der Datenanalyse und -auswertung zufrieden sein. Hat man die Daten jedoch nicht ordentlich aufbereitet, wird es unmöglich sein, mit künftigen Anforderungen Schritt halten zu können. Eine heute getätigte Investition wird dem Anwender nicht nur einen Wettbewerbsvorteil bringen, sondern ihm auch viele Kopfschmerzen ersparen.

Welche Produkte zur Datenanalyse hat NI im Programm?

Jamal: Eine Big-Analog-Data-Lösung basiert auf einer Architektur, die auf drei Säulen fußt. Die Kombination dieser drei Säulen resultiert in einer integrierten Lösung, die sich im gesamten Zyklus von der Datenerfassung (durch den Sensor) bis hin zur Entscheidungsfindung auf Basis dieser Daten nutzen lässt. Die erste Säule bilden die Sensoren. Der erste Schritt zu einer datenbasierten Entscheidung liegt darin, die Daten exakt zu erfassen. Da die Datenquellen analoger Daten so unterschiedlich sein können, braucht jedes System entsprechende spezifische Sensoren und Aktoren, die dem jeweiligen zu messenden Naturphänomen entsprechen. Die Systemknoten bilden den zweiten Pfeiler der Big-Analog-Data-Architektur. Hierbei handelt es sich um ein Schlüsselelement einer durchgängigen Lösung, denn diese Systeme (wie etwa Compact, PXI, und CompactDAQ) unterstützen den Anwender dabei, die Vorteile präziser Datenerfassung mit denen der tiefgreifenden Datenanalyse zu kombinieren – und zwar in Echtzeit oder zeitnah nach der Erfassung der Daten. Bei diesen Systemknoten handelt es sich um über ein Netzwerk miteinander verbundene Hardware (mit dazugehöriger Software), die sich um die A/D-Wandlung, Signalkonditionierung, frühe Analyse und Weiterleitung der erfassten Daten kümmert. Haben die Daten diesen Teil durchlaufen, gelangen sie über das Edge hinweg an Säule Nummer drei: In der Regel treffen sie auf ein Netzwerk-Schaltmodul und werden anschließend an den Server weitergeleitet, wo sie gespeichert und evtl. weiteren Analysen unterzogen werden. Dies ist dann der Punkt, an dem der Anwender Nutzen aus den erfassten Daten ziehen kann und an dem dann letztendlich datenbasierte Entscheidungen getroffen werden – seien sie technischer, wissenschaftlicher oder gar geschäftlicher Natur. Auch befindet sich in diesem Pfeiler die Cloud, die sich stets wachsender Beliebtheit bei den Anwendern erfreut.

Ist der Anwender wirklich in der Lage aus dieser Datenflut die richtigen Schlüsse zu ziehen, oder benötigt er Hilfe?

Jamal: Bevor die richtigen Schlüsse aus den Daten gezogen werden, müssen diese erst einmal ausgewertet und in erster Linie auch auffindbar sein. Fast notorisch ist das Versäumnis, schon bei der Testvorbereitung und -durchführung Vorkehrungen für die effiziente Nutzung der erfassten Daten zu treffen. Allzu oft werden Messdaten und simulierte Daten ohne beschreibende Zusatzinformationen in diversen Dateiformaten verteilt auf Festplatten und Netzlaufwerken gespeichert. So entsteht schnell ein Datenfriedhof, aus dem sich nur mühsam die Datensätze extrahieren lassen, die Ingenieure für ihre tägliche Arbeit benötigen. Lassen sich Datensätze nicht finden, dann müssen Tests oder Simulationen neu erstellt werden. Ein Rückgang an Effizienz und erheblich steigende Entwicklungskosten sind die Folge. Um diesen Herausforderungen zu begegnen, hat NI eine Lösung definiert: das TDM-Dateiformat (Technical Data Management). Darin sind drei Komponenten enthalten: (a) Das offene TDMS-Dateiformat zum Speichern umfassend dokumentierter Messdaten, (b) der DataFinder zum schnellen Auffinden zuvor gespeicherter Datensätze und (c) das LabVIEW DataFinder Toolkit zur Verarbeitung von Daten und zum Erstellen von Berichten. Der erste Schritt zu einer einheitlichen Lösung für das Datenmanagement besteht darin, sicherzustellen, dass Daten so effizient, organisiert und skalierbar als möglich gespeichert werden.

Wäre es nicht sinnvoller dem Anwender statt Big Data gleich Smart Data zu liefern, d.h. bereits fertige Ergebnisse?

Jamal: Eine manuelle Auswertung solch einer Unmenge an Daten erfordert einen erheblichen Zeit- und somit Kostenaufwand. Wäre man aber in der Lage, einige der Arbeitsschritte zu automatisieren, könnte man nicht nur Zeit und Kosten sparen, sondern sich vor allem auf die eigentliche Aufgabe konzentrieren, nämlich die Interpretation der Analyseergebnisse. Eine Automatisierung gewisser Arbeitsabläufe bietet sich vor allem für immer wiederkehrende identische Bedienschritte an. Genau das war der Gedanke hinter einigen Funktionen. So gibt es etwa eine Makroaufzeichnungsfunktion zur Erstellung von VBS-Scripten für sequenzielle Analyse- und Berichterstellungsaufgaben. Auch die Scripterstellung zum Abrufen und Speichern der Daten sowie umfassende Funktionen für den Datenaustausch über SQL/ODBC, ASAM-ODS und andere Protokolle erübrigen einige manuelle Arbeitsschritte. Außerdem lassen sich anwenderspezifischer Funktionen erstellen und sogar als DIAdem-Standardfunktionen nutzen u.v.m.

National Instruments Germany GmbH
http://www.ni.com

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: SSP Safety System Products GmbH & Co. KG / Indikar
Bild: SSP Safety System Products GmbH & Co. KG / Indikar
So wird eine Warmpressanlage mit Sicherheitstechnik abgesichert

So wird eine Warmpressanlage mit Sicherheitstechnik abgesichert

Indikar, ein Unternehmen mit Sitz in Wilkau-Haßlau bei Zwickau, ist auf automobile Sonderlösungen spezialisiert. Im individuellen Karosseriebau sind Kleinserien Alltag, dennoch wird mit einem hohen Automatisierungsgrad gefertigt. Jüngste Anschaffung ist eine Warmpressanlage für Umformteile. Die Anlage wird mit Komponenten von SSP Safety System Products abgesichert.

mehr lesen
Bild: Sick AG
Bild: Sick AG
2027 ist bald: Bereit für die neue EU-Maschinenverordnung?

2027 ist bald: Bereit für die neue EU-Maschinenverordnung?

Die bisher geltende EG-Maschinenrichtlinie stammt aus einer Zeit, in der viele moderne Technologien und Konzepte noch nicht weit verbreitet waren. Neue Technologien und Trends wie künstliche Intelligenz, Robotik, Digitalisierung und smarte Fabriken machen es nötig, die Sicherheitsstandards zu aktualisieren und neue Risiken zu berücksichtigen. Deshalb hat sich die Industrie für eine Modernisierung durch die neue EU-Maschinenverordnung ausgesprochen. Die Redaktion des SPS-MAGAZINs wollte von verschiedenen Safety-Experten wissen, was sich dadurch ändert, wer betroffen ist und wie die Anwender die damit verbundenen neuen sowie verbindlichen Herausforderungen angehen und meistern können.

mehr lesen
Bild: Bormann & Neupert by BS&B GmbH
Bild: Bormann & Neupert by BS&B GmbH
Produktion geschützt, 
Ernährung gesichert

Produktion geschützt, Ernährung gesichert

Bei Industrieprozessen mit Trockenlebensmitteln oder -futtermitteln kann durch aufgewirbelten Staub schnell eine zündfähige Atmosphäre entstehen. Fatal, denn Staubexplosionen bergen ein enormes Risiko: ungeplante Produktionstopps, Zerstörung von Anlagen und sogar Gefahr für Menschenleben. Die passenden Schutzsysteme ersticken Staubexplosionen effektiv bereits im Keim oder reduzieren ihre Auswirkungen.

mehr lesen
Bild: ©2rogan/stock.adobe.com
Bild: ©2rogan/stock.adobe.com
So gelingt mit einer Trusted Edge-Plattform der Weg in die Industrie 4.0

So gelingt mit einer Trusted Edge-Plattform der Weg in die Industrie 4.0

Die zunehmende Vernetzung in den Fabriken schafft neue Angriffsflächen für Cyber-Kriminelle. Um vor allem ältere Maschinen sicher ins Netzwerk einzubinden, braucht es eine robuste IIoT- und Edge-Computing-Plattform, die Schutz und effiziente Datenkommunikation gewährleistet. Secunet verspricht durch die Nachrüstung mit seiner Trusted-Edge-Plattform zuverlässigen Schutz vor Angriffen.

mehr lesen
Bild: ©kamonrat/stock.adobe.com
Bild: ©kamonrat/stock.adobe.com
So lässt sich der Risikofaktor Fernwartung effizient managen

So lässt sich der Risikofaktor Fernwartung effizient managen

Viele Maschinen sind bereits im IoT vernetzt, was neben erhöhter Produktivität aber auch Sicherheitsrisiken mit sich bringt. Laut dem BSI zählt der Einbruch von Cyberkriminellen über Fernwartungszugänge zu den besonders kritischen und am häufigsten auftretenden Bedrohungen. Welche Eigenschaften müssen robuste Sicherheitslösungen erfüllen, um Betriebsanlagen zuverlässig zu schützen?

mehr lesen