Zugriff auf Rohdaten

Analyse und Optimierung automatisierter Prozesse - Teil 5/5
Nur wenn alle qualitätsrelevanten Größen in einem technischen Prozess gemessen und aufgezeichnet werden, ist es möglich, Fragen zur Produktqualität stringent zu beantworten. Dabei ist die vertikale und horizontale Datenintegration von Bedeutung. Die Berechnung von Qualitätsdaten basierend auf Rohdaten schließt \'Verfälschungen\' durch unterschiedliche Aggregierungen aus. Wenn aus Qualitätsdaten exakte Rückschlüsse für Verbesserungen gezogen werden sollen, ist es wichtig, auch auf Management- bzw. MES-Ebene auf Rohdaten zugreifen zu können, um die Ursachen für statistische Auffälligkeiten zu bestimmen.

Moderne Messdatenerfassungssysteme müssen in der Lage sein, Messdaten in automatisierten technischen Prozessen effizient zu erfassen, aufzuzeichnen und den verschiedenen Anwendergruppen umfassende Informationen zur Prozessoptimierung zu geben. Dabei spielt die vertikale und horizontale Datenintegration eine wichtige Rolle, um die Rückverfolgbarkeit der Datenerfassung, Datenaggregation und Berechnung von Qualitätsdaten und KPIs zum einen und die Rückverfolgbarkeit der Produktion zum anderen zu ermöglichen. Nur so ist die von der DIN EN ISO9001 geforderte Nachvollziehbarkeit gewährleistet. Nur ein konsistentes und transparentes Verfahren zur Ermittlung von Kennwerten aus hoch aufgelösten Messdaten führt zu aussagekräftigen und hilfreichen Informationen für alle möglichen Ziele der Prozessoptimierung. Unter horizontaler Datenintegration versteht man dabei die Einbeziehung verschiedener Anlagenteile und Produktionsabschnitte längs des Fertigungsflusses. Sind zeitliche Bezüge zwischen diesen Teilabschnitten relevant, so ist eine isochrone Aufzeichnung erforderlich. Sind die Fertigungsabschnitte zeitlich entkoppelt, so ist wichtig, dass die in den einzelnen Abschnitten produzierten Messdaten über einen gemeinsamen Schlüssel dem jeweiligen Produkt zugeordnet werden können. Als vertikale Datenintegration bezeichnet man die stufenweise Verdichtung von hochaufgelösten Daten zu Kennwerten mit unterschiedlicher Granularität entlang den verschiedenen Schichten der Automatisierungsarchitektur.

Schichtenmodell der Kommunikation

In automatisierten Fertigungsprozessen folgt die prozessinterne Kommunikation einem Schichtenmodell mit vier Ebenen: In Level 0 werden die Messdaten von Sensoren und Messgeräten aufgenommen und an die nächsthöhere Schicht weitergeleitet. In Level 1 sind die Controller, die die Sensoren, Messgeräte und Aktoren in Level 0 steuern, und die Daten der Sensoren aus Level 0 an die Steuerungssysteme in Level 2 weitergeben. Übergeordnet in Level 2 ist die Steuerung der Prozessautomatisierung. Aus dieser Ebene werden die Produktionsdaten an Level 1 vorgegeben und die Messergebnisse der Controller aus Level 1 gesammelt. In Level 3 befindet sich das MES (Manufacturing Execution System), das die komplette Fertigungsanlage überwacht und Vorgaben an die Level-2-Systeme gibt. Ein Nachteil dieses Schichtenmodells ist, dass die Daten immer von einer Ebene zur nächsten weitergeleitet werden müssen. Dies ist mit erheblichem Aufwand und Verfälschungen der Daten durch unterschiedliche zeitliche und längenbezogene Aggregierungen verbunden: So sind zunächst einmal die Schnittstellen zwischen beispielsweise den Sensoren und Messgeräten und den Level-2-Systemen zu spezifizieren und diese dann auch zu implementieren und zu testen. Gerade weil die Konnektivitäten zu den Level-0- und Level-1-Geräten so vielfältig sind, müssen hier viele verschiedene Schnittstellen implementiert, getestet und in Betrieb gesetzt werden. Auch Änderungen der Datenübertragung aufgrund geänderter Anforderungen führen bei diesem Kommunikationsmodell immer wieder zu einem enormen Aufwand, weil viele Gewerke in den verschiedenen Ebenen an einer Änderung beteiligt sind und diese auch noch synchronisiert werden müssen.

Horizontale und vertikale Datenintegration

Um die Probleme bei der Konnektivität zwischen Level 0/1 und den Level-2-Systemen zu vermeiden, ermöglicht das iba-System, dass zwischen der Prozessebene (Level 0/1) und der Datenebene (Level 3) eine weitere Ebene etabliert wird, die sogenannte \’iba-Ebene\‘. Das System ermöglicht zum einen eine vielfältige Konnektivität und kann damit Daten flexibel erfassen, zum anderen bietet es offene Ausgabeschnittstellen über digitale Ausgänge und Ethernet TCP/IP, die es ermöglichen, Daten direkt zu einer anderen Level-1-Komponente zu schicken. Darüber hinaus bietet die offene Datenbankschnittstelle des Systems die Möglichkeit, aggregierte und vorverarbeitete Daten direkt in eine Datenbank (z.B. in ein MES-System) zu laden. Mit der Einführung der iba-Ebene ist die vertikale Datenintegration einfach zu realisieren und führt zu konsistenten und nachvollziehbaren Daten in der MES-Datenbank in Level 3. Der Drill-down von Qualitätsdaten zu den Rohdaten ist ohne Umwege möglich und erlaubt weiterführende Datenanalysen auf der Prozess-Ebene oder der Instandhalter-Ebene basierend auf den aus den verdichteten Daten gewonnen Informationen und Erkenntnissen auf Management-Ebene. Dies ist ein wichtiges Kriterium, da sich in der Praxis gezeigt hat, dass Daten eines Management-Dashboards nur dann zielführend sind, wenn auch Antworten auf die Fragen nach den Ursachen gegeben werden können. Diese Antworten sind aber nur dann möglich, wenn aus den verdichteten Qualitätsdaten wieder unmittelbar auf die Rohdaten geschlossen werden kann. Da heutzutage das Thema Nachvollziehbarkeit überall gefordert wird und Prozesse lückenlos rückverfolgbar sein müssen, gilt es, zu allen Fragen der Produktion und der Endkunden die passenden Antworten in Form von Datennachweisen zu haben. Nur wenn Prozesse gemessen und aufgezeichnet werden, können Fragen zur Qualität (besonders bei Fragen des Endkunden zu Qualitätsmängeln) beantwortet werden.

Qualitätsbeurteilung aus Prozessdaten

Für das Qualitätsmanagement und den kontinuierlichen Verbesserungsprozess (KVP) müssen aus den Messdaten einer Anlage Qualitätsdaten sowie Informationen automatisch generiert werden: zur Qualitätsbewertung, Prozessoptimierung und zu Entscheidungen über die Produktqualität. Während Prozessdaten schnelle Veränderungen innerhalb des Prozesses darstellen und daher zeitlich möglichst hochauflösend erfasst werden, handelt es sich bei Qualitätsdaten um Kennwerte (z.B. Mittelwerte, Standardabweichungen, Verteilungen und andere statistische Größen), die aus den Prozessdaten abgeleitet werden. Sie erlauben allgemeine Aussagen über die Produkt- und Prozessqualität, die insbesondere im Hinblick auf Produktfreigaben und eine langfristige Entwicklung der Qualität wichtig sind. Die automatische Auswertung und die Möglichkeit, weitere Informationen aus den Messdaten zu gewinnen, ist aufgrund der Menge der Messdaten in automatisierten technischen Prozessen eine unbedingt notwendige Funktion und sollte in jeder Auswerteumgebung zur Verfügung stehen.

Qualitätsdaten berechnen und in eine Datenbank laden

Wenn Messdaten automatisch ausgewertet und weiterverarbeitet werden sollen, sind gewisse Anforderungen zu erfüllen, damit aus den Prozessdaten Daten zur Überprüfung der Produktqualität werden. Am Beispiel der Überprüfung einer Produktion eines Warmwalzwerk wird klar, welche Kriterien erfüllt sein sollten, wenn die produktbezogen aufgezeichneten und in Messdateien gespeicherten Messdaten wiederum produktbezogen in eine Datenbank des Stahlherstellers geladen werden. Beispielsweise sollen die Messwerte, die in die Datenbank geladen werden, frei konfigurierbar sein. Die Messwerte sollen nicht als 1ms-Messwerte (wie in der Messdatei aufgezeichnet), sondern verdichtet in die Datenbank geladen werden. Einige der Messwerte werden längenbezogen als 1m-Segment, andere pro Minute gemittelt. Es werden u.a. auch Qualitätskennwerte generiert, bei denen für eine qualitätskennzeichnende Größe Mittelwert, Minimum, Maximum sowie Standardabweichung über ein Längensegment bzw. einen Zeitraum zu bilden sind. Diese Anforderungen können in der Analysesoftware ibaAnalyzer konfiguriert und in einer Analysevorschrift gespeichert werden. Sobald eine neue Messdatei erzeugt wird, d.h. es wurde ein neues Produkt fertiggestellt, wird die Extraktionsaufgabe mit dieser Analysevorschrift und der neuen Messdatei initiiert. Auf diese Weise werden die Qualitätsdaten produktorientiert automatisch in die Datenbank des QM-Systems geladen. Die weiterführende Analyse der Produktion ist basierend auf diesen Daten leicht durchführbar. Da auch hier nicht von Anfang an klar spezifiziert war, welche Daten für die Produktanalyse in der Datenbank benötigt werden, haben sich einfache Konfigurierungs- und Erweiterungsmöglichkeiten sowie die frei konfigurierbare Datenbank-Schnittstelle als wichtige Eigenschaften für den Anwender erwiesen. Durch die offene Datenbankschnittstelle können weitere Datenanalysen basierend auf den in der Datenbank extrahierten Daten durchgeführt werden, um Informationen aus Messdaten zu gewinnen. Weiterhin sind Verfahren wie maschinelles Lernen zur Online-Prozessüberwachung und Datenkorrelationsanalyse zur Root Cause Analyse möglich. So werden bei der Online-Prozessüberwachung (Prozessdiagnose) Messdaten kontinuierlich mit gelernten Gut-Zuständen verglichen. Dabei wird der aktuelle Anlagenzustand mit Messdaten erfasst und während der Produktion online und kontinuierlich mit den bereits früher gelernten Daten korreliert, um Fehlerzustände im Prozess und in der Anlage automatisch zu diagnostizieren. Auf diese Weise können dem Instandhalter wertvolle Hinweise zur Wartung der Anlage gegeben und schleichenden Qualitätsverlusten entgegen gewirkt werden.

Vorausschauender Anlagenbetrieb

Da ein störungsfreier und kontinuierlich ablaufender Anlagenbetrieb direkten, positiven Einfluss auf die Qualität der ausgelieferten Produkte nimmt, ist es wichtig, die Prozessüberwachung durchgängig sicherzustellen und den Prozess ständig zu verbessern. Letztlich garantiert die Prozesssicherheit die Produktqualität und damit die Zufriedenheit der Kunden. Condition Monitoring Systeme (CMS) erfassen den Verschleißzustand von Maschinen permanent durch die Messung und Analyse physikalischer Größen. Durch die Beobachtung von Trends der Schadenspegel lassen sich beginnende Schäden frühzeitig erkennen und Instandhaltungsmaßnahmen besser planen. Real Time Systeme ermöglichen darüber hinaus wichtige Sicherheitsabschaltungen bei Grenzwertüberschreitungen. Die Ursachen für die Schädigung von Maschinenteilen bzw. den Ausfall mechanischer Komponenten lassen sich ohne eine in das Condition Monitoring integrierte Prozessüberwachung jedoch nicht ermitteln. Das CM-System ibaInSpectra ermöglicht nicht nur die Überwachung der für das Condition Monitoring relevanten Signale (im Wesentlichen Vibrations-, Temperatur- und Geschwindigkeitssignale), sondern es bietet gleichzeitig durch die Integration in das Prozessdatenerfassungssystem ibaPDA die Möglichkeit alle Maschinen-, Prozess-, Material- und Qualitätsdaten in Bezug zu auftretenden Beanspruchungen der Maschinenelemente zu setzen. Grenzwerte, die sporadisch überschritten werden, können langfristig die Maschine schädigen und beeinflussen die Produktqualität negativ. Für den Anlagenbetreiber ist es deshalb unerlässlich, die Ursachen für solche Grenzwertüberschreitungen schnell und zielsicher identifizieren zu können. Nur wenn Informationen zur Überwachung der Maschinen mit Prozessdaten kombiniert werden können, lassen sich die Ursachen für Fehler und Störungen langfristig ermitteln und vermeiden. n

iba AG
http://www.iba-ag.com

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: Ceratizit Deutschland GmbH
Bild: Ceratizit Deutschland GmbH
Werkzeuge – immer passend

Werkzeuge – immer passend

Eine digitalisierte Fertigung hat viele Gesichter… und Recker Technik aus Eschweiler setzt ihr auf jeden Fall einen Smiley auf. Dort bringt die Produktion mit digitalen Zwillingen mehr Effizienz in den Alltag sowie gleichzeitig mehr Überblick über das Toolmanagement und die Werkzeugkosten. Mit dabei: Zwei Tool-O-Maten, die intelligenten Werkzeugausgabesysteme von Ceratizit – dank denen immer das passende Werkzeug für den Job zur Hand ist.

mehr lesen