Gefahr bei undurchsichtigen Systemen
Nicht beherrschte Komplexität bei Automatisierungslösungen birgt die Gefahr potenzieller Instabilitäten in allen Phasen des Lebenszyklus einer Anlage. So haben bei der Inbetriebsetzung Instabilitäten im Prozess und nicht beherrschte Komplexität in der Regel eine erhebliche Verzögerung zur Folge, was im Extremfall auch zu einer nicht vollständig funktionierenden Anlage führen kann. Im Produktionsalltag führen Instabilitäten zu Störungen, deren Ursachen nicht sofort lokalisierbar sind und die damit unmittelbare Auswirkungen auf Produktqualität, Anlagensicherheit und -verfügbarkeit haben. Beispiele für Störungstypen sind sogenannte sporadische Fehler, deterministische Fehler im Zeitverhalten, die langsame Verschlechterung der Qualität der Produkte bzw. der Anlagen sowie Störmeldungen ohne erkennbare Ursache. Fast alle sporadischen Fehler (Brüche, Verstopfungen, plötzliche Schwankungen, Kurzschlüsse, Kommunikationsstörungen, etc.) sind in Wahrheit systematische Fehler, die aber aufgrund unvollständiger Systemdurchdringung nicht ausreichend durchschaut werden konnten. Nehmen deterministische Fehler zu oder Qualität und Maßhaltigkeit ab (Ermüdung, Abrieb, Verschmutzung, Korrosion, Alterung, etc.), so sind die Gründe hierfür ebenfalls systematischer Natur. Es handelt sich folglich um sporadische Störungen, die aufgrund der Systemkomplexität hinsichtlich ihrer Kausalität als nicht durchdringbar und damit nicht vorhersehbar oder vermeidbar erscheinen.
Störungen überwachen und vermeiden
Ein weiterer wichtiger Aspekt beim Betreiben automatisierter Prozesse ist die Vermeidung kritischer Prozesssituationen, die Auswirkungen auf die Anlagen-/Arbeitssicherheit oder die Umwelt haben können. Hier muss es nicht nur möglich sein, Störungen frühzeitig zu detektieren und zu melden, sondern Störungen durch eine kontinuierliche Überwachung des Anlagenzustands ganz zu vermeiden und die Ursachen, die zu einer Störung hinführen können, bei deren Auftreten sofort aufzuzeigen (root cause analysis). Störungen, die im Allgemeinen sukzessiv und schleichend eintreten, sind schwer zu erkennen. Dies kann dazu führen, dass diese Störungen mitunter erst beim Abnehmer des Produkts (Endkunden) aufgedeckt werden, was schwerwiegende wirtschaftliche Auswirkungen haben kann. Solche Auswirkungen sind finanziell nicht zu kalkulieren, können sie doch langfristig betrachtet schwerwiegende Auswirkungen auf Geschäftsbeziehungen haben. Auch wenn der Prozesszustand in automatisierten Prozessen mit Hilfe von Sensorik und Messtechnik immer besser erfasst wird und die Messwerte den Prozesszustand gut abbilden, so können aufgrund des dynamischen Zeitverhaltens und der Schnelligkeit der Prozesse Ursache und Wirkung trotzdem nicht einfach bestimmt werden. Abläufe in Steuerungen oder gar in Steuerungsverbunden sind nicht transparent – bildlich gesprochen: es gibt keinen Tastsinn für Software. Daher müssen Verfahren gefunden werden, die das dynamische Prozessverhalten nach außen hin transparent und analysierbar machen. Dies ist die Grundlage für die Systemoptimierung, d.h. für die Prozess- und Produktoptimierung unter Kosten-, Qualitäts-, Sicherheits- und Umweltgesichtspunkten.
Prozessanalyse in vier Schritten
Voraussetzung für die Prozess- und Produktoptimierung ist zunächst die Analyse des Prozesses. Idealerweise bietet sich ein vierphasiges Vorgehensmodell an: Datenerfassung, Datenaufzeichnung, Datenauswertung und Informationsgewinnung (Bild 2). Bei der Datenerfassung geht es zunächst um die Erfassung des dynamischen Prozessverhaltens durch geeignete Messverfahren und Sensorik an ganz unterschiedlichen Stellen im Prozess. Unter Datenaufzeichnung ist die Aufzeichnung der erfassten Messdaten und deren Speicherung zu verstehen. Im nächsten Schritt werden die Daten aufbereitet, analysiert und durch multimediale und interaktive Analyseinstrumente ausgewertet. Aus diesen drei Phasen resultiert die letzte, die der Informationsgewinnung. Aus den Messdaten und Analyseergebnissen werden Informationen gewonnen und Wissen abgeleitet, um die Qualitätsdaten und Management-Kennzahlen zu berechnen, sog. Key Performance Indicators (KPIs). Auch wenn diese vier Phasen aufeinander aufbauen, so darf hier nicht der Eindruck entstehen, dass die einzelnen Phasen streng sequentiell nacheinander ablaufen. Vielmehr müssen Datenerfassung (Phase 1) und -aufzeichnung (Phase 2) kontinuierlich erfolgen, da Messdaten für die Berechnung von Qualitätsdaten vollständig und lückenlos erfasst werden müssen. Zudem ist im Voraus nicht vollständig erkennbar und vorhersagbar, welche Messdaten für eine Prozessanalyse benötigt werden. Während also in Phase 3 und Phase 4 die Auswertung und Analyse der Daten erfolgt, werden parallel dazu weitere erfasst und aufgezeichnet. Die Optimierung eines Anlagensystems erfordert eine hundertprozentige Datenverfügbarkeit. Nur wenn Messdaten kontinuierlich und von jedem Zeitpunkt vorliegen, ist im Störfall eine umfassende Analyse möglich, und nur dann können aus den Messdaten kontinuierlich und automatisch Qualitätsdaten und KPIs erzeugt werden.