Predictive Control
Die Macht der Daten
Am ISW der Uni Stuttgart werden seit ca. drei Jahren Projekte zur intelligenten Produktion bearbeitet. Bei einigen davon spielen industrielle Cloudkonzepte eine zentrale Rolle. Während der erste Teil dieser Artikelserie den Ist-Zustand in Sachen Cloud im Jahr nach Abschluss des Forschungsprojektes Picasso beleuchtete, geht Teil zwei auf das aktuelle Projekt Multicloud sowie das Konzept des Model Predictive Control ein.
Ziel des Forschungsprojekts MultiCloud ist eine Serviceplattform, die den Aufwand für neue Services verringert sowie deren kostengünstige Nutzung ermöglicht.
Ziel des Forschungsprojekts MultiCloud ist eine Serviceplattform, die den Aufwand für neue Services verringert sowie deren kostengünstige Nutzung ermöglicht.Bild: WEPA / ©Mikko Lemola / Fotolia.com

Heutzutage kann zwar auf Echtzeitdaten von Sensoren und Steuerungen zugegriffen werden, allerdings werden diese bisher nicht in standardisierter Form durch Nutzung von digitalen Dienstleistungen (Services) verwendet. Ein Grund hierfür ist deren aufwändige Entwicklung und Integration, was der fehlenden Sammlung von Schnittstellen und Serviceplattformen zur Verwaltung und Auswertung von Informationen geschuldet ist. Erst wenn solche Schnittstellen und Architekturen existieren, können Geschäftsmodelle auf Basis der digitalen Dienstleistungen entwickelt und angeboten werden. An diesem Punkt setzt das BMBF-Forschungsprojekt ‚MultiCloud-basierte Dienstleistungen für die Produktion‘ an. Ziel ist eine Serviceplattform, die den Entwicklungs- und Integrationsaufwand von neuen Services verringert sowie deren kostengünstigen Betrieb und Nutzung ermöglicht. Dafür arbeiten im Rahmen des Projektes Serviceanbieter, Anwender und Forschungseinrichtungen zusammen.

Durch die Verwendung einer Graph-Pipeline lässt sich schnell auf Veränderungen reagieren.
Durch die Verwendung einer Graph-Pipeline lässt sich schnell auf Veränderungen reagieren.Bild: ISW der Universität Stuttgart

Multicloud-basierte Dienstleistungsplattform

Als Basis zur Realisierung von Use Cases kommt die MultiCloud-basierte Serviceplattform des Projektes zum Einsatz. Dabei können Services über ein Web-UI ausgewählt, verknüpft und konfiguriert werden. Sie werden anschließend mithilfe von Containertechnologien (Docker) verpackt und auf einer oder mehreren hinterlegten Cloud-Instanzen deployt. Hierbei wird das Provisionieren der Cloud-Instanzen sowie das Management der einzelnen Container mithilfe des OpenSource-Systems Rancher realisiert. Damit die Services über Instanzgrenzen hinweg kommunizieren können, wird ein nachrichtenorientiertes System auf Basis der Publisher/Subscriber-Messaging-Lösung Apache Kafka verwendet. Die verwendeten Services können jederzeit ausgetauscht werden, ohne die Schnittstellen der anderen Services anpassen zu müssen. Durch die Kombination aus den genannten Technologien ist es möglich, die Vielfalt an Services hinsichtlich deren Anforderung an Dantemengen und Verfügbarkeit zu realisieren. Um bei neuen Services den Entwicklungs- und Integrationsaufwand gering und Betrieb bzw. Nutzung so kostengünstig wie möglich zu halten, werden verschiedene Werkzeuge bereitgestellt. Eines dieser Werkzeuge ist die im Projekt entwickelte Graph-Pipeline, die aus der vom Benutzer erstellten Servicekomposition einen Deployment-Plan generiert. Hierbei wird zunächst die Verknüpfung zwischen den Services validiert. Anschließend wird die Kommunikation über Kafka initialisiert. Dabei werden sogenannte Topics festgelegt, an diese die Services ihre Nachrichten übermitteln und lesen können. Damit ein Service die gesendete Nachricht auch verarbeiten kann, werden die Daten mit dem jeweiligen Schema des Services verknüpft. Dieser Schritt ermöglicht den Austausch und die Wiederverwendbarkeit in der Plattform, da im hinterlegten Schema alle benötigten Informationen für einen Datenaustausch enthalten sind. Nachdem die Konfiguration des Nachrichtenaustauschs erfolgt ist, werden die konfigurierten Services in einer Docker-Compose-Datei beschrieben. So lassen sich innerhalb einer Datei mehrere Container einstellen und ihre Beziehungen untereinander definieren. Abschließend wird die generierte Datei dazu verwendet, um mithilfe von Rancher die Services auf die ausgewählten Cloud-Plattformen zu instanziieren. Durch die Verwendung der Graph-Pipeline kann auf Veränderungen schnell reagiert werden, z.B. auf das Austauschen und Hinzufügen von Services, einen Wechsel der unterlagerten Cloud-Plattform oder Ausfällen von Services. Dazu überwacht die Graph-Pipeline die vom Benutzer erstellte Servicekomposition und führt die zuvor beschriebenen Schritte automatisiert durch. Somit ist es möglich, zur Laufzeit Services an- und abzubestellen.

Der Begriff Predictive Control beschreibt die Steuerung eines Prozesses, die automatisch und selbstlernend auf Veränderungen an den Parametern reagiert.
Der Begriff Predictive Control beschreibt die Steuerung eines Prozesses, die automatisch und selbstlernend auf Veränderungen an den Parametern reagiert.Bild: ISW der Universität Stuttgart

Service Use Cases

Innerhalb des Forschungsprojektes wurden verschiede Use Cases für Services unterschiedlicher Anforderungen hinsichtlich der benötigten Daten (Menge, Verfügbarkeit), Laufzeiteigenschaften und Verarbeitungszeit nach Eintritt der Ereignisse definiert. Ein im Projekt umgesetzter Service dient der Analyse von Material und Lieferanten auf Qualitätsmerkmale. Er agiert auf verschiedenen Datenquellen und hat als Ziel, die Verbesserung der Produktqualität durch eine bessere Überwachung zu gewährleisten. Hierbei ist die zu verarbeitende Datenmenge sehr groß, jedoch spielt der Zeitpunkt der Verarbeitung keine Rolle, da die Analyseergebnisse nicht direkt in den Produktionsprozess eingespielt werden. Zusätzlich zur genannten Services-Gruppe wurden Services identifiziert, die nicht nur viele Quellen ansprechen und große Datenmengen verarbeiten müssen, sondern die Analyseergebnisse auch zu einem bestimmten Zeitpunkt bereitstellen müssen. Beispielhaft für diese Anforderung ist ein Service im Bereich von Predictive Control. Hier werden Daten aus Maschinen und Anlagen erhoben und zunächst eine Modellentwicklung auf historischen Daten durchgeführt. Dieses Modell dient als Prozessabbild. Im nächsten Schritt werden Steuerungseinstellungen sowie Messdaten herangezogen, um Prognosen anhand des erarbeiteten Modelles für jede beliebige Steuerungseinstellung zu generieren. Unter Berücksichtigung der Beschränkungen wird die bestmögliche Prognose bzw. Konfiguration hinsichtlich eines definierten Ziels an die Steuerung weitergegeben. Vor allem der letzte Schritt erfordert eine Durchführung im Steuerungstakt im ms-Bereich.

Model Predictive Control

Model Predictive Control (MPC) als Methode meint die Steuerung eines Prozesses, z.B. in einer Produktionsmaschine, die automatisch und selbstlernend auf Veränderungen an den Parametern reagiert. Die Ziele können vielfältig sein: Zumeist ist es die Sicherstellung eines stabilen Prozesses und damit die Vermeidung von Störungen und Fehlern. Am konkreten Beispiel eines Produktionsprozesses geht es beispielsweise um die Vermeidung von Stillständen, reduzierte Rüstzeiten oder eingehaltene Qualitätsstandards. Diese automatisch optimierte Prozesskontrolle ist erst durch die Digitalisierung der Maschinendaten im Zusammenhang der heutigen Möglichkeiten der Datenspeicherung und -verarbeitung möglich geworden. Allgemein sind für die Anwendung von MPC drei Bestandteile notwendig: das dynamische Model, die historischen Daten und eine Kostenfunktion für den gleitenden Prognosehorizont. Das dynamische Model beschreibt die Zustände des Prozesses, der bei physikalischen Prozessen in der Regel von einer Familie an Differenzialgleichungen abgebildet wird. Da das Aufstellen einer Differenzialgleichung sehr zeitintensiv und aufwändig sein kann, werden mittlerweile auch Verfahren des Maschinellen Lernens benutzt, um aus historischen Daten die Zustände des Prozesses schnell zu bewerten. Die Qualität der Ergebnisse ist dabei ähnlich, dauert aber deutlich kürzer und ist weniger komplex. Für datenbasiertes MPC können nur Methoden des Maschinellen Lernens benutzt werden, die auch eine Interpretation ermöglichen, wie z.B. Regression oder Bäume. Wenn die Zustände des Prozesses beschrieben werden können, kann man sich dem Hauptproblem des Predictive Control zuwenden und definiert dazu einen zeitabhängigen optimalen Zustand. Ziel ist es, unter Berücksichtigung der Kostenfunktion, den Verlauf des Prozesses so nah wie möglich an dem optimalen Zustand zu halten. Oft sind spezielle Nebenbedingungen für die Optimierung notwendig, um sicherzustellen, dass die vorgeschlagene Lösung auch in der Praxis umgesetzt werden kann. Einschränkungen können z.B. für bestimmte Temperaturparameter gelten, da diese bei zu hohen Temperaturen zu irreparablen Schäden an anderen Bauteilen führen. Diese Nebenbedingungen sind für jede Aufgabe individuell festzulegen, was sehr aufwändig sein kann.

Seiten: 1 2Auf einer Seite lesen

ISW Institut für Steuerungstechnik der

Anzeige

Das könnte Sie auch Interessieren

Weitere Beiträge

Anzeige

Anzeige

Anzeige