
Die gesamte Branche redet heute von KI. Jedoch ist es für potenzielle Anwender im Maschinenbau oft schlecht nachvollziehbar, wer nur Visionen präsentiert und wer wirklich marktreife Konzepte und Lösungen im Gepäck hat. Wie ist die Situation bei Beckhoff, Herr Bause?
Fabian Bause: Beckhoff beschäftigt sich schon ca. zehn Jahre intensiv mit dem Thema KI. Ursprünglich ging es vor allem um die technischen Voraussetzungen, die für die Nutzung von künstlicher Intelligenz im Kontext eines Automatisierungssystems nötig sind. Sprich: Welche Hardware- und Softwarekomponenten benötigt man überhaupt? Um in Richtung konkreter Anwendungen zu gehen, war Spezialwissen aber noch zwingend erforderlich. Einige unserer Kunden haben sich daraufhin gemeinsam mit uns auf den Weg gemacht – quasi die Early Adopters. Aber für die meisten war das Thema KI damals einfach noch nicht greifbar.
Um welche Art von Anwendungen ging es seinerzeit? Um Bildverarbeitung?
Nein. Für Beckhoff ging es im ersten Schritt um smarte Algorithmen, die in Zeitreihen und Tabellendaten verwendet werden. Denn solche tabularen Daten gibt es eigentlich in jeder Maschine. Heute wenden wir uns hingegen auch an das Thema Machine Vision, denn Beckhoff hat ja ein eigenes Vision-Portfolio aufgebaut. Zudem ist auch die Performance unserer Industrie-PCs nochmals deutlich gestiegen.
Als Beckhoff mit KI startete, war es also noch schwere Kost.
In der Tat. Doch dann kam mit ChatGPT der Moment, als die ganze Welt schlagartig begriffen hat: Man kann hochspannende Sachen machen, ohne selbst ein KI-Modell zu trainieren. Und zwar auf dem denkbar einfachsten Weg – nämlich über natürliche Sprache. Auch wir bei Beckhoff waren natürlich gleich Feuer und Flamme und haben gründlich überlegt, welchen Mehrwert solche Large Language Modells – kurz LLM – für die Automatisierungstechnik bieten können. Die ersten Gedanken gingen in Richtung Codegenerierung. Doch während das Internet voll mit Python- oder C#-Code ist, mit dem man eine KI trainieren könnte, sind die klassischen SPS-Programmiersprachen doch eher rar vertreten. Es ist also alles andere als einfach, SPS-Code mit einem LLM zu erzeugen, der wirklich verlässlich ist. Das muss er aber unbedingt sein, schließlich agiert man in der Automatisierungswelt – im Gegensatz zur klassischen IT – mit der echten Physik. Dennoch haben wir es geschafft, auf der Hannover Messe 2023 mit Twincat Chat unsere Antwort auf ChatGPT zu liefern. Wenn auch die Code-Generierung gar nicht so stark im Vordergrund steht, wie anfangs gedacht.
Warum nicht?
Über die Zeit ist unser Vorhaben gewachsen und zieht sich mittlerweile durch das gesamte Twincat-Angebot. Aus dem Nichts SPS-Code zu generieren, bleibt sicherlich die Königsdisziplin, weil es die komplexeste Aufgabe für ein LLM ist. Abseits davon gibt es aber viele weitere spannende Anknüpfungspunkte, um diese Art der KI im Umfeld der Steuerungstechnik zu nutzen – z.B. mit Blick auf die Dokumentation von Steuerungscode, die Erstellung von HMI-Oberflächen, die automatische Fehlersuche oder die Unterstützung des Supports. Solche Einsatzfälle sind nicht nur einfacher zu lösen, sondern stellen zudem einen deutlich geringeren Robustheitsanspruch. Wenn die KI-generierte Dokumentation eines Funktionsbausteins nicht ganz lupenrein ist, ist das nicht schön. Aber auch nicht kritisch. Kritisch wird es dagegen sofort, wenn der Baustein selbst fehlerhaft ist. Kurzum: Twincat Chat bietet ein breites Spektrum an Vorteilen, die LLMs in der Automatisierung liefern können – und die für die breite Masse sofort anwendbar sind. Jeder kann sie benutzen, ohne KI-Experte zu sein. Mit dem neuen Machine Learning Creator von Twincat gehen wir jetzt den nächsten Schritt – und zwar abseits von LLMs.
Was heißt das konkret?
Bislang gab es zwar vorab trainierte KI-Modelle, aber die waren nicht für eine spezielle Anwendung vorbereitet. Diese Lücke schließt Beckhoff mit dem Machine Learning Creator. Einfach gesagt: Wir automatisieren den Erstellungsprozess von KI-Modellen. Die Automatisierungs- bzw. Prozessverantwortlichen erhalten von uns ein Werkzeug, mit dem sie eine individualisierte Lösung für ihre spezielle Anwendung trainieren können. Wie bei LLMs muss man dabei kein KI-Experte sein. Die einfache Nutzbarkeit ist für uns oberstes Credo, um mit der Lösung überhaupt in eine sinnvolle Breite gehen zu können.
Wie sieht das dann in der Praxis aus?
Man gibt Daten ein und labelt sie, z.B. als Beispiele für gute oder schlechte Bauteile. Das wiederholt man etliche Male, drückt auf einen Knopf und raus kommt ein fertiges KI-Modell – hinter dem sich aber komplexe mathematische Operatoren mit vielen Parametern verbergen. Die Lösung darf aber wiederum keine Blackbox sein. Offenheit ist an dieser Stelle sehr wichtig. Denn nur dann kann der Anwender nachzuvollziehen, was das KI-Modell im Hintergrund eigentlich genau tut.
Klingt nach einer Gratwanderung.
So ist es. Wir wollen KI so einfach machen, dass sich der Nutzer nicht wirklich damit auseinandersetzen muss. Gleichzeitig soll er jederzeit verstehen können, wie das Modell arbeitet. Deswegen bohren wir an verschiedenen Stellen Gucklöcher in die Blackbox. Etwa in Form einer Testumgebung, mit der man das KI-Modell auf Basis von zusätzlichen Beispielen testen kann. Daraus lässt sich dann ableiten, bei welchen Voraussetzungen das Modell gut funktioniert und bei welchen nicht. Sogenannte Explainable-AI-Methoden visualisieren dabei z.B. über Konfidenz-Scores und Heatmaps, warum das KI-Modell entschieden hat, dass es sich um ein Gut- oder Schlechtteil handelt. So kann der Anwender kontinuierlich nachjustieren.
Zielt der Machine Learning Creator dann hauptsächlich auf Bildverarbeitungsanwendungen ab?
Im ersten Schritt schon. Dafür sprechen zwei Gründe: Zum einen weil unser Vision-Portfolio auch aktuell auf solche Szenarios konvergiert. Zum anderen, weil KI in der Bildverarbeitungs-Community bereits einen sehr reifen Status hat und durchgängig akzeptiert ist. Diesem Fokus zum Trotz haben wir die grundlegenden Mechanismen dennoch so gewählt, dass sich das Prinzip des Twincat Machine Learning Creators auch auf Zeitreihen oder tabulare Daten übertragen lässt. Entsprechend ist es unser Ziel, das Tool zeitnah auch mit erweitertem Funktionsumfang anzubieten.
Der Ansatz, KI möglichst einfach zu machen, ist in der Bildverarbeitungsbranche aber nicht wirklich neu, oder?
Nun, wir sind im Bereich der Bildverarbeitung nicht die einzigen, die diesen Ansatz verfolgen. Allerdings sind die anderen Anbieter ausschließlich im Vision-Segment aktiv und nicht branchenübergreifend als Automatisierer positioniert. Weil der Systemgedanke bei Beckhoff ganz oben aufgehängt ist, agieren wir aus einer sehr breiten Perspektive und können das KI-Modell viel tiefer in den Automatisierungsprozess integrieren. So erhält der Anwender parallel z.B. auch den passenden SPS-Code, um das fertige Modell in der Steuerungsumgebung auszuführen. Eine typische Smart-Kamera mit passendem KI-Tool lässt sich mit unserem Angebot also nur schlecht vergleichen.

Das fertige KI-Modell läuft dann direkt in der SPS?
Ja. Durch die PC-basierte Technik erhält der Beckhoff-Anwender die Möglichkeit, das erstellte KI-Modell und alles was zum Prozess dazu gehört, direkt in der Ablauflogik der Steuerung laufen zu lassen. Er muss seine vertraute Automatisierungsumgebung also gar nicht verlassen. Zudem bleibt der Prozess möglichst schlank, schnell und zuverlässig. Wir schränken den Anwender aber nicht ein: Wenn er will, kann er das Modell genauso auch abseits der Steuerung hosten – auf einem Edge-PC oder Server. Von dort aus muss das Modell im Prozess jedoch mit der Maschinensteuerung quer kommunizieren. Dann ist nicht mehr so sicher, wer das Timing bestimmt und wann welche Daten wo landen. Muss die SPS im Zweifel warten, bis das Edge-Gerät fertig ist? Solche zeitlichen Auswirkungen lassen sich mit unserem integrierten Ansatz komplett vermeiden. Je nach Anwendung muss das Feedback des KI-Modells sicherlich nicht immer im Millisekunden-Takt vorliegen. Aber gerade bei solch hohen Geschwindigkeiten ist die Automatiserungstechnik von Beckhoff zu Hause und so ist auch der Machine Learning Creator darauf ausgelegt.
Steht die Lösung bereits für Ihre Kunden zur Verfügung?
Einer der letzten wichtigen Meilensteine für uns in der Entwicklung war es, den Machine Learning Creator in der Cloud von Beckhoff zu hosten. Das haben wir im Herbst letzten Jahres umgesetzt und die Lösung von unseren internen Nutzern auf Herz und Nieren prüfen lassen. Seit der SPS-Messe ist das Tool auch für externe Pilotanwender aus unserem Kundenkreis verfügbar. Diese erste Zielgruppe begleiten wir sehr eng, um uns noch besser mit den Vorhaben und Anforderungen der Nutzer vertraut zu machen. Ziel ist es dann, Mitte des Jahres ein erstes offizielles Release zu launchen – mit dem Hauptaugenmerk auf Bildklassifikationen, z.B. für Anwendungen in der Lebensmittel- und Verpackungsindustrie oder für die Oberflächenkontrolle in der Metall- oder Holzindustrie.