KI-gestütztes Engineering mit Twincat Chat von Beckhoff

Mit LLMs schneller und effizienter zu SPS-Code

Mit Twincat Chat lassen sich die sogenannten Large Language Models (LLMs) in der Engineering-Umgebung von Beckhoff für die Entwicklung eines Projekts nutzen. Das soll zu großen Effizienzsteigerungen führen. Wie diese genau aussehen und was man rund um den KI-Einsatz sonst noch wissen sollte, erklären Dr. Fabian Bause und Jannis Doppmeier aus dem Twincat-Produktmanagement.
Twincat Chat erschließt neue Chatbot-Möglichkeiten, wie man sie von ChatGPT und Co. kennt, auch für die Automatisierungswelt.
Twincat Chat erschließt neue Chatbot-Möglichkeiten, wie man sie von ChatGPT und Co. kennt, auch für die Automatisierungswelt.Bild: Beckhoff Automation GmbH & Co. KG

Seit der Vorstellung von ChatGPT sind LLMs in aller Munde. Beckhoff hat mit Twincat Chat auf der Hannover Messe 2023 als einer der ersten Anbieter eine Anwendung im Automatisierungsbereich vorgestellt. Wie war das kundenseitige Feedback auf und nach der Messe?

Jannis Doppmeier: Das Feedback der Kunden war durchweg positiv. Ein Großteil der Kunden sah für den Automatisierungsbereich ein großes Potenzial. Einige äußerten sogar konkretes Interesse an einer Beta-Version, sobald diese verfügbar ist. Das deutet darauf hin, dass es eine wachsende Nachfrage nach KI-Lösungen gibt.

"Es ist nicht unser Ziel, mit Twincat Chat Programmierer zu ersetzen."
Dr. Fabian Bause 
Beckhoff Automation
„Es ist nicht unser Ziel, mit Twincat Chat Programmierer zu ersetzen.“ Dr. Fabian Bause Beckhoff AutomationBild: Beckhoff Automation GmbH & Co. KG

Welche grundlegenden Vorteile können LLMs bieten – zum einen für den Automatisierer und zum anderen für das Unternehmensmanagement?

Doppmeier: Für Automatisierer haben LLMs das Potenzial, den Entwicklungsprozess zu beschleunigen, indem sie Code automatisch erzeugen und vervollständigen. Darüber hinaus kann man sich von LLMs persönliche Tutorials erstellen lassen oder gezielt nach Lösungen bei aufkommenden Problemen fragen. Ein weiterer Vorteil ist die Möglichkeit, Richtlinien und Best Practices im Automatisierungsbereich konsequent umzusetzen und einzuhalten. Aus der Perspektive des Unternehmensmanagements fördern LLMs den Wissenstransfer innerhalb des Unternehmens. Sie können als zentrale Wissensdatenbank fungieren, die wertvolle Informationen speichert und bei Bedarf bereitstellt. Zudem können LLMs den Support entlasten, indem sie als erster Ansprechpartner für Kundenanfragen dienen. Das kann die Antwortzeiten verbessern und zu einer höheren Kundenzufriedenheit führen.

Gibt es derzeit noch technische Unklarheiten beim Einsatz von LLMs?

Dr. Fabian Bause: Ja, technische Unklarheiten gibt es viele. Aber das ist nicht weiter verwunderlich, wenn man sich die aktuell sehr hohe Entwicklungsgeschwindigkeit vor Augen führt. Eine wichtige und für die Automatisierungsbranche derzeit zentrale Herausforderung ist das sogenannte Fantasieren von LLMs, was vom Anwender nicht unbedingt als solches zu erkennen sind. So haben wir in der frühen Entwicklungsphase in von Twincat Chat generiertem SPS-Code auch Motion-Funktionen vorgefunden, die es gar nicht gibt – zumindest nicht in Twincat. Aber das sind Themen, die adressierbar sind und sich mit der Zeit deutlich verbessern werden.

Und wie sieht es unter rechtlichen Gesichtspunkten aus?

Bause: Der AI Act der EU ist derzeit ein Unsicherheitsfaktor, zumal er noch nicht final verabschiedet ist. Eine zentrale Herausforderung bei der Regulierung von KI-Anwendungen liegt darin, dass politische Prozesse viel langsamer sind als die rasante Weiterentwicklung von generischer KI. Man darf gespannt sein, wie generisch die Regulierung auf die vielen noch unbekannten KI-Entwicklungen anwendbar wird. Aber dass es gewisser regulatorischer Maßnahmen bedarf, steht außer Frage.

Werden KI-Anwendungen wie Twincat Chat zukünftig den Steuerungsprogrammierer mit all seiner Kreativität ersetzen können?

Bause: Nein, sicherlich nicht. Es ist weder unser Ziel noch läuft es nach derzeitigen technischen Entwicklungen darauf hinaus, Programmierer vollständig zu ersetzen. Ziel ist vielmehr, den Programmierern Werkzeuge an die Hand zu geben, damit sie effektiver arbeiten können. Es geht darum, die Produktivität eines Programmierers zu erhöhen – nicht zuletzt auch als Mittel gegen den Fachkräftemangel. Wenn offene Stellen nicht besetzt werden können, weil schlicht keine qualifizierte Fachkraft zu finden ist, muss mit Mitteln der KI für die weitere Wettbewerbsfähigkeit gesorgt werden.

Was sind die technischen Besonderheiten von Twincat Chat?

 Unser Tool ermöglicht Entwicklern eine signifikante Steigerung 
der Produktivität, indem es als 
digitaler Assistent fungiert.

Jannis Doppmeier, Beckhoff Automation
„Unser Tool ermöglicht Entwicklern eine signifikante Steigerung der Produktivität, indem es als digitaler Assistent fungiert.“ Jannis Doppmeier, Beckhoff AutomationBild: Beckhoff Automation GmbH & Co. KG

Doppmeier: Twincat Chat wurde entwickelt, um Anwendern gegenüber der herkömmlichen Nutzung z.B. von ChatGPT im Webbrowser einen klaren Vorteil zu bieten. Der entscheidende Mehrwert liegt in seiner tiefen Integration, insbesondere im Hinblick auf spezialisierte Anforderungen der Automatisierungsbranche. Die Chat-Einbindung erleichtert den Entwicklungsprozess auf diese Weise erheblich, da die Kommunikation und der Code-Austausch nahtlos ineinandergreifen. Darüber hinaus wurde unser Modell speziell für Twincat-Anfragen initialisiert. Man muss dem Modell nicht mitteilen, dass man Twincat verwendet und die Code-Beispiele in strukturiertem Text erwartet. Ein weiteres Highlight ist die Möglichkeit, generierten Code einfach zu übernehmen. Das spart nicht nur Zeit, sondern reduziert auch Fehler, die beim manuellen Übertragen auftreten können. Die Interaktion mit Twincat Chat wurde derart gestaltet, dass sich das Tippen von Befehlen stark reduziert. Stattdessen können einfach per Mausklick vorab von uns getestete Anfragen verwendet werden, die speziell darauf ausgerichtet sind, den Arbeitsfluss des Benutzers zu verbessern. Diese Anfragen umfassen Aktionen wie Leistungssteigerung, Effizienzverbesserung, Dokumentation, Vervollständigen oder Refaktorierung.

Welche weiteren Bereiche werden zukünftig an Bedeutung gewinnen?

Bause: Das Schöne an LLMs ist, dass sie mit ein wenig Fantasie universal einsetzbar sind. Wir arbeiten, neben der SPS-Code-Erzeugung, auch an einem Chatbot, der automatisiert ein Twincat-HMI-Projekt erstellt. Ziel ist, dass ein Anwender nur noch formulieren muss, wie er seine HMI aufgebaut haben möchte und Twincat generiert im Hintergrund die komplette Oberfläche. Der Kunde bekommt also unmittelbar das Feedback in visueller Form. Ermöglicht wird das, indem wir dem LLM die Programmierschnittstelle zur HMI erklären – denn auch das ist lediglich eine vom LLM gut beherrschbare Sprache. Ein weiteres Projekt betrifft ein Chatbot-Interface zu unserem Dokumentationssystem, in dem immense Mengen an Wissen abrufbar sind.

Mit Twincat Chat eröffnen sich für den Anwender auch neue Arbeitsweisen. Was bedeutet das genau und worin liegen die Vorteile in der Praxis?

Doppmeier: Unser Tool stellt eine neuartige Lösung für eine signifikante Steigerung der Produktivität der Entwickler dar, indem es als digitaler Assistent fungiert. Code muss nicht mehr Zeile für Zeile händisch zu Ende getippt werden. Dieser Assistent übernimmt Routineaufgaben, die oft zeitaufwändig und repetitiv sind. Dadurch haben Entwickler mehr Zeit und Kapazität, sich auf ihre Kernaufgaben, das eigentliche Design und die Konzeption der Software zu fokussieren. In einem Markt, in dem jeder Vorteil zählt, bietet unser Tool Unternehmen die Möglichkeit, trotz Personalengpässen wettbewerbsfähig zu bleiben und den steigenden Ansprüchen ihrer Kunden gerecht zu werden.

Welche Bedeutung hat das verwendete Sprachmodell?

Bause: Aktuell konkurrieren mehrere Sprachmodelle der bekannten IT-Giganten miteinander, z.B. ChatGPT von OpenAI, PaLM bzw. Bard von Google oder Ernie von Baidu. Die großen Modelle haben gemeinsam, dass sie alle als Cloud-Services via API angeboten werden. Abseits technischer Unterschiede ergeben sich hier regionale Herausforderungen. So sind ChatGPT und die LLMs von Google nicht von China aus erreichbar. Für Beckhoff stellt das eine Herausforderung dar, weil der chinesische Markt für uns eine zentrale Rolle spielt. Des Weiteren birgt die Integration des Cloud-Services eines Dritten in unsere Produkte eine starke Abhängigkeit zu diesem Anbieter. Wie entwickelt sich der Service technisch weiter, wie stabil und abwärtskompatibel wird entwickelt, wie verändern sich die Nutzungskosten und nicht zuletzt die Datenschutzrichtlinien des Dienstes? Daher beschäftigen wir uns intensiv mit dem Trainieren eigener Modelle – natürlich nicht von Null an, sondern auf Basis kommerziell nutzbarer offener LLMs. Somit konkurrieren wir nicht mit den allgemeinen Modellen wie ChatGPT, sondern wir fokussieren uns auf einen klar definierten, deutlich kleineren Anwendungsraum.

Das könnte Sie auch Interessieren

Weitere Beiträge

Roboter über die SPS programmieren

Die neue SRCI-Schnittstelle soll SPSen und Roboter-Controller verbinden, um Anwendern eine einfachere Programmierung von Robotikfunktionen im gewohnten SPS-Umfeld zu ermöglichen. Wie hoch wird ihr Potenzial eingeschätzt? Und hat SRCI das Zeug, sich wirklich im Markt zu etablieren? Eine Trendumfrage in der Schwesterzeitschrift ROBOTIK UND PRODUKTION hat Roboterhersteller und Automatisierer um ihre Einschätzung gebeten.

mehr lesen