Bei dem Twincat Machine Learning Server (TF3820) handelt es sich um eine Standard-Twincat-SPS-Bibliothek und eine sogenannte Near-Realtime Inference Engine. Das heißt, im Gegensatz zu den beiden bisherigen Engines wird diese nicht in harter Echtzeit, sondern in einem separaten Prozess auf dem IPC ausgeführt. Im Gegenzug sind in der Server Engine dafür grundsätzlich alle KI-Modelle ausführbar. Weiterhin gibt es für dieses Produkt KI-optimierte Hardwareoptionen für eine skalierbare Leistungsfähigkeit. Der Server kann klassisch parallelisiert auf CPU-Kernen arbeiten, nutzt die integrierte GPU der Beckhoff Industrie-PCs oder kann auf dedizierte GPUs z. B. von Nvidia zugreifen.
Die Inferenzmaschine wird klassisch in der SPS programmiert. Von hier können Modelle geladen, die ausführende Hardware konfiguriert und die Inferenz ausgeführt werden. Die Ausführung des Modells findet in einem eigenständigen Prozess des Betriebssystems statt. Seitens der ML- und DL-Modelle sind nahezu keine Grenzen gesetzt: Von Clustering-Modellen, über Image Classification bis hin zu Object Detection, die Möglichkeiten bei der Modellauswahl sind vielfältig. Das Training der ML- und DL-Modelle erfolgt in Frameworks, wie z.B. PyTorch, TensorFlow oder Matlab. Die Informationen des gelernten Netzes werden als Beschreibungsdatei in die Inferenzmaschine geladen. Dabei wird das standardisierte Austauschformat Open Neural Network Exchange (ONNX) unterstützt, sodass die Welt der Automatisierung und der Data Science nahtlos ineinandergreifen. Damit steht eine hinsichtlich der Modelle flexible und hinsichtlich der Hardware hochperformante Inferenzmaschine zur Verfügung.
Anwendungen finden sich in prädiktiven und präskriptiven Modellen sowie in den Bereichen Bildverarbeitung und Robotik. Beispiele sind bildbasierte Verfahren zur Sortierung oder Bewertung von Produkten, zur Fehlerklassifikation bzw. Fehler- oder Produktortung sowie zur Berechnung von Greifpositionen.