Und dann?
Schagginger: Dann hat man auf Technik gewechselt, die auch andere Automatisierer in den 90er-Jahren für sich entdeckt haben: Nämlich einen Hybrid aus PC und echter Hard-SPS auf Basis von x86-Prozessoren. Die ließen sich mit FPGAs und ASICs zu hart echtzeitfähigen Lösungen für die Industrie kombinieren. Und trotzdem konnte man einen Teil der bestehenden Toolchains und Betriebssysteme nutzen. Die folgenden Jahre haben bestätigt, dass dies auch der richtige Weg war – zumindest zum damaligen Zeitpunkt.
Heute aber nicht mehr?
Schagginger: Nun, die Anwendungen und deren Ansprüche haben sich natürlich weiterentwickelt. Der Bedarf an Rechenleistung ist deutlich gestiegen, wenn auch nicht unbedingt für die ursprüngliche Aufgabe der SPS. Die ist in einem ähnlichen Rahmen geblieben, auch wenn der Rechenzyklus von ehemals 10ms auf unter 1ms geschrumpft ist. Es sind neben der Maschinenablaufsteuerung jedoch viele Funktionen hinzugekommen: z.B. Monitoring, Datenerfassung oder Security. Und das war für Bachmann letztendlich der Grund, bei der Rechenleistung noch eine Schippe draufzulegen.
Aber es gibt doch auch sehr leistungsfähige Single-Core-Prozessoren.
Schagginger: Schon. Doch die werden sehr hoch getaktet, um mithalten zu können. Was wiederum thermisch nicht tragbar für Systeme ist, die viele Jahre wenn nicht Jahrzehnte durchgängig betrieben werden. Das Hauptkriterium lautet nach wie vor: Nicht ausfallen! Im Energie- und Infrastrukturbereich sowieso, aber auch im Maschinen- und Anlagenbau. Für die Basis, nämlich ein solides thermisches Design, bleibt dann ab einer gewissen Leistungsklasse nur noch der Weg über Mehrkernarchitekturen.