Warum sicherheitskritische Systeme in der Cloud gut aufgehoben sind

Safe Intelligence

Mit einer Auslagerung in die Cloud können sicherheitskritische Systeme Gefahren für Menschen abwenden und gleichzeitig ihre Leistung optimieren. Das hat das Fraunhofer IKS in einem Projekt nachgewiesen.
Bestandteile einer Architektur für die Vorhersage (potentiell) gefährlicher Situationen in der Cloud.
Bestandteile einer Architektur für die Vorhersage (potentiell) gefährlicher Situationen in der Cloud.Bild: Fraunhofer-Institut für Kognitive Systeme IKS

Eine Cloud stellt Computerressourcen als Dienstleistung bereit, die nach Bedarf angefordert werden können. Die möglichen Gründe, sie zu verwenden, sind vielfältig: Das fängt an beim zunehmenden Bedarf an Rechenleistung für Maschinelles Lernen und dem einhergehenden Energiebedarf, der vor allem in mobilen Systemen die Akkus zusätzlich beansprucht. Läuft die Software in der Cloud, kann sie darüber hinaus mit einem Klick aktualisiert und einfacher optimiert werden als auf einer eingebetteten Steuerung. Hinzu kommt, dass manche Funktionen, wie eine zentrale Koordination, nur möglich sind, wenn Informationen an einer Stelle zusammengefasst und verarbeitet werden.

Allerdings sind bei der Auslagerung einer Kontrollfunktion aus der lokalen Steuerung eines Roboters oder Fahrzeugs in eine Rechenwolke schnell auch sicherheitskritische Funktionen betroffen. Und ein Versagen dieser Funktionen kann eine unmittelbare Gefährdung darstellen. Die Betriebssicherheit des Systems muss aber stets gewährleistet werden. Bei der Entwicklung solcher Cyber-Physischen Systeme (CPS) müssen Ingenieure daher alle Arten von Zuverlässigkeitsanforderungen berücksichtigen. So ist es beispielsweise keine Option, die Sicherheit zu gewährleisten, indem man die Anforderungen an die Flexibilität oder Verfügbarkeit herabsetzt. Mehrfach redundante Systeme jedoch treiben die Kosten in die Höhe und helfen nicht bei allen Risiken. Stattdessen ist es die Aufgabe der Ingenieure, die Leistung des CPS zu optimieren, ohne dabei die Sicherheitsziele zu verletzen.

Anwendungsfall: Warenlager und autonome Gabelstapler

Das Fraunhofer-Institut für Kognitive Systeme (IKS) hat zusammen mit Partnern aus der Industrie untersucht, wie autonome Gabelstapler von der Cloud profitieren können, wenn sie die Personenerkennung in die Cloud auslagern und wie dabei auftretende Herausforderungen überwunden werden können. Nicht immer lassen sich die Bereiche, in denen Menschen arbeiten und in denen Gabelstapler fahren, vollständig trennen. Auch in einem gut aufgeräumten Warenlager gibt es schlecht einsehbare Stellen, beispielsweise an Kreuzungen zwischen Lagerregalen. Während für Menschen hier beispielsweise Spiegel ausreichen, ist es für Maschinen noch eine Herausforderung, die Spiegel zu erkennen, und nicht alle Arten von Sensoren können Nutzen daraus ziehen. In der Cloud ist es dagegen möglich, Informationen aus vielen Quellen zu kombinieren, beispielsweise Sensordaten mehrerer Maschinen oder von zusätzlichen Infrastruktursensoren, die nicht nur einen Blick um die Ecke, sondern einen Überblick über das ganze Warenlager erlauben.

 Das Fraunhofer-Institut für Kognitive Systeme (IKS) hat zusammen mit Partnern aus der Industrie untersucht, wie autonome Gabelstapler von der Cloud profitieren können.
Das Fraunhofer-Institut für Kognitive Systeme (IKS) hat zusammen mit Partnern aus der Industrie untersucht, wie autonome Gabelstapler von der Cloud profitieren können.Bild: ©chesky/adobestock.com

Herausforderungen bei der Auslagerung

Ein System gilt einfach gesagt als sicher, wenn das verbleibende Risiko ausreichend gering ist. Dieses Risiko wird über eine systematische Gefahren- und Risikoanalyse bestimmt. Dabei werden mögliche Fehlfunktionen des Systems, die daraus resultierenden Gefahren, Schadensschwere und Kontrollierbarkeit ermittelt, sowie die Häufigkeit der jeweiligen Betriebssituation. Standards können die Anforderungen, die sich daraus ergeben, allgemein festhalten und vereinfachen damit die Analyse des Systems. Für fahrerlose Transportfahrzeuge beschreibt beispielsweise die ISO3691-4:2020, welche Sicherheitsvorkehrungen benötigt werden.

Die Forscherinnen und Forscher des Fraunhofer IKS wollten aber zusammen mit ihren Partnern zeigen, dass gerade die Erkennung gefährlicher Situationen in der Cloud helfen kann, Geschwindigkeitsreduktionen zu vermeiden, ohne das Risiko für Arbeiter zu erhöhen. Beispielsweise können Beobachtungen von Infrastruktursensoren eine Entscheidungsgrundlage für eine intelligente virtuelle Ampel bereitstellen. Dies bedeutet jedoch, dass eine sicherheitskritische Funktion – die Vermeidung der Kollision mit Menschen im Warenlager – nicht mehr nur in dem Fahrzeug selbst abläuft. Aber: Die Auslagerung eines Teils der Personenerkennung in die Cloud geht über den Standard hinaus.

Safe Intelligence als Lösungsansatz

Das Fraunhofer IKS forscht als unabhängiger Partner der Wirtschaft anwendungsorientiert zu verlässlichen Softwaretechnologien für sicherheitskritische Anwendungen, damit intelligente Software ihr Potenzial voll entfalten kann. Der Ansatz des Fraunhofer IKS heißt Safe Intelligence: Intelligenz und Safety werden wirklich in Einklang gebracht. Damit das funktioniert, müssen Funktions- und Sicherheitsentwurf aufeinander abgestimmt erfolgen. Aktuell ist der Entwurf solcher Systeme in vielen Teilen noch ein manueller, kreativer Prozess. Das Institut arbeitet aber an Lösungen, die Arbeit dabei zu erleichtern und zu automatisieren.

Seiten: 1 2Auf einer Seite lesen

Fraunhofer-Institut für Kognitive Systeme IKS

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: ©sdecoret/stock.adobe.com
Bild: ©sdecoret/stock.adobe.com
KI als Angreifer

KI als Angreifer

Im ‚Allianz Risk Barometer 2022‘ stehen Cybervorfälle auf Platz 1 der größten globalen Geschäftsrisiken. Cybergefahren übertreffen damit Covid-19 und die Unterbrechung von Lieferketten. In Zukunft führt die zunehmende Digitalisierung zu neuen Gefahren, gegen die sich Unternehmen und Organisationen im Jahr 2022 entsprechend wappnen müssen. Security-Anbieter Carmao zeigt auf, auf welche Cybervorfälle Unternehmen vorbereitet sein sollten – dabei spielt auch künstliche Intelligenz eine Rolle.

mehr lesen
Bild: ©ArtemisDiana/stock.adobe.com
Bild: ©ArtemisDiana/stock.adobe.com
Gesundes Misstrauen

Gesundes Misstrauen

Never trust, always verify – diesem Motto folgt das Sicherheitsmodell Zero Trust. Keinem Akteur, der auf Ressourcen zugreifen möchte, wird vertraut. Vielmehr erfordert jeder einzelne Zugriff eine Authentifizierung. Der Gedanke dahinter ist einfach: Implizites Vertrauen ist an sich bereits eine Schwachstelle, welche Angreifer für laterale Bewegungen und den Zugriff auf sensible Daten missbrauchen können. Denn die Festung – also das Firmennetzwerk – ist schon lange nicht mehr uneinnehmbar.

mehr lesen

Warnung vor Angriffen auf industrielle Steuerungssysteme

Als Reaktion auf eine von der CISA herausgegebene Warnung kommentiert Marty Edwards, VP for OT Security bei Tenable: „Die von der US-Regierung herausgegebene Joint Advisory über fortschrittliche Tools, die für Angriffe auf industrielle Steuerungssysteme und OT-Umgebungen verwendet werden, ist besorgniserregend.

mehr lesen