Die Big Data Kluft überwinden

Wie Engineering und IT am optimalen Nutzen von Daten arbeiten
Der Wettbewerb, Marktgegebenheiten und Innovationen verlangen von Unternehmen, dass sie die Personen, Prozesse und Technologien evaluieren, die für die Entwicklung von Produkten und Dienstleistungen eingesetzt werden. Für Unternehmen aus dem Bereich der Mess- und Prüftechnik steckt hinter dieser Evaluierung die aufkommende Problematik von Big Analog Data, zu der das Erfassen und Analysieren der gewonnenen Rohdaten gehört.

Im Gegensatz zur Datenflut, die gewöhnlich mit klassischen IT-Datenquellen assoziiert wird, wie etwa Social-Media- und unternehmensweite Anwendungen, stellen Lösungen zu Big Analog Data eine größtenteils ungenutzte Quelle von Informationen und Erkenntnissen dar, mit denen Mess- und Prüftechnikfirmen in datenzentrierten Anwendungen Wettbewerbsvorteile identifizieren und schaffen können. Dieses Unterfangen ist nicht zu unterschätzen, wenn man bedenkt, dass die International Data Corporation davon ausgeht, dass nur 5% der heute erfassten Daten auch analysiert werden. Im Rahmen der Anstrengung, Lösungen zu Big Analog Data besser zu erfassen, zu speichern und zu nutzen, müssen Ingenieure zunächst die Rolle der IT erkennen, die diese bei der Verwaltung der Daten spielt. Derzeit bewirkt allein die schiere Datenmenge, die in technischen Abteilungen erzeugt wird, dass sich eine Kluft zwischen IT und Engineering auftut. Wenn diese Gruppen nicht gemeinsam an der Entwicklung von Werkzeugen und Methoden zur besseren Nutzung dieser Daten arbeiten, wird sich diese Kluft weiter vertiefen. Der erste Schritt hin zu einem Zusammenwirken sind Kenntnisse darüber, wie diese Datenfluten (= Big Data) klassifiziert werden: strukturiert, unstrukturiert oder teilstrukturiert. Bislang haben sich die meisten Big-Data-Lösungen auf strukturierte Daten konzentriert. Die vom Nutzer definierten strukturierten Daten verkörpern ein bestimmtes Verhältnis zum Nutzer, der zahlreiche Werte (Name, Geburtsdatum, Adresse) als Rohdaten eingibt. Unstrukturierte Daten enthalten keine Metadaten, folgen keinem Schema und richten sich nicht nach anderen zuvor festgelegten Regeln. Die dritte Kategorie, teilstrukturiert, wird vom dramatischen Anstieg der Menge an erfassten Testdaten beeinflusst. Da immer mehr Prüfsysteme rund um die Uhr für die Erfassung von Testdaten eingesetzt werden, wird deren Volumen schon bald das der von Menschen erzeugten Daten übertreffen. Weil Testdaten so viele Informationen beinhalten, ist es schwierig, jedem einzelnen Byte einen strukturierten Wert zuzuweisen. Das Erstellen von Datenhierarchien sorgt für Struktur und erleichtert das Auswerten der Daten nach ihrer Erfassung. Teilstrukturierte Testdaten sind in der Regel mit einem Zeitstempel gekennzeichnet und werden dann über einen festgelegten Zeitraum oder auf ein festgesetztes Stimulus-Antwort-Muster hin analysiert.

Kombination Datenanalyse und IT-Werkzeuge

Die meisten Unternehmen implementieren ihre Lösungen für Testdaten suboptimal, da sie nicht damit gerechnet haben, wie wertvoll die Korrelation der aus diesen Stimulus-Antwort-Daten gewonnenen Informationen zum Zeitpunkt der Implementierung sein kann. Bei den effektivsten Methoden zur Bewältigung dieser Herausforderung werden Testdatenanalysen mit klassischen IT-Werkzeugen kombiniert. Allerdings erfordert diese Architektur einen neuen Ansatz bei der Datenintegration und -verwaltung. Dazu gehören neue Infrastrukturen und Fähigkeiten für das Speichern, Auswerten und Analysieren der aussagekräftigen Daten. Diese Lösungen müssen so ausgelegt werden, dass neue Datenquellen analysiert und in vorhandene Datenbestände integriert werden. Obwohl IT-Abteilungen nicht immer Testdaten von Ingenieuren und Wissenschaftlern in ihre Gesamtzielsetzungen eingebunden haben, erkennen sie jetzt den attraktiven Wert für das Unternehmen, der darin besteht, dass Analysen und Algorithmen nicht zur Auswertung dieses Datenbergs, sondern auch zur Eröffnung neuer geschäftlicher Möglichkeiten herangezogen werden. In der Phase des Übergangs stellen sich Anwendern folgende Fragen: -Werden über die Hälfte der Analysen manuell durchgeführt?, -Verbringt ein Team über fünf Stunden pro Woche mit der Suche nach Datentrends?, -Welche Datenmenge wird letztlich analysiert? Liegt sie bei unter 80% der erfassten Daten?, -Existiert ein optimierter, abteilungsübergreifender Prozess? Oder verwenden verschiedene Teams unterschiedliche Werkzeuge?

Bereichsübergreifendes Datenverwaltungsteam

Damit der Wandel hin zu einer testdatenzentrierten Organisation effizient erfolgen kann, sollte ein bereichsübergreifendes Team Lösungen gemeinsam prüfen und Kompatibilität sicherstellen. Zum Team sollte ein Vertreter der IT, ein für die Datenerfassung zuständiger Ingenieur oder Techniker, ein Datenexperte sowie eine Führungskraft mit einem guten Blick dafür gehören, wie neue Lösungen in anderen Abteilungen umgesetzt werden können. Darüber hinaus sollte ein leitender Angestellter ein besonderes Interesse daran haben, welches Ergebnis durch das Einbinden von Testdatenanalysen erzielt wird, sodass sich wichtige Mitglieder des bereichsübergreifenden Teams für Fortschritte verantwortlich fühlen.

Ergebnisse nicht sofort erwarten

Viele Unternehmen machen den Fehler, eine vollständige Lösung zur Datenanalyse innerhalb eines unangemessenen Zeitraums zu erwarten. Werden die Bemühungen unterschätzt, die bei der Abstimmung mehrerer Teams und gleichzeitiger Revision bestehender Arbeitsabläufe notwendig sind, werden die Teams gewöhnlich Lösungen ohne passendes Verständnis für die wahren Bedürfnisse vorschlagen. Daraus ergibt sich eine unbrauchbare Lösung, die von den Endnutzern nicht übernommen wird. Eine vollständige Analyselösung für Testdaten beinhaltet kleinere, stufenweise Schritte und gewinnt im Verlauf an Dynamik für Endnutzer, IT-Experten, Unternehmensleiter usw. In ihrem Bereich führende Unternehmen setzen häufig ein internes Pilotprojekt in einer einzelnen Abteilung um, bevor die Anforderungen an die Datenanalyse dokumentiert werden. Dieses Pilotprojekt beinhaltet das Integrieren eines Datenspeichermechanismus speziell für Testdaten in bestehende IT-Infrastruktur, das Testen mehrerer Analysesoftwarepakete und das Definieren eines durchgängigen Analyseprozesses. So können wichtige Akteure den Fluss der erfassten Daten verstehen und Engpässe identifizieren. Die IT-Abteilung hat so zudem Zeit, die Unterschiede zwischen klassischen Big Data und Testdaten herauszufinden und Strategien zum Einsatz der verschiedenen Werkzeuge für die erfolgreiche Umsetzung von Testdatenlösungen festzulegen. Das Beseitigen von Engpässen schlägt sich in Gewinn, Qualität und Marktreife nieder und verhindert das Veröffentlichen inadäquater Produkte, da mehr Fehler und Testergebnisse außerhalb der Spezifikation erkannt werden. Diese Vorteile werden den Gesamtgewinn des Unternehmens steigern.

Seiten: 1 2Auf einer Seite lesen

National Instruments Germany GmbH
http://www.ni.com

Das könnte Sie auch Interessieren

Weitere Beiträge

Entwicklungslösung für CC-Link IE TSN-Gerätehersteller

Mitsubishi Electric sieht in Time-Sensitive Networking die Zukunft und konzentriert seinen Entwicklungsaufwand auf das neue industrielle Kommunikationsnetzwerk CC-Link IE TSN. Neben einem in seiner Gesamtheit kompatiblen Produktportfolio kündigt der Automatisierungsspezialist Entwicklungslösungen für Gerätehersteller an.

mehr lesen