Deep-Learning-Systeme für den Maschinen- und Anlagenbau

Kognitive Selbstlernprozesse

Fast täglich liest man über neue Deep-Learning-Ansätze in allen möglichen Bereichen. Allerdings stellt sich die Frage, inwieweit dieses Thema bereits tauglich für den industriellen Einsatz ist. Um hierzu mehr zu erfahren, hat das SPS-MAGAZIN bei Rahman Jamal, Global Technology & Marketing Director von National Instruments, nachgefragt.

Verwenden Sie bereits Deep-Learning-Ansätze in NI-Produkten?

Jamal: Beispiele wie die oben geschilderte Implementierung bei Cogito Instruments gibt es mittlerweile einige. Ein weiteres Beispiel ist das Deep Learning Toolkit for Labview von Ngene LLC, das Labview die Möglichkeiten der Deep-Learning-Infrastruktur verleiht und der Community der Labview-Entwickler Zugang zu Machine-Learning-Anwendungen wie Bild-, Objekt- oder Spracherkennung ermöglicht. Das komplett in Labview verwirklichte Toolkit vereinfacht den Prozess der Gestaltung, Erstellung, Konfigurierung, Schulung und Visualisierung komplexer neuronaler Netze in Labview. Da die Funktionsfähigkeit des Toolkits nicht von einer externen Bibliothek oder Engine abhängt, gestaltet sich der Prozess der Implementierung trainierter Systeme auf Embedded-Ziele nahtlos. Ebenso steht eine kleine kostenfreie Library in der Community zum Download zur Verfügung. Hierbei handelt es sich um ein Toolkit, das für einfache neuronale Netzwerk-Anwendungen konzipiert ist. Es ist also nicht für anspruchsvollere Anwendungen im Bereich der künstlichen Intelligenz geeignet, sondern dient als Startpunkt, zur Evaluierung oder als Proof of Concept für die Weiterentwicklung.

Besteht nicht die Gefahr, dass wir nicht länger kontrollieren können, wie es zu gewissen Entscheidungen gekommen ist?

Jamal: Definitiv! Nutzt man z.B. Deep Learning, um Aufsätze zu korrigieren und zu bewerten, erhält man meist sehr gute Ergebnisse, die fast der menschlichen Leistung entsprechen. Das Problem ist aber: Man erfährt nicht, warum die Bewertung so ausgefallen ist. Mathematisch könnte man natürlich herausfinden, welche Knoten eines komplexen neuronalen Netzes aktiviert wurden. Doch was die Neuronen genau machen sollten und vor allem, was die einzelnen Neuronenschichten im Kollektiv taten, bleibt uns verborgen. So können wir die Entscheidungsfindung nicht nachvollziehen. Anders beim Machine Learning: Durch die wie Entscheidungsbäume strukturierten Algorithmen sehen wir exakt, warum etwas wie entschieden wurde. Nun mag man vielleicht sagen, dass es nicht ganz so tragisch ist, wenn man nicht nachvollziehen kann, wie die Bewertung eines Aufsatzes vonstattenging. Auch wenn Deep Learning z.B. bei Amazon fehlschlägt und der Kunde beim Kauf eines Produkts die falschen ergänzenden Produkte vorgeschlagen bekommt, kann er die Vorschläge einfach nicht zur Kenntnis nehmen. In anderen Fällen jedoch kann ein Mangel an Entscheidungsgründen enorme Probleme mit sich bringen. Im Finanzwesen etwa ist es unabdingbar, dass Entscheidungen nachvollziehbar sind. Immerhin hat der Kunde ein Recht darauf zu erfahren, warum ihm z.B. ein Kredit verwehrt wird. Kritiker weisen darauf hin, dass die Vorhersagen heutiger Algorithmen zu lediglich 90 Prozent korrekt sind. Eine Trefferquote von 100 Prozent ist schlichtweg nicht möglich. Bei dem Amazon-Beispiel ist das nicht so schlimm. Verrechnet sich der Algorithmus jedoch bei einer Finanzierung, dann ist es durchaus tragisch, denn dies bedeutet, dass zehn Prozent der Kunden, die einen Kredit beantragen, aufgrund eines Systemfehlers abgelehnt werden. In manchen Fällen kann dies existenzgefährdend sein. Wird Deep Learning allerdings in Anwendungen wie etwa in ADAS-Systemen eingesetzt, bei denen es um Leib und Leben geht, dann ist eine 90-prozentige Trefferquote absolut nicht akzeptabel.

Wie lange wird es noch dauern, bis Deep Learning in der Industrie und realen Anwendungen angekommen ist?

Jamal: Bereits heute sind erste Lösungen realisiert, teilweise sogar mit NI-Produkten. So implementierte die Beuth Hochschule für Technik in Berlin neuronale Netze mit Labview und Labview FPGA. Hierbei ging es darum, den Greifvorgangs eines Modells einer menschlichen Hand auf Basis eines künstlichen neuronalen Netzes für die Merkmalserkennung nachzubilden. Ein Bildverarbeitungsalgorithmus wird zum visuellen Erfassen der Greifszene genutzt. Im weiteren Verlauf des Greifvorganges werden die Signale der an dem Handmodell befindlichen taktilen Sensoren mittels neuronaler Netzstrukturen mit Labview ausgewertet. Der auf einem PC-System entworfene Programmcode konnte mit wenigen Änderungen auch auf einem FPGA ausgeführt werden. Ein weiteres Beispiel ist die Implementierung eines echtzeitfähigen Regelungssystems für das Spritzgießen von Kunststoffen, die von der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Exzellenzclusters ´Integrative Produktionstechnik für Hochlohnländer´ an der RWTH Aachen finanziell gefördert wurde. Das bisher eingesetzte Regelungssystem war auf einem Rechner mit Windows XP implementiert, das kein deterministisches Verhalten der ausgeführten Software garantierte. Daher war es nicht möglich, die für eine gewisse Rechenoperation benötigte Rechenzeit vorherzusagen und somit harte Echtzeitanforderungen zu erfüllen. Eine Regelung unter Echtzeitbedingungen stellt jedoch sicher, dass das Regelungssystem zuverlässig und unmittelbar auf Änderungen im Prozessgeschehen reagiert und keine Verzögerungen des Regeltakts auftreten, die die Prozess- und Produktqualität beeinträchtigen oder zu Beschädigungen an Spritzgießmaschine/-werkzeug führen. Das mittels Labview Real-Time, dem FGPA-basierten Multifunktions-I/O-Gerät NI PXI-7842R, verschiedenen I/O-Modulen der C-Serie sowie dem Real-Time Execution Trace Toolkit neu implementierte Regelungssystem ist in der Lage, harte Echtzeitbedingungen zu erfüllen, und erlaubt bei der Ausführung der Regelalgorithmen zeitlichen Determinismus. Darüber hinaus gestattet es durch die Parallelisierung der Algorithmen eine Steigerung der Rechengeschwindigkeit verglichen mit der bisher verfügbaren Windows-basierten Variante. Aktuell ist auch das DARPA-Projekt (Defense Advanced Research Projects Agency). Dort möchte man der Herausforderung der begrenzten Mobilfunkfrequenzen mit einem flexiblen Ansatz begegnen. Im Rahmen der Zusammenarbeit stellen wir die Hauptinfrastruktur für ein zukunftsweisendes Channel Emulations Testbed namens Colosseum zur Verfügung. Dabei werden USRP-SDRs (Software Defined Radios) eingesetzt, die eine große Bandbreite an Open-Source-, aber auch proprietären Werkzeugen wie GNU Radio, RFNoC und Labview unterstützen. Das Testbed unterstützt bis 256×256-Echtzeitkanalemulation und die Berechnung von mehr als 65.000 Kanalinteraktionen bei bis zu 80MHz Echtzeitbandbreite pro Kanal. Das Collosseum, das am Johns Hopkins University Applied Physics Laboratory aufgebaut ist, wird in der so genannten DARPA Spectrum Collaboration Challenge eine zentrale Rolle spielen, die die hellsten Köpfe im Bereich der kognitiven Funksysteme und Machine Learning zusammenbringt. Diese Initiative soll sicherstellen, dass die exponentiell wachsende Anzahl an drahtlosen Geräten vollen Zugang auf das immer mehr ausgelastete elektromagnetische Spektrum haben.

Seiten: 1 2 3Auf einer Seite lesen

National Instruments Germany GmbH
http://www.ni.com

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Jubiläen für Automationsgeschäft und Kunden-Event

Jubiläen für Automationsgeschäft und Kunden-Event

Über 5.100 Kunden und Partner kamen zu den Technologie-Tagen im März zu Arburg in den Schwarzwald. Seit der Premiere vor 25 Jahren konnte der Veranstalter in Summe mehr als 100.000 Gäste begrüßen. Parallel feierte diesmal der Geschäftsbereich Automation und Turnkey 30. Jubiläum, der sich einer deutlich wachsenden Nachfrage auf dem Markt gegenüber sieht. Das Schwesterunternehmen AMKmotion war ebenfalls vor Ort und zeigte anschaulich, an welchen Stellen des Spritzgießprozesses seine Antriebslösungen ihre Vorteile ausspielen.

mehr lesen
Bild: Wago GmbH & Co. KG
Bild: Wago GmbH & Co. KG
I/O-System XTR von Wago

I/O-System XTR von Wago

Vor zehn Jahren hieß es bei Wago das erste Mal: XTR. Die Ausführung für „eXTReme“ Umgebungsbedingungen sollte dem Wago I/O System 750 neue Anwendungen und Branchen erschließen. Das betonte die Titelstory des damaligen SPS-MAGAZINs zur Hannover Messe 2014. Eine Dekade später hat die Redaktion bei Wago nachgehakt, ob dieser Plan aufgegangen ist und in welchen Bereichen das XTR-System heute vor allem zu finden ist.

mehr lesen