LinkedIn Logo YouTube Logo
ANZEIGE

Physical AI soll neue Ära einläuten

Durch die Verbindung von künstlicher Intelligenz und Physik revolutioniert Physical AI die Art und Weise, wie Maschinen in und mit der realen Welt interagieren. Diese neue Technologie, die auch als generative physische KI bezeichnet wird, ermöglicht es Robotern und autonomen Fahrzeugen, mit höchster Genauigkeit komplexe Umgebungen wahrzunehmen, sie zu verstehen und in ihnen autonom zu navigieren. Durch die Erstellung realitätsnaher virtueller Simulationen beeinflusst Physical AI nicht nur Robotik und autonome Fahrzeuge, sondern eröffnet auch neue Möglichkeiten in dem Gaming-Bereich und im Fertigungsumfeld.

Bild: Nvidia GmbH

Wie funktioniert Physical AI?

Generative KI-Modelle – darunter Sprachmodelle wie GPT und Llama – werden mit großen Mengen an Text- und Bilddaten trainiert. Diese KIs beeindrucken durch ihre Fähigkeit, menschliche Sprache zu erzeugen und abstrakte Konzepte zu entwickeln. Ihr Verständnis der physischen Welt und ihrer Regeln ist jedoch begrenzt, es fehlt der räumliche Kontext.

Generative physische KI erweitert bestehende generative KI-Modelle um die Fähigkeit, räumliche Beziehungen und physische Vorgänge in unserer dreidimensionalen Welt zu verstehen. Diese Erweiterung wird durch die Integration zusätzlicher Daten in den Trainingsprozess der KI ermöglicht, die Informationen über räumliche Strukturen und physikalische Gesetze der realen Welt enthalten.

Die 3D-Trainingsdaten, die sowohl als Quelle als auch als Umgebung für das KI-Training dienen, werden mithilfe hochpräziser Simulationen erzeugt.

Die physikbasierte Datengenerierung beginnt mit der Erstellung eines digitalen Zwillings, beispielsweise einer Fabrik. In diesem virtuellen Raum werden Sensoren und autonome Maschinen wie Roboter integriert. Anschließend werden reale Szenarien auf Basis von physikbasierten Simulationen durchgeführt, bei denen die Sensoren verschiedene Interaktionen erfassen, wie die Dynamik von starren Körpern – zum Beispiel Bewegungen und Kollisionen – oder die Interaktion von Licht mit seiner Umgebung.

Welche Rolle spielt Reinforcement Learning?

Reinforcement Learning ermöglicht es autonomen Maschinen, in simulierten Umgebungen Fähigkeiten zu entwickeln, die sie anschließend in der realen Welt anwenden können. Mit dieser Methode lernen Maschinen durch beliebig viele Iterationen neue Fähigkeiten in einer sicheren Umgebung.

Durch diese Technologie werden Physical AI-Modelle für die erfolgreiche Ausführung von Aufgaben in der Simulation belohnt, wodurch sie sich kontinuierlich anpassen und verbessern. Durch wiederholtes Training lernen autonome Maschinen, sich an neue Situationen und unvorhergesehene Herausforderungen anzupassen, die sie für den Einsatz in der realen Welt vorbereiten. Mit der Zeit entwickeln sie ausgefeilte feinmotorische Fähigkeiten für praktische Anwendungen wie das präzise Verpacken von Kisten, die Unterstützung von Produktionsschritten oder die autonome Navigation in komplexen Umgebungen.

Warum ist Physical AI wichtig?

Bislang konnten autonome Maschinen ihre Umgebung nicht umfassend wahrnehmen und interpretieren. Generative Physical AI ermöglicht es nun, Roboter zu entwickeln und zu trainieren, die nahtlos mit der realen Welt interagieren und sich flexibel an wechselnde Bedingungen anpassen können.

Für die Entwicklung dieser Technologie sind leistungsstarke, physikbasierte Simulationen unerlässlich. Sie bieten eine sichere und kontrollierte Trainingsumgebung für autonome Maschinen. Dieser Ansatz steigert nicht nur die Effizienz und Präzision von Robotern bei der Ausführung komplexer Aufgaben, sondern fördert auch natürlichere Mensch-Maschine-Interaktionen. So verbessern sich Zugänglichkeit und Funktionalität in praktischen Anwendungen deutlich.

Generative physische KI erschließt neue Fähigkeiten, die alle Branchen transformieren werden, wie an den folgenden Beispielen ersichtlich wird.

Physical AI steigert die Einsatzfähigkeit von Robotern in verschiedenen Umgebungen erheblich.

Autonome mobile Roboter (AMR) in Lagerhäusern können komplexe Umgebungen navigieren und Hindernissen, einschließlich Personen, dank des direkten Feedbacks von bordeigenen Sensoren ausweichen.

Manipulatoren können ihre Greifkraft und -position an die Platzierung von Objekten auf einem Förderband justieren und verfügen über fein- sowie grobmotorische Fähigkeiten, die an den jeweiligen Objekttyp angepasst sind.

Chirurgische Roboter profitieren von dieser Technologie, indem sie komplexe, filigrane Aufgaben wie das Einfädeln von Nadeln und das Nähen erlernen – ein Beispiel für die Präzision und Anpassungsfähigkeit der generativen physischen KI bei der Schulung von Robotern für spezialisierte Aufgaben.

Humanoide Roboter – Allzweckroboter – benötigen sowohl grob- als auch feinmotorische Fähigkeiten und müssen die physische Welt unabhängig von der jeweiligen Aufgabe wahrnehmen, verstehen, navigieren und mit ihr interagieren.

Autonome Fahrzeuge (AVs) nutzen Sensoren, um ihre Umgebung umfassend wahrzunehmen und zu interpretieren. Das ermöglicht fundierte Entscheidungen in unterschiedlichsten Umgebungen – ob auf der Autobahn oder in der Stadt. Durch das Training mit Physical AI können AVs Fußgänger präziser erkennen, auf Verkehrs- und Wetterbedingungen reagieren und eigenständig die Spur wechseln. So passen sie sich effektiv an eine Vielzahl unerwarteter Situationen an.

Smart Spaces: Physical AI verbessert die Funktionalität und Sicherheit in großen Innenräumen wie Fabriken oder Lagerhallen, wo Menschen, Fahrzeuge und Roboter täglich im Einsatz sind. Mit fest installierten Kameras und fortschrittlichen Computer-Vision-Modellen können Teams die dynamische Routenplanung optimieren und die betriebliche Effizienz steigern, indem sie alle Aktivitäten und Bewegungen in diesen Räumen erfassen. Gleichzeitig wird die Sicherheit des Personals gewährleistet – dank präziser Wahrnehmung und Interpretation auch komplexer, weitläufiger Umgebungen.

Ein Blick in die Zukunft zeigt, dass Physical AI eine entscheidende Rolle bei der Gestaltung unserer Technologielandschaft übernehmen wird. Sie ebnet den Weg für eine Welt, in der intelligente Maschinen und die physische Realität nahtloser denn je miteinander interagieren.

Nvidia GmbH

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: Beckhoff Automation GmbH & Co. KG
Bild: Beckhoff Automation GmbH & Co. KG
Die Zukunft der Robotik ist modular

Die Zukunft der Robotik ist modular

Im Maschinen- und Anlagenbau sind Handhabungsaufgaben so unterschiedlich wie die Anwendungen selbst. Die Anforderungen reichen von einfachen Pick-and-Place-Aufgaben bis hin zu hochdynamischen, mehrarmigen Handhabungslösungen. Für jede Aufgabe den passenden Roboter auf Lager zu haben, ist jedoch kaum realisierbar. Mit dem modularen Atro-System von Beckhoff steht eine Lösung bereit, die es ermöglicht, aus Standardmodulen eine anwendungsspezifische Roboterkinematik zusammenzustellen – ohne aufwendige Sonderlösungen oder eine Vielzahl verschiedener Robotertypen vorhalten zu müssen.

mehr lesen
Bild: Omron Electronics GmbH
Bild: Omron Electronics GmbH
So ebnen skalierbare und kostengünstige Lösungen den Weg zu operativer Exzellenz

So ebnen skalierbare und kostengünstige Lösungen den Weg zu operativer Exzellenz

Automatisierung ist nicht nur für große Firmen stemmbar. Viele moderne Automatisierungstools und -technologien sind erschwinglich und skalierbar, sodass kleine und mittelständische Unternehmen klein anfangen und schrittweise weitere Aufgaben automatisieren können. Es gibt passgenaue Lösungen für jede Produktionsherausforderung und jedes Budget.

mehr lesen
Bild: Machineering GmbH & Co. KG / ©producer/stock.adobe.com
Bild: Machineering GmbH & Co. KG / ©producer/stock.adobe.com
Best Practices für die 
virtuelle Inbetriebnahme

Best Practices für die virtuelle Inbetriebnahme

Wie lässt sich Simulation für die virtuelle Inbetriebnahme von Produktionsanlagen am besten einsetzen? Welche Unterschiede ergeben sich bei verschiedenen Anwendungsszenarios? Welche Handlungsempfehlungen sollten beachtet werden? Diese Fragen stehen im Fokus des Forschungsprojekts InterAcDT, an dem neben dem Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik der FAU Erlangen-Nürnberg auch die Partner Machineering, ITQ und Bosch beteiligt sind.

mehr lesen
Bild: ©Lance/stock.adobe.com
Bild: ©Lance/stock.adobe.com
Industrial Metaverse – die Heimat der digitalen Zwillinge

Industrial Metaverse – die Heimat der digitalen Zwillinge

Auf der Hannover Messe 2025 präsentierte sich die Edag Group als Engineering-Dienstleister mit einem klaren Fokus auf das Industrial Metaverse. Wie sich Produktionsanlagen künftig durchgängig digital – vom Gebäude über die Fertigungslinie bis hin zur Mitarbeiterschulung – planen, simulieren und optimieren lassen, erläuterte Jan Berner, Leiter Technik und Prozesse bei Edag, im Gespräch mit dem SPS-MAGAZIN am Messestand. Sein Fazit: Das Industrial Metaverse ist nicht bloß ein neues Tool – es bringt Struktur, Geschwindigkeit und Qualität in die industrielle Planung.

mehr lesen