HMI 5.0 - Ist Touchbedienung noch State of the Art?

HMI 5.0? Wurde da nicht eine Versionsnummer übersprungen? Nicht, wenn man die Innovationen und damit die Zukunft des Human Machine Interface betrachtet. Brauchen wir dann überhaupt noch Touchscreens? Oder steht die nächste Lösungsgeneration für das industrielle Bedienen und Beobachten bereits vor der Tür?


Vor zwölf Jahren machte das iPhone mit einem neuen Bedienkonzept Furore. Die Tastatur wurde durch einen Touchscreen ersetzt, die gesamte Vorderseite des Geräts füllt ein riesiger Bildschirm mit einer bislang nicht da gewesenen Pixeldichte. Die Bedienung erfolgt über einen Touchscreen mit projiziert-kapazitivem Feld, das auch mehrere Touchereignisse gleichzeitig erkennen und auswerten kann. Sinnvoll einzusetzen ist diese Technologie nur mit einer völlig neuen Art der Benutzerführung. Tippen, Sliden und andere Gesten mit einem oder zwei Fingern steuern unterschiedliche Funktionen. Seit dieser Produktvorstellung hat sich die Welt der Ein- und Ausgabe gewandelt. Aus der punktuellen Berührung des Touchscreens, die genau eine Aktion auslöste, wurden Gesten mit einem oder mehreren Fingern, die komplexe Aktionen auslösen. Drag&Drop oder Pinch funktionieren aus dem Handgelenk, ohne umständlich Objekte über Menüs auszuwählen und Aktionen zuzuordnen. Diese Umstellung verlangt eine völlig neue darunter liegende Software und damit ein neues Bedienkonzept. Aber müssen Aktionen immer durch Berühren eines dem Bildschirm vorgelagerten Touchscreens initiiert werden? Ist es nicht auch denkbar, Bewegungen vor dem Bildschirm auszuwerten? Gleich mehrere Technologien nutzen diese Vorstellung. Für Gesten, die keine besondere Anforderung an die Genauigkeit stellen, eignen sich 3D-Touchsysteme, die Positionen durch eine Änderung in einem elektrischen Feld bestimmen. Für qualitative Bestimmungen wie Lauter/Leiser, Höher/Tiefer, Zoom in/Zoom out reicht die Auflösung dieser Systeme.

Alternativen zum Touchscreen

Soll die Position genauer ausgewertet werden, kommen Kameras zum Einsatz, die z.B. den Händen des Bedieners folgen. Die Perfektion in Auflösung der Position bieten die Steuergeräte für AR/VR Brillen, die im System eine feinfühlige Steuerung erlauben. Einen anderen Ansatz verfolgt das Eye Tracking. Nach einer kurzen Lernphase ist das System in der Lage, die Pupillen des Bedieners mit Hilfe von Kameras zu verfolgen. Der Mausklick erfolgt durch Blinzeln. Nach einer Eingewöhnung kann der Bediener ohne den Einsatz der Hände das System bedienen. Anwendungen sind überall dort, wo die Hände gerade nicht frei sind oder steril bleiben müssen. Ein weiterer Trend ist die Sprachsteuerung. Apple, Google und Amazon machen es vor: Das Abrufen von Informationen aus dem Internet oder die Steuerung von Geräten im heimischen Wohnzimmer funktioniert ganz einfach auf Zuruf. Dahinter steckt eine künstliche Intelligenz, die in einer Serverfarm des Anbieters steckt. Etwas einfacher ist die Spracheingabe, die mehr oder weniger strikten Syntaxregeln folgt. Sie finden wir im Navigationssystem unseres PKW: "Bitte geben Sie die Adresse ein in der Form Stadt, Straße und Hausnummer". Das Parsing, also das Zuordnen der eingegebenen Worte zu Feldern in der Datenbank kann ein lokaler Controller durchführen, und die gewünschte Aktion, sei es die Navigation zur Zieladresse oder das Wechseln des Radiosenders, ausführen.

Anzeige

Visualisierung

Auf der anderen Seite der Interaktion steht die Ausgabe, die meistens ein Display erledigt. Auch dort schreitet die Technik voran. Wiederum getrieben durch die Stückzahlen des Massenmarktes erscheinen OLED mit brillanter Darstellung und einer durch den enormen Kontrast hervorragenden Bildqualität. In bestimmten Anwendungen scheinen sie der LCD-Technologie den Rang abzulaufen, auch wenn sie prinzipbedingt einem Alterungsprozess unterliegen, der durch Nachlassen der Helligkeit sichtbar wird. TFT kontert mit Quantum Dots, die unter Namen wie QLED in den Markt drängt und einen hohen Farbumfang mit leuchtenden Farbtönen verspricht. Noch im Laborstadium befinden sich Schirme mit Mikro-LEDs, die der LED-Technologie zu einer Renaissance verhelfen und sie von der reinen Lichtquelle für TFTs zur Bildquelle an die Front rücken lässt. Die Produktion großer Bildschirme mit hoher Auflösung ist fertigungstechnisch für die Serie noch nicht gelöst, Prototypen zeigen jedoch das große Potential, das diese Technologie aufweist.

In Kombination zum Erfolg

Zurück zum HMI: Der Anwender von heute darf ein durchgängiges Konzept erwarten. Nicht eine Technologie alleine führt zum Erfolg, sondern die Kombination. Ein Human-Machine-Interface muss eine schlüssige Eingabefunktion anbieten, die viele Sinnesorgane anspricht. Zu den beschriebenen Touchsystemen kommt die haptische Rückmeldung, die dem Bediener über den Tastsinn auf direktem Wege die erfolgreiche Eingabe signalisiert. Sie könnte auch akustisch über einen Piepser erfolgen, was jedoch in lauter Umgebung unter Umständen untergeht. Das Display stellt mit hoher Auflösung die gewünschten Informationen ergonomisch dar. Einen entscheidenden Anteil hat jedoch die Benutzerführung, die die Software vornimmt. Sie legt fest, wie Informationen präsentiert werden, durch Farben, Formen, Anordnung auf dem Bildschirm und Darstellung in Relation zueinander.

Empfehlungen der Redaktion

HMI 5.0 als nächste Revolution

Was bedeutet jetzt HMI 5.0? Der Begriff beschreibt die umfassende Interaktion des Menschen mit dem System mithilfe aller Sinne. Neue Methoden kommen auf den Markt, z.B. für die Eingabe die Erkennung von 3D-Gesten, die Spracherkennung, das Eye Tracking. Für die Ausgabe steigt die Bedeutung der haptischen Rückmeldung, die das Manko gängiger Touchscreens kompensiert, und die dreidimensionale Visualisierung mit Hologrammen oder Brillen. Durch leistungsfähigere Grafikkarten sind Brillen für AR und VR bezahlbar geworden. Zunächst getrieben durch Computerspiele, haben VR-Brillen ihre Berechtigung bereits im Simulator-Training gefunden, wo sie den Bediener optisch und akustisch in eine realistische Szene versetzen. Der Kommunikationskanal zwischen Mensch und Maschine ist breiter geworden: Sehen und gesehen werden - mit Bildausgabe und Eye-Tracking; hören und gehört werden - mit Tonausgabe und Spracheingabe; tasten und fühlen - mit Touchscreen und haptischem Feedback. Nur Riechen und Schmecken fehlen noch in diesem Reigen.

Fazit

Ist Touchbedienung noch State of the Art? Diese Frage kann man ganz klar mit ja beantworten. Trotz vieler neuer Technologien wird der Touchscreen noch längere Zeit den Ton angeben. Eine wichtige Rolle darüber hinaus wird die umfassende, multi-sensuelle Kommunikation des Menschen mit dem Computer spielen, die wir HMI 5.0 nennen, und die sich nicht nur auf Tastatur und Bildschirm bzw. Touchscreen beschränkt. Auch wenn einigen Technologien noch nicht der Durchbruch in die Breite gelungen ist, stehen sie als Werkzeug bereit, dem Anwender eine neue User Experience zu ermöglichen. Mit ihrer Unterstützung ist er bestens präpariert, wenn es um die Interaktion mit künstlicher Intelligenz oder Machine Learning geht.

Anzeige

 
Beckhoff Banner: 190722_Beckhoff_wb109_EtherCAT-Messtechnikmodule_EK11-18G_160x600_ID2079