Multitouch- und Gestenbedienung für HMIs

Das heutige Supervisory- wächst zum Hypervision-System
Smartphones und Tablets erobern nicht nur den Consumer-Markt, sondern dringen auch immer öfter in die Produktionshallen vor. Sie versprechen eine einfache, intuitive Bedienung und ein positives Nutzungserlebnis. Andreas Beu, Manager Embedded & Industrial Solutions bei der User Interface Design GmbH (UID), zeigt wie Maschinen- und Anlagenbauer diese Vorteile nutzen und die neue Bedienphilosophie erfolgreich auf ihre Produkte übertragen können.

Die sich explosionsartig verbreitenden Smartphones und Tablets machen es vor: Mühelos und elegant folgen Texte und Bilder unseren Fingerspitzen, erlauben so ein schnelles Blättern durch Listen und Tabellen (wipe). Durch Spreizen oder Zusammenziehen von Daumen und Zeigefinger werden Informationen stufenlos größer oder kleiner dargestellt (spread und pinch). Ein kurzes Schnippen mit dem Finger über den Bildschirm wechselt die Seite (flick) und durch leichtes Antippen eines Objekts erhalten wir Detailinformationen (tap). Besonders auffällig ist die Leichtigkeit, mit der die Bedienung – im wortwörtlichen Sinne – von der Hand geht. Keine Frage, es macht Spaß sich mit Multitouch-Geräten zu beschäftigen. Spätestens mit dem Aufkommen der ersten Tablets war auch den Maschinen- und Anlagenbauern klar: \“Multitouch- und Gestenbedienung ist die Zukunft für HMIs.\“ Denn hier wächst eine neue Generation an Nutzern heran, die mit Smartphones und Tablets, aber auch mit Spielkonsolen bestens vertraut sind. Deren Bedienwissen können Maschinen- und Anlagenbauer nutzen, indem sie ihre HMI entsprechend gestalten. Und welcher junge Mitarbeiter verwendet nicht lieber eine schicke HMI mit Multitouch- und Gestenbedienung als einen drögen Single-Touch? Neben den positiven Nutzungserfahrungen (von Fachleuten \’User Experience\‘ genannt) bietet die neuartige Bedienphilosophie weitere handfeste Vorteile, beispielsweise eine aufgeräumte Bedienoberfläche. Bei klassischen HMIs wird teilweise rund 20% des gesamten Bildschirms für Bildlaufleisten (Scroll Bars), Blättertasten (Buttons) und Menüs benötigt. Touch-Gesten übernehmen nun diese Funktionen. Neue Touch-Bedienoberflächen stellen Informationen und reale Objekte in den Vordergrund, die durch Ikonen (Icons), Grafiken oder Echtbilder repräsentiert werden. Details oder Funktionen werden erst schrittweise aufgeblättert, wenn der Benutzer sie berührt (Scaffolding). \“Real objects are more fun than buttons and menus\“, bringt es der Android-Gestaltungsleitfaden auf den Punkt. Gestenbedienung mit mehreren Fingern Ein weiterer sehr spezifischer Vorteil für Anlagen und Maschinen ist die Zweihandbedienung. Hierbei werden Bedienelemente für sicherheitsrelevante Funktionen gesperrt. Der Nutzer kann sie nur bedienen, wenn er gleichzeitig mit der Hand eine vorgesehene Stelle am Bildschirm berührt. Nach dem gleichen Prinzip kann eine Hilfefunktion implementiert werden. Der Nutzer berührt mit der einen Hand das Hilfesymbol. Mit der anderen Hand kann er die Elemente auf dem Bildschirm berühren, zu denen er Hilfe benötigt. Bemerkenswert ist allerdings, dass die meisten Touch-Gesten momentan bestenfalls eine gleichzeitige Erkennung von zwei Touch-Punkten benötigen. Warum dann in ein echtes Multitouch-Interface investieren, das fünf, zehn oder noch mehr Touch-Punkte erkennt? Ein wichtiger Grund: Die Hersteller von Smartphones und Tablets arbeiten bereits an der nächsten Generation der Touch-Bedienung. Sicher ist, dass sich das Repertoire der Touch-Gesten erweitern wird. Es werden neue Gesten mit zwei, drei oder vier Fingern hinzukommen. Apple beispielsweise nutzt Vier-Finger-Gesten, um Anwendungen zu schließen, zwischen geöffneten Anwendungen zu wechseln oder gestartete Anwendungen aufzulisten. Diese Gesten sind heute noch unbekannt. Sie werden aber schrittweise ihren Weg ins Gedächtnis der HMI-Nutzer finden. Daher lohnt sich das regelmäßige Studium der Gestaltungsleitfäden für iOS, Android und Windows (siehe Referenzen). Eine Gestenbedienung mit mehreren Fingern macht die Bedienung außerdem noch intuitiver und natürlicher. Ein gutes Beispiel hierfür ist die Geste zum Rotieren eines Objekts. Man kann das Objekt mit zwei Fingern anfassen und bewegen oder man legt alle fünf Finger auf den Schirm und dreht die gesamte Hand. Das ist die viel natürlichere Interaktion, denn so dreht man beispielsweise auch ein Stück Papier auf einer Tischfläche. Gleichzeitige Bedienung durch mehrere Nutzer Auch die Definition eigener Touch-Gesten hat Potenzial. Diese können als Short-Cuts – ähnlich wie die Tastenkombination bei Desktop-Systemen – verwendet werden. Speziell routinierte Anwender können durch eindeutige Touch-Gesten gezielt Funktionen auslösen oder direkt zu bestimmten Informationen in der HMI navigieren. Noch ungenutzt ist die Möglichkeit, dass mehrere Nutzer gleichzeitig den Touchscreen bedienen. So könnte sich beispielsweise ein Maschinenbediener weiter um die laufende Produktion kümmern, während ein Einrichter parallel dazu die Maschine bereits für den neuen Auftrag vorbereitet. Bedingung dafür wäre ein ausreichend großer Bildschirm, welcher alle Informationen für Produktion und Einrichten gleichzeitig darstellen kann, damit die Nutzer sich nicht gegenseitig in ihrer Arbeit behindern. Erfolgreiches Zusammenspiel zwischen Hardware und Betriebssystem Bei all diesen Ideen zum Thema Multitouch- und Gestenbedienung – der Schlüssel ist das erfolgreiche Zusammenspiel von Hardware, Betriebssystem und Entwicklungsumgebung. Hier hat sich in den letzten Monaten einiges getan. Die Industrie-Lieferanten für HMI-Panels haben inzwischen ihr Angebot ergänzt und bieten neben den resistiven Single-Touch-Panels auch gestenfähige Multitouch-Panels an. Zumeist setzen sie – so wie Smartphone- und Tablet-Anbieter – auf Kapazitivtechnologie (Projected Capacative Touch = PCAP). Entsprechende Systeme sind inzwischen auch für große Display-Größen (22\“ oder mehr) verfügbar. Vereinzelt werden auch Infrarot-Touchscreens verwendet. Neu und noch nicht für die Industrie verfügbar ist ein anderes auf Infrarot basierendes System – die sogenannten In-Cell-Touchscreens. Hier sind die Infrarot-Sensoren in den Bildschirm integriert, indem jeder Bildpunkt mit einem Infrarot-Sensor ausgestattet ist. Der Bildschirm ist sozusagen ein riesiger Bildsensor. Er erkennt nicht nur Touch-Punkte, sondern auch Objekte und Bildmuster (Barcodes, QR-Codes, etc.). Analysten erwarten von dieser Technologie große Wachstumsraten, da einige Tablet-Hersteller diese bei der nächsten Produkt-Generation verwenden wollen. Früher oder später wird diese Technologie auch für die Industrie relevant. Mit Windows 8 steht zudem ein Betriebssystem in den Startlöchern, welches eine wesentlich bessere Multitouch-Unterstützung bietet. Auch die Anbieter von Visualisierungslösungen haben das Thema Multitouch- und Gestenbedienung erfolgreich aufgegriffen und unterstützen Gestenerkennung beziehungsweise bieten angepasste Bedienelemente. Bei der Gestaltung einer entsprechenden HMI wird allerdings häufig die Grafikausgabe unterschätzt. Damit Nutzer Interaktionen mit Multitouch und Gesten gut verstehen, muss das visuelle Feedback verständlich gestaltet sein und flüssig den Interaktionen folgen. Hier kommen eine ganze Reihe von Konzepten zum Tragen wie Trägheit, Elastizität und Affordance. Dabei wird das Wissen, welches jeder Mensch von seiner natürlichen Umwelt mitbringt, genutzt: Ein Gegenstand, den ich mit dem Finger antippe, bewegt sich. Er besitzt aber auch eine gewisse Trägheit und folgt meinem Fingerzeig deshalb leicht verzögert. Der Endanschlag erfolgt federnd (elastisch). Affordance bedeutet, dass Objekte auf dem Bildschirm durch ihre visuelle Gestaltung dem Nutzer implizit Hinweise geben, wie sie genutzt werden könnten. Berührt ein Nutzer beispielsweise ein Objekt, kann durch Anheben des Objektes signalisiert werden, dass dieses auf dem Bildschirm verschoben werden kann. Mögliche Zielbereiche leuchten kurz auf. Diese Detailarbeiten sind notwendig, um die Bedienung für den Nutzer glaubhaft und positiv erlebbar zu machen. Microsoft spricht in diesem Zusammenhang von \’Super Realism\‘. Idealerweise stellt das Betriebssystem oder das Visualisierungssystem diese Konzepte zur Verfügung und zwar ganz ohne Performance-Einbußen. Multitouch: Bedienung der Zukunft?

User Interface Design GmbH
http://www.uid.com

Das könnte Sie auch Interessieren

Weitere Beiträge

Bild: Ceratizit Deutschland GmbH
Bild: Ceratizit Deutschland GmbH
Werkzeuge – immer passend

Werkzeuge – immer passend

Eine digitalisierte Fertigung hat viele Gesichter… und Recker Technik aus Eschweiler setzt ihr auf jeden Fall einen Smiley auf. Dort bringt die Produktion mit digitalen Zwillingen mehr Effizienz in den Alltag sowie gleichzeitig mehr Überblick über das Toolmanagement und die Werkzeugkosten. Mit dabei: Zwei Tool-O-Maten, die intelligenten Werkzeugausgabesysteme von Ceratizit – dank denen immer das passende Werkzeug für den Job zur Hand ist.

mehr lesen
Bild: Hainbuch GmbH
Bild: Hainbuch GmbH
„Wie passende Spanntechnik die Automation voranbringt“

„Wie passende Spanntechnik die Automation voranbringt“

Zunehmend individuellere Kundenanforderungen, mehr Schwankungen im Auftragseingang und weniger Fachkräfte – diese Faktoren beeinflussen die Fertigungsplanung zunehmend. Gerade bei kleinen Herstellungschargen mit Losgrößen unter 100 macht in diesem Spannungsfeld die Automatisierung, etwa von Hainbuch, den Unterschied. Ein entscheidender Ansatzpunkt in der Umsetzung ist neben Maschine, Roboter und Bediener der Rüst- und Spannprozess.

mehr lesen
Bild: Schunk SE & Co. KG Spanntechnik
Bild: Schunk SE & Co. KG Spanntechnik
Futter für die Ewigkeit

Futter für die Ewigkeit

Siemens Energy setzt für die Präzisionsbearbeitung an einer Horizontaldrehmaschine Magnos Elektropermanent-Magnetspannfutter von Schunk ein. Dank der gleichmäßig dauerhaft wirkenden Magnetspannkraft erfolgt das Spannen der Werkstücke deformations- und vibrationsarm – für eine ausgezeichnete Bearbeitungs- und Oberflächenqualität. Mit der zugehörigen App lässt sich die Spannsituation simulieren und sicher parametrieren.

mehr lesen