Steuerungstechnik Software durch Gesten steuern

Redakteur: Jürgen Schreier

Touch-Displays gehören heute zu den Standard-Bedientechniken im Umgang mit Computern, Smart Phones und anderen Geräten. Die berührungslose Bedienung durch Gestenerkennung ist der nächste Schritt. Das Fraunhofer FIT hat ein System realisiert, das Hand- und Fingerstellungen des Benutzers in Echtzeit erkennt und in entsprechende Befehle übersetzt. Das System kommt ohne Spezialhandschuhe und Marker aus.

Anbieter zum Thema

Touch-Displays sind auf dem Vormarsch und haben die klassische Eingabe per Maus und Tastatur bereits in einigen Domänen fast verdrängt. Als Durchbruch gilt das iPhone, das Apple im Sommer 2007 auf den Markt brachte. Seitdem wurden zahlreiche ähnliche Geräte mit vergleichbaren Eigenschaften erfolgreich lanciert.

Neuere Generationen unterstützen sogar die Bedienung von mehreren Personen gleichzeitig, sind also Multi-User-tauglich, etwa der Microsoft Surface, eine Art Computer-Tisch, bei dem die komplette Oberfläche zur Eingabe genutzt werden kann. Naturgemäß ist diese Interaktionsform auf zweidimensionale Oberflächen zugeschnitten.

Mehrere Finger beider Hände können Objekt durch Bewegungen oder Gesten manipulieren

Einen Schritt in die Zukunft weist der Prototyp einer berührungslosen 3D-Multi-Touch-Umgebung, der von Fraunhofer FIT realisiert wurde. Unter Multi-Touch versteht man in diesem Zusammenhang, dass mehrere Finger beider Hände gleichzeitig das Objekt „berühren“ und durch Bewegungen oder Gesten manipulieren können. In unserem Falle Hand- und Fingergesten in der Luft, die das System erkennt und entsprechend interpretiert.

Spezialhandschuhe sind passé

Kinofans erinnern sich vermutlich noch lebhaft an den Science-Fiction-Thriller „Minority Report“ aus 2002, in dem Tom Cruise in einer 3D-Software-Arena zahlreiche Programme in atemberaubender Geschwindigkeit bediente – allerdings mit Spezialhandschuhen, die ihm lediglich das Agieren mit je drei Fingern erlaubten.

Im FIT-Prototyp werden in Echtzeit Hände und Finger der Benutzter in den Bilddaten einer 3D-Kamera erkannt und die Bewegungen mitverfolgt. Die 3D-Kamera arbeitet nach dem Laufzeitverfahren (TOF-Prinzip). Sie misst für jeden Bildpunkt, wie lange das Licht bis zum gefilmten Objekt und zurück benötigt, und ermittelt so die Distanz.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:353843)