AirTouch von Neural Labs bringt Gestensteuerung für Windows- und Android-Geräte mit nur einer Webcam

Einige der besten Technologien, die wir auf der CES sehen, scheinen direkt aus einem Science-Fiction-Film zu stammen. Gestern habe ich auf der CES 2025 die AirTouch-Technologie von Neural Lab ausprobiert, die es ermöglicht, mit einem Display allein durch Gesten zu interagieren – genau das, was Filme wie Minority Report und Iron Man versprochen haben. Natürlich haben viele Unternehmen bereits verschiedene Formen der Gestensteuerung entwickelt. Microsofts Kinect ist ein frühes Beispiel, während die Doppeltipp-Funktion der Apple Watch und die Pinch-Gesten von Vision Pro nur zwei von vielen aktuellen Varianten sind. Aber ich war beeindruckt, wie gut AirTouch funktioniert, und im Gegensatz zu den meisten anderen Gestentechnologien benötigt es keine spezielle Ausrüstung – nur eine Standard-Webcam – und funktioniert mit einer Vielzahl von Geräten.

Die Software von Neural Lab ist mit Tablets, Computern und wirklich jedem Gerät kompatibel, auf dem mindestens Android 11, Windows 10 oder höher oder Linux läuft. Bei der Entwicklung der Technologie wurde auf Barrierefreiheit geachtet, nachdem einer der Gründer Schwierigkeiten hatte, mit seinen Eltern im Ausland in Kontakt zu bleiben, da die Navigation in Videokonferenzprogrammen für die ältere Generation einfach zu schwierig war. Der Vertreter von Neural Labs, mit dem ich sprach, fügte hinzu, dass seine Eltern die Verwendung eines iPads einer Kombination aus Computer, Maus und Tastatur vorziehen, weil die Touch-Steuerung viel intuitiver ist. Mit AirTouch können sie ihren Fernseher wie ein Tablet bedienen.

Neben der Barrierefreiheit gibt es auch zahlreiche kommerzielle Anwendungen – zum Beispiel können Chirurgen MRT-Aufnahmen bearbeiten, ohne etwas berühren zu müssen, oder ganz alltägliche Szenarien wie das Blättern durch Folien in einer Präsentation.

AirTouch verfolgt 3D-Handbewegungen und erkennt anhand der Augenbewegungen, was beabsichtigt ist, so dass überflüssige Gesten ignoriert werden können. Derzeit werden neun Gesten unterstützt, durch Anpassung kann der Benutzer bis zu 15 Gesten programmieren.

Ich habe zwei Demonstrationen ausprobiert: einen 3D-Bildschirm mit dem animierten Bild eines Laubfrosches und einen Monitor, der eine Webseite in einem Browser anzeigte. Auf dem 3D-Bildschirm ließ das Halten eines Fingers einen Tannenzapfen auf den Kopf des Frosches fallen, zwei Finger ließen eine Eichel fallen, ein Daumen nach oben drehte den Frosch auf seinem Blatt um und eine leise Kojotengeste drehte ihn zurück. Ich brauchte nur 15 Sekunden, um die vier Gesten zu lernen und anzuwenden, und bald ließ ich wie ein schlecht gelauntes Eichhörnchen Eicheln auf den armen Frosch regnen.

Fast genauso einfach (wenn auch nicht ganz so lustig) war es, den Bildschirm mit dem Webbrowser zu steuern. Indem ich meine Hand bewegte, bewegte sich der Cursor über den Bildschirm, und das Klicken wurde durch Kneifen ersetzt. Ich konnte auf einer Streaming-Website scrollen, etwas zum Abspielen auswählen, es anhalten und innerhalb von Sekunden wieder starten, nachdem ich die Handbewegungen gelernt hatte. Es gab einige Fälle, in denen meine Bewegungen nicht das taten, was ich mir erhofft hatte, aber nach ein paar Versuchen hatte ich den Dreh raus.

AirTouch ist ab sofort als Abonnement für 30 Dollar pro Monat für Einzelpersonen (und 300 Dollar pro Monat für Unternehmen) erhältlich. Laut Neural Labs dauert die Installation der Software auf jedem kompatiblen Gerät nur fünf Minuten.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *