Klopfen - und es wird Licht

Klopfen - und es wird Licht

Gefäss: 
Was auf I-Phone, I-Pad und Co. funktioniert, wird auch mit den eigenen vier Wänden möglich: Jede Wand eines Innenraumes kann als interaktive Oberfläche genutzt werden. Das versprechen Forscher von Microsoft und der University of Washington.
 
Den Prototyp eines entsprechenden Geräts präsentieren sie auf der Entwicklerkonferenz CHI 2011 in Vancouver den Prototyp: Damit könnten Lichtschalter, Thermostate, Radio- und Fernsehgeräte oder Alarmanlagen könnten damit eines Tages von jedem Ort des Hauses aus per Wandberührung gesteuert werden.
 
Zunutze macht sich die Entwicklung die elektromagnetische Strahlung, die durch WLAN, Handys, Haushaltsgeräte und elektrische Verkabelungen längst alle Innenräume durchdringt. Bisher galten die Strahlungsquellen meist als Störung; nun werden sie als Infrastruktur eingesetzt. Dabei übernimmt der menschliche Körper übernimmt die Rolle einer Radioantenne. „Auch der Mensch kann diese Signale auffangen, denn der Körper ist eine ziemlich gute Antenne“, so Microsoft-Forschungsleiter Desney Tan. Je nach Körperposition, Wandnähe und Berührungsstelle verändert eine Berührung der Wand deren elektrisches Signal. Dieses lässt sich mit einem tragbaren Gerät mittels Körperkontakt auffangen und übersetzen, etwa mit einem Antistatik-Band am Arm. Bei dem Test wurde ein Analogsignal per Erdungskabel an ein Gerät übertragen, dort digitalisiert und an einen Laptop im Rucksack weitergeleitet. Maschinenlern-Algorithmen verarbeiteten hier die Daten und suchten typische Signalveränderungen, die dann bestimmten Gerätefunktionen zugeordnet wurden.

„Verrückt, aber zukunftsweisend“

„Künftig reicht es, sich auf der Couch zurückzulehnen und die Wand zu berühren, um die Stereoanlage leiser zu stellen“, so die Vision der Entwickler, für die die wichtigsten Einsatzmöglichkeiten allerdings im Gaming-Bereich liegen. Als weitere Schritte sollen die Echtzeit-Datenanalyse ermöglicht und die Datensammel- und Analyseaufgaben des Rucksack-Laptops auf Handy oder Uhr verlagert werden. „Verrückt, aber zukunftsweisend“ betitelt Harald Reiterer, Leiter der Arbeitsgruppe Mensch-Computer-Interaktion an der Universität Konstanz die Microsoft-Idee. „Der eindeutige Trend lautet, mit immer weniger Steuerungstechnologie immer komplexere Technologien zu bedienen, wobei die Steuerung so sehr wie möglich natürlichen Bewegungen ähneln soll“, sagt der Experte.
 
Einige Hürden muss das Konzept laut Reiterer allerdings noch überwinden. Die Kommunikation mit einzelnen Geräten gehöre ebenso dazu wie das Gestenlernen. „Der Clou von Kinect ist, dass der Nutzer nur Bewegungen nachmacht, die ein Männchen am Bildschirm vorzeigt. Fehlt das Display, erschwert das den Lernprozess für die zur Steuerung nötigen Gesten deutlich. Zudem wird man komplexere Aufgaben wie etwa das Programmieren der Heizungs-Nachtabsenkung kaum jemals durch Wandberühren erledigen.“ Ganz ohne Bildschirmanzeige wie etwa am Tablet wird man deshalb nie auskommen - was neue Bedienformen jedoch auch nicht beabsichtigen. "Die Input-Möglichkeiten erweitern sich ständig durch noch einfachere Anwendungen. Dafür erhöht sich für den Nutzer die Auswahl, ohne dass ältere Eingabeformen wie etwa Maus und Tastatur verdrängt werden", so Reiterer. iPhone, Wii, Kinect und Tabletop-Tische hätten schon für Paradigmenwechsel in der Interaktion mit dem Gerät gesorgt. Was noch ausstehe, sei it der Aufschwung der stiftbasierten Eingabe. Schreiben gehöre zu den natürlichsten Interaktionen des Menschen. (mai/mgt)