Das bessere Interface

14.05.1999

MÜNCHEN: 30 Jahre nach Erfindung der Maus suchen die Forscher allerorten nach neuen Möglichkeiten, die Interaktion zwischen Mensch und Maschine zu verbessern. Einige Produkte sind fast serienreif.Wenn Kai Krause das Lästern anfängt, läßt er an der ehrwürdigen PC-Branche kein gutes Haar. Die Software von heute ist umständlich zu bedienen und fordert vom Benutzer lange Einarbeitungszeit. Der Mensch muß sich an die Maschine anpassen und nicht umgekehrt. Krauses Kritik richtet sich vor allem gegen Grafikprogramme, denn das ist das Metier seiner Firma Meta Creations. In der Tat, hat er mit bediener-freundlichen Programmen wie Soap oder Goo für einigen Wind in der Szene gesorgt. So richtig anders sind diese Programme aber dennoch nicht. Seinen Anspruch "das Digitale wieder analog zu machen" erreicht Krause nicht.

Die Deutsche Bahn AG kommt diesem Gedanken schon näher. Bereits Anfang der Neunziger stellte man digitale Kiosk-Terminals auf, deren Scroll-Funktion mit einem Handrad bedient wurde. So konnte sich der Interessierte mechanisch durch den Fahrplan bewegen.

"Read my Lips"

Zur Zeit forscht eine ganze Armada von deutschen Wissenschaftlern nach dem neuen, dem besseren Interface zwischen Mensch und Maschine. Angetrieben wird dieser "Denkmotor" vom Bundesforschungsministerium (BMBF), das jüngst einen Ideenwettbewerb veranstaltete. Titel: "Die intuitive Mensch-Technik-Interaktion für die vernetzte Informations-welt der Zukunft." 91 Konsortien bewarben sich, und sechs bekamen den Zuschlag. Allein das Stuttgarter Projekt "Invite", geführt vom Fraunhofer Institut für Arbeitswirtschaft und Organisation, erhält 30 Millionen Mark Fördergelder. Die gleiche Summe wird von den Konsortiumsmitgliedern aufgebracht. Darunter befinden sich so illustre Unternehmen wie IBM oder BMW, aber auch Start-Ups Marke Blaxxun und Intershop. Das Stuttgarter Projekt handelt vom Interfacing zwischen Mensch und Netz, was für die Beteiligten freilich in E-Commerce mündet. Forschungsministerin Edelgard Bulmahn erwartet von den Konsortien binnen zwei Jahren nicht nur theoretische Erkenntnisse. Die Konsortien sind angewiesen worden, verwertbare Produkte oder zumindest Ansätze solcher zu zeigen. Das amerikanische Vorbild der vernetzten Forschungsarbeit zwischen Wirtschaft und Instituten steht hier Pate. Die Fraunhofer Gesellschaft übernimmt immer häufiger die wichtige Schlüsselposition in der Mitte.

Während die Forscher im Rahmen von Invite die Arbeit soeben erst aufnehmen, sprießen andernorts schon marktreife Produkte. Bei Siemens in Erlangen gibt es einen Gestenscanner zu kaufen. Das ist ein POI-Kiosk, dessen Daten mit Beamer auf eine neutrale Fläche projiziert werden. Eine Infrarotkamera erkennt die Bewegung des Benutzers und wandelt sie in Cursor-Aktionen um.

Schuh-Computer

Eine andere Form der Computerbenutzung kann die Sprache sein. "Sprache ist geeignet für unregelmäßige, sehr intensive Interaktion", erklärt Neil Gershenfeld vom Massachusetts Institute of Technology (MIT). Das Problem vieler Spracherkennungsprogramme ist aber mangelnde Mobilität. Durch Umgebungsgeräusche wird die Erkennungsrate der Programme drastisch verringert. Passend dazu entwickelt der Informatik-Lehrstuhl der Uni Karlsruhe unter Alexander Waibel jetzt eine Software, mit der der Rechner Lippen lesen kann. Freilich ist die Dateneingabe nur ein Teil des besseren Interface. Hinzu kommt noch der leichtere, kleinere Computer selbst. Wer die Cebit besuchte, sah überall sogenannte Wearables. Das sind kleine modulare Rechner, deren CPU wie ein Walkman am Gürtel baumelt, während als Monitor eine Datenbrille fungiert. Ähnliche Systeme wurden von den US-Streitkräften bereits im ersten Golfkrieg eingesetzt. Inzwischen ist man aber einen Schritt weiter. Das amerikanische Unternehmen Microvision entwickelte das Virtual Retinal Display. Hierbei werden mit einem schwachen Laserstrahl die Rechnerdaten direkt auf die Netzhaut projiziert. Im halbtransparenten Modus kann ein Mechaniker eine virtuelle Montageanleitung über das reale Bauteil einblenden und hat beide Hände frei. Passend dazu hat Gershenfeld am MIT den Schuh-Computer erfunden, dessen CPU im Absatz steckt und dessen Akku sich durch Bewegungen beim Gehen wieder auflädt. Die Daten werden per Schwachstrom auf der Haut des Trägers entlang geführt. Bis derartige Technologien zum Beispiel in digitalen Büchern in den Alltag eindringen, wird es allerdings dauern. Gershenfeld beschreibt das so: "Die Reize, die auf einen Leser einprasseln, wenn er ein Buch liest, sind enorm vielfältig. Es riecht, man kann es ziellos durchblättern, und es kann auf den Boden fallen, ohne kaputt zu gehen. Erst wenn wir dem Leser in allen Bereichen die gleiche Qualität liefern können, wird er zum digitalen Buch greifen." (fp)

Durchblick: Der Mechaniker sieht gleichzeitig Daten aus seinem

Rechner und dem Motor.

Das Licht des Lasers, das auf das Auge trifft, ist genauso stark wie bei einer Kathodenstrahlröhre; nur entstehen wesentlich geringere Streuverluste.

Schon auf dem Markt: der Virtual Touchscreen SIVIT von

Siemens.

Zur Startseite