10/2011 Cyberspace

Der Begriff des Cyberspace wurde von William Gibson in seinem Roman Neuromancer von 1984 geprägt: Die Akteure dieser Geschichte bewegten sich in einem virtuellen Raum, den sie mittels Gehirn-Computer-Interface betraten. Während derartige Interfaces bis heute nicht so weit entwickelt sind, dass sie breite Verbreitung fänden, gibt es eine Vielzahl an Visualisierungs- und Steuerungstechnologien, die ein quasi-realistisches Eintauchen in eine nur virtuell existierende Umwelt (oder „Realität“) erlauben. Dazu gehören als Brillen getragene Displays, doch auch diese sind noch nicht so weit, dass sie einen Massenmarkt gefunden hätten. Die Alternative ist es demnach, die Darstellung so groß zu machen, dass sie die gesamte visuell wahrnehmbare Umwelt des Menschen umfasst: der CAVE (Cave Automatic Virtual Environment). Ein solches System, entwickelt am Electronic Visualization Laboratory der University of Illinois at Chicago, wurde erstmals 1992 auf der Siggraph-Konferenz in Chicago präsentiert. Ein CAVE besteht aus einem Würfel, dessen Seiten mit Projektionsleinwänden bespannt sind, bzw. aus drei Wänden mit Rückprojektionen von außen sowie einer Projektion von oben auf den Boden. Wenn man demnach im CAVE steht, sieht man (fast) nichts anderes als die Projektionen, die ineinander übergehen und die Illusion eines künstlichen Raumes erzeugen. Avancierte Systeme erfassen den genauen Standort des Betrachters im CAVE, um das Bild zu steuern – das funktioniert allerdings natürlich nur für eine Person. Die Grundprobleme des CAVE sind jedoch die hohen Kosten und der dafür nötige, große Raum, die dazu beigetragen haben, kleinere tischförmige Versionen zu entwickeln. Eine aktuelle vereinfachte Version eines CAVE, die speziell für Architekturvisualisierung und Gaming verwendet wird, ist Naexus, das am Institut für Baugestaltung der Hochschule Anhalt von Claus Diessenbacher und Michael Walter entwickelt wurde. Doch bei solchen Systemen bleibt die Steuerung auf eine einzelne Interaktion, beispielsweise durch eine Funkmaus oder einen 3D-Controller, beschränkt. Einige Visualisierungssysteme haben mittlerweile von neuen Interface-Methoden wie der Multitouch-Oberfläche der heutigen Smart Phones gelernt, beispielsweise das Produkt Skin (Semantic Knowledge Information Network) der Wiener Firma uma: Dabei handelt es sich um einen flachen LCD-Schirm mit bis zu 8,5 Metern Breite, der durch Berührung gesteuert werden kann – und zwar durch viele Berührungen gleichzeitig. Die Interaktion erfolgt durch Infrarotsensoren, Bewegungserkennung mittels Kameras und RFID-Karten zur Personalisierung.

www.evl.uic.edu
www.naexus.com
www.uma.at