Video wird nicht angezeigt, weil Drittanbieter-Cookies nicht zugelassen sind.
Das Virtual-Reality-Labor wird vorwiegend für die praktische Ausbildung in entsprechenden Lehrveranstaltungen genutzt. Es steht unseren Studierenden aber auch für ihre Studienarbeiten in allen Bereichen der Computergrafik und der Interaktiven Systeme zur Verfügung. Dazu zählen insbesondere Projekte, die im Zusammenhang mit einer Kooperation mit der eyefactive GmbH initiiert werden. Das Unternehmen wurde 2008 als Spin-Off der FH Wedel gegründet. Seine Produkte resultierten größtenteils aus Abschlussarbeiten unserer Hochschule.
Das Labor liegt im Erdgeschoss des Mediengebäudes.
Es folgt eine vollständige Auflistung der einzelnen Komponenten.
4-seitiger Projektionskubus: DAVEProjektionssystem von Digital Image mit Schwingboden, Kantenlänge ca. 2,5 m, Front-, Rechts-, Links- und Bodenprojektion mit Rückprojektionstechnik, Umlenkspiegel. In diesem Projektionskubus ist der Benutzer von 3D-Projektionsflächen umgeben und kann sich so innerhalb einer virtuellen, vom Rechner erzeugten Szene bewegen, die real erscheint.
Projektoren: 4 DLP-Projektoren Digital Image CUBE 3D, Auflösung je 1050x1050 Pixel, aktive Stereo-Technik (120 Hz). Sie dienen der Erzeugung des Bildes für jeweils eine Projektionsfläche.
3D Brillen: 5 Shutter-Brillen (Stereographics Crystal Eyes 3). Dies sind Brillen für aktives Stereo-Sehen bzw. wechselweises Blindschalten (60 Hz) des rechten bzw. linken Auges, so dass ein Benutzer zwei verschiedene Bilder die zeitlich hintereinander angezeigt werden (120 Hz), wahrnehmen kann.
CAVE-PC:4 High-End Grafik-Workstations mit Intel Core i7-920, 8GB RAM, NVIDIA Ge-Force GTX 1070 Grafik-Hardware zur Ansteuerung des Stereo-Projektionssystems und des Audiosystems.
Tracking Device: Optisches ART Tracking-System ARTrack 1. Es dient der Erkennung der Benutzerposition und -orientierung durch Infrarot-Video-Kameras.
Marker: Verschiedene Marker zu Erkennung von Position und Orientierung. Es handelt sich dabei Reflektoren für Infrarotlicht zur Registrierung durch o.g. Infrarotkameras.
Tracking-Server: Standard-PC mit ART DTrack-Software zur Ansteuerung der Tracking-Hardware bzw. Auslesen der Markerpositionen und -orientierungen, Kalibrierung des Tracking-Systems.
5.1-Audiosystem: 5.1-Receiver Yamaha RX V661, 5 Lautsprecher und Subwoofer für die Ausgabe räumlich wahrnehmbarer Geräusche für CAVE-Projektionssystem.
Schwingboden-Audiosystem: 2 Audioverstärker (je 1kW Leistung) Buttkicker BKA 1000- 4A, 4 membranlose Tieftonlautsprecher Buttkicker LFE an die Unterseite der Bodenfläche der CAVEmontiert. Sie sind für die Erzeugung von Vibrationen des Bodens im CAVE zur Emulation von Beschleunigungskräften verantwortlich.
Projektions-System: Tischartiges Projektions- System (“CoBench”) entwickelt an der FH Wedel, Maße: 2x1m, zwei Projektionen mit je 1024x768 Pixel Auflösung, optisches Tracking. Sie dienen der Lehre und Forschung an derartigen Devices, die sich in den vergangenen fünf Jahren in vielen Anwendungen etabliert haben.
Tracking-System: Eigenentwickelte Hard- und Software für optisches Tracking an einem tischartigen Device, diverse technische Möglichkeiten des Trackings (von vor oder hinter der Projektionsfläche), Tracking von Berührungen oder Gesten, Gestenerkennung. Sie können nahezu beliebige auf die zugrundeliegende Anwendung angepasste Interaktionen, auch von mehreren Benutzern gleichzeitig, tracken.
Server: Eine Grafik-Workstation, Intel Core 2 Duo E6600, RAM 2GB, NVIDIA GeForce 8800 GTS Grafik-Hardware zur Visualisierung für zwei Projektoren, optisches Tracking, Gestenerkennung, Audio Erzeugung.
Balance-Board:Selbstentwickeltes, mobiles Stahl-Board (ähnlich Skateboard), das 2-achsig gelagert ist, wodurch die Trittfläche in nahezu beliebigem Winkel angestellt werden kann, Rückstellfedern, Potentiometer zur Winkelregistrierung, USB-Schnittstelle. Es handelt sich hierbei um ein universelles Interface für Steuerung über Haltung/Verlagerung des Körpers, allgemeine Schnittstelle zur Verwendung in darauf aufbauenden Studienarbeiten.
Kart-Box: Selbstentwickeltes, mobiles Device für einen Kart-Simulator bestehend aus Schalensitz und optisch getrackter Lenkung und Pedalsteuerung. Sie wird für allgemeine Fahrsimulationen, universelle Schnittstelle für darauf aufbauende Studienarbeiten verwendet.
4 PC-Workstations: High-End-Grafikworkstation, Intel Core i5-750, 4GB RAM, NVIDIA GeForce GTX 450 – das sind die Hauptarbeitsplätze zur Entwicklung von Programmen für das CAVE-Projektionssystem und den Multitouch-Tisch.
Das Labor wurde 2005 vollständig durch eine neues, größeres Projektionssystem und ein neues Rechencluster ersetzt. Gleichzeitig fand der Sprung von den klassischen SGI-basierten Systemen auf neue PC-Hardware statt. Diese Hardware wurde letztmalig im Jahre 2009 ersetzt und erweitert.
Aufgrund der bereits weiten Verbreitung von Virtual-Reality-Techniken in Forschung, Entwicklung und industrieller Anwendung stellt das Labor eine wichtige Schnittstelle zwischen Ausbildung und Berufsleben dar. Die technische Ausstattung des Labors in Bezug auf Interaktionsschnittstellen ist geeignet für das Erlernen der wesentlichen Techniken und entspricht dem aktuellen Stand vergleichbarer Labore in Forschung und Industrie.
Eine Attraktion des VR-Labors ist die CAVE: vier Seitenwände und ein Boden mit jeweils 2,5 mal 2,5 Metern Fläche bilden einen begehbaren Kubus.
Insgesamt vier Cube-3D²-Projektionssystemen bestrahlen über jeweils einen Spiegel die Seitenwände von hinten und den Boden von oben. Vier Hewlett Packard High-End-Workstations berechnen die zugehörigen Bilder einer virtuellen Szene in 3D. Dank der sogenannten "Shutter-Brillen" erreichen zwei verschiedene Ansichten der Szene die Augen abwechselnd, sechzig Mal pro Sekunde, so dass echtes dreidimensionales Sehen möglich wird. Der Benutzer ist rundherum von Projektionsflächen umgeben und dadurch vollständig in eine nicht existente, virtuelle Szene eingebettet.
Auf diese Weise wird das visuelle System des Menschen perfekt getäuscht; computergenerierte Bilder spielen dem Benutzer ein dreidimensionales Geschehen vor. Die Visualisierung komplexer Datenmengen aus Industrie und Forschung, Simulation für die Schulung oder Spieleentwicklung sind nur einige der Anwendungen, die hier umgesetzt werden können.
Um den Grad des "Im-Geschehen-Seins" – der Immersion – weiter zu erhöhen, haben wir in diesem CAVE besonderen Wert auf die akustische Wahrnehmung gelegt. Für eine realistische Simulation von Geräuschen sorgt ein THX-Surround-Audio-System, das demortbare Geräusche erzeugen kann.
Doch der Mensch hat noch andere Sinnesorgane. Beispielswese das vestibuläre System im Innenohr, mit dem wir Beschleunigung und Schwerkraft wahrnehmen. Gewöhnlich lässt sich das nur mit immens aufwendigen hydraulischen Systemen simulieren, die sich jedoch nicht mehr mit der eher filigranen Bauweise eines CAVEs vertragen.
Aus diesem Grund hat die FH Wedel in Zusammenarbeit mit der Digital Image GmbH das Konzept eines Schwingbodens entwickelt, der durch sogenannte Low Frequency Emitter (LFE) in Bewegung gebracht wird. Insgesamt 20 kg Masse werden durch 4000 Watt Audio-Verstärkerleistung bewegt und erzeugen so Erschütterungen des 500 kg schweren Bodens, die den Benutzern ein Gefühl von Beschleunigung vermitteln.
Betrieben wird das gesamte System durch an der FH Wedel entwickelte Software. Zum einen wird sie über Standard-Interfaces wie Datenhandschuhe oder verschiedene Pointer-Devices gesteuert. Zum anderen existiert eine große Menge studentischer Arbeiten, in denen neuartige Interfaces entwickelt wurden.
Die Möglichkeiten, die ein solches System bietet, sind immens. Zusammen mit der CoBench steht den Studierenden damit eine hervorragende Basis zur Verfügung. Mit ihr können sie nicht nur im Bereich der Human-Computer-Interfaces (HCI) forschen. Darüber hinaus wurden beide Interfaces bereits in der Industrie und der Forschung eingesetzt. Die beste Möglichkeit also, sich adäquat auf das Berufsleben vorzubereiten.
Es sollte allerdings auch nicht verschwiegen werden, dass es vermutlich eher der große "Spaßfaktor" ist, der Studierende in die Virtuelle Realität treibt.
Warum auch nicht?!
Die CoBench ist eine Art Computer-Werkbank: Anstatt auf einem Monitors wird eine mit dem Computer erzeugte Szene auf einem Tisch visualisiert. Der Anwender agiert intuitiv mit den dargestellten künstlichen Objekten. Mehrere Personen können daran teilnehmen, sich um die Werkbank anordnen und gleichzeitig interagieren – beispielsweise Objekte bewegen oder verändern.
Realisiert wird das durch eine in einen Tisch eingelassene, gläserne Projektionsfläche, die von unten durch zwei von einem Computer gesteuerten Projektoren bestrahlt wird.
Die Gesten der Hände und Finger werden durch Infrarotkameras und Bilderkennungstechniken von unterhalb der Projektionsplatte registriert. Eine Besonderheit ist das ungewöhnliche 2x1 Meter große Bildformat und die Möglichkeit, dass mehrere Benutzer gleichzeitig interagieren können (ein sogenannter Multi-Touch-Screen). Der Interaktionsgedanke wird hier in nahezu jeder Hinsicht erneuert. Es sind Anwendungen möglich, die ein "normaler" Computer nicht umsetzen könnte.
Zum ersten Mal präsentiert wurde die CoBench auf der Hamburger "Nacht des Wissens" im Frühjahr 2007. Es folgte ein Einsatz auf der "BIO-Europe 2007" im Herbst desselben Jahres. Die BioEurope ist eines der größten Biotechnologie-Events weltweit. Die Eppendorf AG finanzierte die Installation der CoBench auf ihrem Stand. Eine weitere Installation fand auf der CeBIT 2008 im Rahmen der gemeinsamen Präsenz der Metropolregion Hamburg und Schleswig-Holstein statt und wurde durch die Freie und Hansestadt Hamburg finanziert.
Myron Krüger dachte schon 1991 über ein solches Device nach[1]. Die erste Realisation ist der Gruppe um Wolfgang Krüger im Jahre 1993 zuzuschreiben[2] und fand schon bald viele Nachahmer. In den vergangenen Jahren erlebten ähnliche werkbankartige Devices eine Renaissance – nicht zuletzt wegen des rasanten Preisverfalls der dazu benötigten Hardware.
Die CoBench wurde im Rahmen einer Projektarbeit von einer sechsköpfigen Studierendengruppe der FH Wedel in nur drei Monaten entwickelt. Diese Entwicklung schloss die gesamte Konstruktion der Hardware, die Speziifikation des Projektionssystems, die Konstruktion des Spiegelsystems und die Spezifikation und Implementation der Software ein.
Auf Basis dieser Hardware können nahezu alle neueren Techniken der Virtuellen Realität erprobt und gelehrt werden – angefangen bei der parallelen Computergrafik und dem Echtzeitrendering über ergonomische Aspekte der Visualisierung und der Mensch-Computer-Schnittstellen bis hin zur Bildverarbeitung, dem Tracking und der Objekterkennung.
[1] Myron W. Krüger: "Artificial Reality 2", Addison-Wesley Professional, 1991
[2] Wolfgang Krüger, Wolfgang Strauss et al.: "The Responsive Workbench: A Virtual Work Environment", IEEE Computer Society Press, Los Alamitos, CA, USA, 1991