ˈʊmˌvɛltn̩ – Wie aus VR AR wird

ˈʊmˌvɛltn̩ – Wie aus VR AR wird

Nach der erfolgreichen Umsetzung des Projekts "ˈʊmˌvɛltn̩" in VR im letzten Jahr, entwickeln wir nun das Projekt weiter in AR.

Im letzten Jahr entstand als Auftragswerk im Rahmen des 200. Jubiläums des Konzerthaus Berlin in Zusammenarbeit mit der Hochschule für Technik und Wirtschaft Berlin (HTW) die interaktive Komposition „ˈʊmˌvɛltn̩“. Gefördert wurde das Projekt, das im September 2020 erstmals der Öffentlichkeit präsentiert wurde, von der Aventis Foundation. Zahlreiche Klänge, die vom Komponisten Mark Barden kreiert, vom Konzerthausorchester Berlin eingespielt und mit den visuellen Elementen des XR-Künstlers Julian Bonequi ergänzt wurden, wurden in die virtuelle Welt übertragen und bietet den Besucher*innen von „ˈʊmˌvɛltn̩“ ganz verschiedene Interaktionsmöglichkeiten mit Klängen und Objekten.

Programmierer Jan Alexander beim Beschreiben der Funktionsweise einzelner Elemente

Um diese Welt auch niedrigschwelliger ohne VR-Brille dafür mit Smartphone oder Tablet dem Publikum zugänglich zu machen, wird das Projekt jetzt in Augmented Reality überführt. Wo die User*innen vorher Teil eines immersiven Erlebnisses waren, wo die Grenzen zur eigenen Realität durch eingeblendete Gitternetzlinien zu erkennen waren, hat man mit Smartphone oder Tablet nun ein kleines Fenster in die virtuelle Welt in der Hand. Die Kameralinse ist das Auge, als Benutzer*in befindet man sich aber komplett in der eigenen Realität, die um virtuelle Elemente auf dem Display ergänzt wird. Auch die Controller, die in VR differenzierte Befehle ermöglichten, sind jetzt am Smartphone nicht verfügbar, so dass für diese App ganz andere Interaktionsmöglichkeiten erarbeitet werden müssen. Dafür engagierte sich das Konzerthaus Berlin Unterstützung von den beiden erfahrenen Programmierern Jan Alexander und Ekkehard Petzold. Auch für die Programmierer eine besondere Arbeit, weil sie einerseits nicht von Anfang an an der Entwicklung des Projekts beteiligt waren, andererseits aber auf das bestehende Werk aufsetzen und schon viel Material zur Verfügung haben.

Komponist Mark Barden und XR-Künstler Julian Bonequi (v.l.) beim ersten Kreativworkshop

Das Projekt startete unter Pandemiebedingungen mit zwei Kreativworkshops. Umgeben von Schinkel’scher Architektur wurde mit den beiden Künstlern Julian Bonequi und Mark Barden, den Programmierern und dem Konzerthaus-Team für digitale Projekte das bestehende VR-Projekt analysiert und dann mögliche Szenarien für die AR-App entwickelt. Auch bisheriges Feedback von User*innen floss in die Überlegungen der Umarbeitung ein. Sehr schnell waren sich alle Beteiligten einig, dass es vor allem die Interaktionsmöglichkeiten mit den Klängen des Konzerthausorchesters Berlin sind, die „ˈʊmˌvɛltn̩“ als Experience so besonders macht und die deshalb auch in die AR-Version integriert werden sollten. Die User*innen sollen die Möglichkeit haben, die bestehenden Kreaturen in der eigenen Realität zu platzieren und so eine ganz eigene Klangwelt zu kreieren. Die kuratierten Klänge sind dabei Bausteine, die immer neu zusammengesetzt werden können. Die Größe der Objekte bestimmt die Lautstärke des Klangs, genauso wie die Entfernung zum Objekt eine Rolle spielt. Verschiedene Farben setzen eine Grundstimmung, dann können die User*innen verschiedene Kreaturen und Pflanzen auswählen, die jeweils einen individuellen Anteil in die Nutzererfahrung einbringen. Dabei sollen genauso wie bei der VR-Experience nicht immer nur angenehme Klänge entstehen und die Besucher*innen umgeben. Insbesondere soll es auch Objekte geben, die ein Eigenleben haben, das nicht beeinflusst werden kann.

Erste analoge Skizzen für die digitale App

Viele Ideen wurden gesammelt, einige wieder verworfen. Am Ende der ersten beiden Workshops stand ein grobes Gerüst auf Papier, was in der späteren AR-App zu sehen sein, welche Auswahlmöglichkeiten es geben und wie die User-Experience aussehen soll. Die große Herausforderung der beiden Programmierer in den nächsten Wochen wird sein, aus der sehr vielschichtigen Vorlage von verschiedenen Audiospuren und der visuellen Ebene eine AR-Experience zu machen, die von Anfang an Spaß macht, die Komplexität des ursprünglichen Werkes allerdings nicht verliert.

„ˈʊmˌvɛltn̩“ (Umwelten) ist in enger Zusammenarbeit mit dem EFRE-geförderten Projekt APOLLO der Hochschule für Technik und Wirtschaft Berlin entstanden und wurde gefördert durch „experimente#digital“ – eine Kulturinitiative der Aventis Foundation.

Anne Eiselein
ADMINISTRATOR
PROFILE

Leave a Comment

Your email address will not be published. Required fields are marked with *

Cancel reply