Das Opernhaus Zürich arbeitet schon seit einiger Zeit mit dem SpatialSound Wave System des Fraunhofer IDMT. Dessen neuste Version für eine richtungsgerechte Wiedergabe von Audiosignalen kann auch die Raumakustik beeinflussen.
Mit 1.100 Sitzplätzen gehört es zu den kleineren Häusern, aber Größe und Renommee des Opernhauses Zürich offenbaren sich beim Blick in die Historie und Gegenwart mit einer langen Liste an Uraufführungen, Dirigenten und Sängern von Weltklasse. 2014 wurde das Opernhaus als „Opera Company of the Year“ bei der Verleihung der „International Opera Awards“ ausgezeichnet. Um die 300 Aufführungen im Jahr finden im Zweispartenhaus – Oper und Ballett – statt. Und es stehen nicht nur die „Klassiker“ auf dem Programm, auch das moderne Musiktheater. „Der Auslöser für die Anschaffung des SpatialSound Wave war 2013 die Oper ,Die Soldaten‘ von Bernd Alois Zimmermann“, erklärt Oleg Surgutschow, Tonmeister und Leiter der Abteilung für Bild und Ton des Opernhauses Zürich. „Das ist die berühmt-berüchtigte Oper im Repertoire, die verteilte Lautsprechergruppen im Saal vorschreibt. Wir haben überlegt, ob wir mieten oder investieren sollten und haben uns für das Investieren entschieden, weil man auch bei anderen zeitgenössischen Opern ein solches System braucht.“
Anzeige
Die Entscheidung fiel auf das SpatialSound Wave des Fraunhofer-Instituts für Digitale Medientechnologie IDMT. Das System erlaubt, Schallobjekte bzw. Schallquellen an unterschiedliche Punkte im 3D-Raum zu platzieren, wandern zu lassen und mit der neusten Systemversion auch die Raumakustik zu beeinflussen. Beim Besuch der Oper im April 2016 gab es die Gelegenheit, mit Oleg Surgutschow über seine Erfahrungen zu sprechen, das ein oder andere Schallobjekt durch den Raum wandern zu hören und von René Rodigast, Gruppenleiter Professional Audio beim Fraunhofer IDMT, Neuigkeiten über die neue Systemversion zu erfahren.
Gegebenheiten: Saal und Beschallung
Der große Saal des Opernhauses aus dem Jahre 1891 mit aufsteigendem Parkett und drei hufeisenförmigen Rängen – die unteren beiden mit Logen ausgestattet, der obere mit aufsteigenden Sitzplätzen – ist vom Stil her höfisch-barock, von der Raumakustik her eher ein Sprechtheater als eine Oper. „Die Nachhallzeit liegt im Mittel um die 1,2 Sekunden und steigt zu den tiefen Frequenzen auf ca. 1,5 Sekunden an“, so Oleg Surgutschow. Mit Ornamenten und Stoffbespannungen, Skulpturen und Gemälden ist der Saal reich geschmückt und dieses Erscheinungsbild soll natürlich nicht durch Lautsprecher gestört werden, wenngleich doch einige für den 3DSound nötig sind.
„Es ist eine Besonderheit der Installation, dass die vorhandenen Lautsprecher genutzt werden“, berichtet René Rodigast. „Normalerweise wählt man Lautsprecher mit einer bestimmten Abstrahlcharakteristik und man kann sich im Vorfeld ein ungefähres Bild über die Schallfeldverteilung machen. Hier sind es ganz unterschiedliche Lautsprechertypen, die auch noch wie die d&b E3 in der Decke zweimal um die Ecke strahlen. Es ist eine außergewöhnliche Anordnung, durch die wir viel gelernt haben.“ Diese elf d&b E3 sind indie „Medaillons“ in der Decke eingebaut und sorgen für die Z-Achse im 3D-System. In den Logen und auf den Rängen kommen d&b E4 zum Einsatz, die jeweils rundum im Übergang zwischen Decke und Wand bzw. oberhalb des ersten Ranges zur Versorgung des Parketts montiert sind. Da die Entfernungen zwischen Lautsprechern und Sitzplätzen an den Seiten des ersten Parketts zu gering geworden wären, strahlen E4, versteckt hinter Säulen, in diesem Bereich in Richtung Wand.
»Die neue Generation Regisseure ist mit dem iPad aufgewachsen. Für sie ist es fast selbstverständlich, dass man Ton auch verschieben kann.«
Oleg Surgutschow | Tonmeister im Opernhaus Zürich
Für Ansagen und Einspielungen sind im Portal rechts und links jeweils zwei d&b 24C und eine 16 C eingebaut. Im Bass werden sie von E15-Subs ergänzt. „Für Sprache und 90 % der Playbacks z. B. beim Ballett nutzen wir diese Lautsprecher“, berichtete Oleg Surgutschow. „Zusätzlich haben wir jeweils sechs Q1 pro Seite, die wir für kräftigere Sachen hängen können. Es ist aber immer ein Kompromiss zugunsten des Tons, da man sie sieht und sie eventuell das Bühnenbild stören.“ Zusätzlich gibt es im Bühnenbereich Lautsprecher, u. a. d&b C4 im hinteren Bereich der Bühne und in der Kuppel oberhalb der Kronleuchter.
SpatialSound Wave im Einsatz
Moderne Inszenierungen und zeitgenössische Opern nutzen moderne Mittel. „Sobald die Komponisten oder Dirigenten von den Möglichkeiten erfahren, springen viele drauf an“, berichtete Oleg Surgutschow. „SpatialSound Wave ist ein Werkzeug, das man früher nicht hatte. Um ähnliche Effekte zu erzielen, musste man lange basteln. Jetzt funktioniert es per Mausklick, das ist faszinierend. Die neue Generation Regisseure ist mit dem iPad aufgewachsen. Für sie ist es fast selbstverständlich, dass man Ton auch verschieben kann.“
Ein Beispiel von einer Auftragskomposition, die sich von den Möglichkeiten inspirieren ließ, ist die „Rote Laterne“ von Christian Jost. „Bei diesem Stück sollte eine Sängerin ein Duett mit ihrer eigenen Stimme singen“, berichtete Oleg Surgutschow. „Wir haben also ihre Stimme aufgenommen und über die Lautsprecher wiedergegeben. Das war ein sehr interessanter Effekt und funktionierte wirklich gut.“ Nun sind in einem Zwei-Sparten-Haus mit 300 Vorstellungen im Jahr die Probe- und Rüstzeiten sehr knapp. „Wir brauchen ein Werkzeug, das zuverlässig funktioniert, reproduzierbar ist und das Speichern der Einstellungen ermöglicht“, erläuterte Oleg Surgutschow. „In einem Repertoiretheater wie diesem mit täglich wechselnden Produktionen, zwei Produktionen am Wochenende, zwei unterschiedlichen sogar am Sonntag sind die Einrichtungszeiten sehr knapp. Man muss sehr effizient und schnell arbeiten können. Wir hören jetzt hier die Quellen roh, mit Orchester ist es anders. Es gibt nur sechs Proben zusammen mit Sängern und Orchester, davon zwei komplette Durchläufe. Danach muss alles stehen.“
Einstellungen werden bei den Proben im Saal vorgenommen. „Das geht mit der früheren Version recht schnell, auch mit Timecode und allem“, erzählte Oleg Surgutschow. „Man kann die Quellen wirklich im Raum platzieren, solange man sie nicht in einen toten Winkel setzt. Wir haben in der Mitte des Portals eine Zone, wo alles ausgelöscht wird und wo man keine Quelle hinsetzen kann. Aber ansonsten funktioniert es gut. Wir platzieren oft die Quellen auf verschiedenen zweidimensionalen Ebenen. Damit die horizontale Ortung und die Balance zwischen Sänger und Orchester für die Zuhö- rer auf den unterschiedlichen Ebenen stimmen. Verschiebungen auf der Vertikalen sind fast einfacher zu realisieren.“
Bild: Christiane Bangert
Bild: Christiane Bangert
Raumakustik
Ein Thema des Arbeitstreffens im Opernhaus Zürich war die raumakustische Bearbeitung des Saals. „Der Saal ist eigentlich als Sprechtheater gebaut“, berichtet Oleg Surgutschow. „Der Orchestergraben klingt zwar nach Baumaßnahmen recht voluminös und hat einen schönen Klang. Aber es fehlt immer ein wenig Volumen. Ich habe die Light-Version mal mit einem Orgelsignal getestet und sie klang sehr schön voluminös und natürlich, der Raum wirkte wirklich größer. Es braucht aber Zeit, das einzurichten, zu testen und Presets zu machen, die man dann bei Proben anbieten kann. Da hat man keine Zeit zum Experimentieren.“ Von einem anderen Projekt berichtet René Rodigast: „Man bekommt das System sehr schnell stabil, da alle Lautsprechersignale per Definition dekorreliert sind. Alle Lautsprecher geben also unterschiedliche Signale wieder, so dass man nur die Raumresonanzen in den Griff bekommen muss. Wir bekommen gute Verstärkungswerte vor Rückkopplungen. In einem anderen Projekt haben wir den Nachhall von 1,6 auf 2,5 Sekunden verlängert und die Verstärkung um 15 B erhöht, das funktioniert ohne Rückkopplungen.“
SpatialSound Wave 3.0
Mit der neuen Version hält die Raumakustik – bisher nur probeweise vertreten – im SpatialSound Wave Einzug. Bedienoberflächen und Applikationen für verschiedene Anwendungen haben sich weiterentwickelt. Bei SpatialSound Wave handelt es sich um ein objektbasiertes Produktions- und Wiedergabesystem, das vom Fraunhofer-IDMT entwickelt wurde. Angeboten wird das System unter dem Namen Astro Spatial Audio von der niederländischen Firma Vanmunster BV / Astro Spatial Audio. Außerdem fallen einem bei objektbasierten Verfahren noch zwei andere Systeme ein: das Atmosphea von Shure und das Iosono von Barco. Beide Systeme haben ihre Wurzeln in Entwicklungen des Fraunhofer-IDMT, arbeiten aber mit unterschiedlichen Prozessor-Plattformen – das Atmosphea z. B. mit dem Q-Sys von QSC.
Bild: Christiane Bangert
Bild: Christiane Bangert
Bild: Christiane Bangert
Bild: Christiane Bangert
Allgemein geht es bei den objektbasierten Systemen darum, Schallquellen bzw. -objekte an beliebige Punkte in einem dreidimensionalen Raum zu stellen, die unabhängig von ihrer Position an dieser Stelle wahrgenommen werden, ohne dass sich die Quelle real an dieser Position befindet. Die Grundidee geht auf das Prinzip der Wellenfeldsynthese (WFS) zurück. Es werden aber wesentlich weniger Lautsprecher eingesetzt als in einem WFS-System. „Es gibt so eine Erfahrungsregel, dass der Abstand der Lautsprecher zueinander nicht größer als der Abstand zu den Zuhörern sein sollte“, erklärte René Rodigast. „Es hängt aber von der Auflösung ab, die ich möchte. Wenn ich bei einer Live-Anwendung einen Abstand von 10 m zwischen den Lautsprechern habe, dann erziele ich ja immer noch einen räumlichen Effekt, auch wenn die Lokalisation nicht mehr so präzise ist. Für eine Nachhallzeitverlängerung wünsche ich mir, dass die Reflexionen relativ dicht kommen und brauche dichtere Lautsprecher.“
Auch bei den Quellsignalen kommt es auf den Zweck der Übung an. Mit Einspielungen lassen sich Klanglandschaften kreieren, mit Signalen von Mikrofonen das Live-Geschehen in die 3D-Welt einbinden. Im großen Saal des Opernhauses Zürich kommt man mit zwei Mikrofonen über der Bühne aus, in anderen Anwendungen mit regenerativem Charakter werden sechs bis acht Mikrofone verteilt. „Wir brauchen nicht so viele Mikrofone wie andere regenerative Systeme“, berichtete René Rodigast. „Das SpatialSound Wave funktioniert an sich als Hybrid-System, das sowohl mit Faltungs-Algorithmen als auch regenerativ arbeiten oder beides mischen kann.“
Dabei sind die Objekte – das Signal und seine räumlichen Eigenschaften – nicht statisch, sie können sich auch im Raum bewegen. Mit der neuen Systemversion gibt es 32 Quellen, wobei bis zu 16 für die Raumsimulation genutzt werden können und sich die weiteren 16 gleichzeitig im Raum als Objekte platzieren lassen. „Theoretisch sind auch 64 Quellen möglich, aber die Leistungsfähigkeit auch der neusten Prozessoren reicht noch nicht aus, um dabei unter den 5 ms Latenz zu bleiben, die wir uns als Prämisse gesetzt haben“, so René Rodigast. „Die objektbasierte Raumsimulation rechnet im Hintergrund erst mal das Originalobjekt und dann die ganzen Reflexionen in Echtzeit, auch wenn sich das Objekt bewegt.“
Als Betriebssystem wird Linux eingesetzt, der Signalaustausch kann per MADI oder Dante erfolgen. „Die Four Audio GmbH hat eine Dante-Karte mit Linux-Treiber“, sagte René Rodigast. Aus gangsseitig können bis zu 64 Kanäle ausgegeben werden, wobei in jedem Ausgang Signalbearbeitungsfunktionen wie EQs und Limiter zur Verfügung stehen.
Einstellung und Bedienung erfolgen Web-basiert, am besten über Google Chrome oder Apple Safari. „Die Oberflächen sind für diese Browser optimiert“, erklärte René Rodigast, „Auch bei den Browsern folgen wir den neusten Technologien.“ Um die Einstellung der Komplexität und den Anforderungen der jeweiligen Anwendungen anzupassen, gibt es verschiedene Applikationen zur Auswahl. So stehen in der Applikation „Spatial Production“ alle Funktionen zur Verfü- gung: Die grafischen Oberflächen zur Festlegung der Positionen von Quellen und Lautsprechern in unterschiedlichen 3D-Räumen sowie der Zugriff auf die Einstellungen, z. B. bei der Raumakustik die getrennte Anpassung der frühen und späteren Reflexionen sowie des diffusen Anteils des Nachhalls. In der Applikation „Spatial Live“ sind die Funktionen auf diejenigen beschränkt, die man in einer Live-Situation braucht und neben all den anderen Dingen noch handhaben kann. Für die Automatisierung lässt sich eine Timecode
»Die objektbasierte Raumsimulation rechnet im Hintergrund erst mal das Originalobjekt und dann die ganzen Reflexionen in Echtzeit, auch wenn sich das Objekt bewegt.« René Rodigast | Gruppenleiter Professional Audio, Fraunhofer IDMT
Steuerung zum Abrufen von Voreinstellungen integrieren. Die Oberflächen sind für eine intuitive Bedienung konzipiert und für Touchpanels optimiert. So kann man auch schnell mit dem Finger eine Quelle verschieben. Allerdings sollte das Touchpanel schon recht leistungsfähig sein. „Wir nutzen für die neue Version das iPad Pro“, so René Rodigast. Durch die Browser-Basis lassen sich Bedienmöglichkeiten an unterschiedlichen Positionen schaffen. Das System kann von mehreren Nutzern gleichzeitig bedient werden.
Kommentar zu diesem Artikel
Pingbacks