Meyer Sound gab im Frühjahr 2019 erste Previews auf seine kommende Immersive-Sound-Lösung für Live-Produktionen: Statt auf zusätzliche Hardware setzt man in den Demos auf einen üblichen Galaxy-816. Welche Möglichkeiten und Einschränkungen bietet diese Variante?
(Bild: Detlef Hoepfner)
Immersive Soundpartikel und Scapes überall – die Hersteller überbieten sich derzeit darin, (oft eigentlich sehr alte) Ideen für 3D-Sound mit neuen Workflows zu verbinden. Etwas in Vergessenheit gerät dabei, dass es die meisten Ansätze auch schon einmal früher oder nur woanders gibt. Dazu muss man nicht nur bei den typischen Tracking-Anbietern suchen, die in vielen Spielstätten bereits laufen: Mit Spacemap hat auch Meyer Sound schon lange als Beschallungshersteller eine Mehrkanallösung im Portfolio. Eine damit realisierte Show läuft beispielsweise seit 2000 erfolgreich in ISE-Nähe bei Amsterdam (Soldaat van Oranje, mit rotierender Tribüne). Und die Wurzeln von Spacemap reichen noch viel weiter zurück: Für die Japan-Tour einer George Lucas Show suchte beispielsweise Sounddesigner Jonathan Deans in den 90ern eine Möglichkeit, Schallquellen zu bewegen. Bei seinen eigenen Programmierversuchen begann er mit Bühnenzonen, Delays und MIDI-Befehlen zu experimentieren und traf dann auf Steve Ellison, der seine Ideen noch effektiver umsetzte. Mit Carl Malone kam dann ein Hardware-Spezialist hinzu, und aus diesem Dreierteam entstand die Firma LCS, die sich auf Matrix-Systeme konzentrierte.
Anzeige
Meyer Sound war damals in den USA ebenfalls stark in den dortigen Theatern und Shows engagiert, schwenkte auf Selfpowered-Lautsprecher um und zog auch mit Line-Arrays nach. Dabei erkannte man die Notwendigkeit einer geeigneten Signalverteilung zwischen Mischpult und den einzelnen Lautsprecherelementen. Also bot Meyer eigene Equalizer und Line-Driver an, die z. B. auch schon eine Array- und HF-Korrektur sowie Ankopplung der Subs erlaubten. Dadurch umging man auch die sonst üblichen Racks mit Outboard-Equipment von Fremdherstellern für diese Aufgaben. Als Beobachter hatte man damals ein wenig den Eindruck, dass Meyer Sound digitalseitig etwas ins Hintertreffen zu geraten drohte – dem wurde dann aber über eine Kooperation mit der erwähnten Firma LCS entgegengesteuert. LCS bot ursprünglich analoge Mehrkanaltonlösungen an und überführte diese dann in die digitale Matrix „Supernova LD88“, die man heute noch auf dem Gebrauchtmarkt findet (erinnert sich noch jemand an „BeOS“?). Mit der damals hippen Lemur-Oberfläche gab es auch schon eine Multitouch-Bedienung. Ende 2005 übernahm Meyer Sound dann im Zuge der notwendigen Intensivierung der begonnenen Entwicklung eines digitalen Galileo die Firma LCS komplett. Seitdem führt man die diversen Produktlinien weiter, wozu z. B. auch Constellation (variable Raumakustik, realisiert über eine Vielzahl von Mikrofonen und Lautsprechern über der Bühne und im Saal) zählt. Und auch LCS-Urgestein Steve Ellison ist als Director Spatial Sound weiter an Bord.
Meyer Sound: 3D-Sound als „Update“
Mal abgesehen von der Frage, wie man dem Kunden, der gerade auf die neusten Projektionstechniken steil geht, die Vorteile von Mehrkanalton verklickert bekommt, liegen die bisherigen Spacemap- oder Constellation-Projekte jetzt nicht gerade im Budgetrahmen der üblichen Standardaufträge. Andererseits zeigen die verschiedenen aktuellen Erfahrungen, dass man ja – bei aller berechtigter Kritik am Immersive-Hype – doch zumindest Teilaspekte der Technik auch in mittleren bis sogar kleinen Produktionen einsetzen könnte: Um eine Ortung auf die Bühnenperformance oder Exponate zu verbessern oder zumindest ein wenig „echte Spaceigkeit“ in einen Raum zu bringen. Aber dafür jetzt nochmal ein zusätzliches Investment für Hardware platzieren, die womöglich nicht laufend gebucht wird? Wäre doch schön, wenn man sich mit dem bestehenden Material ein wenig in diese Thematik vortasten könnte. Sozusagen „Spatial mixing for the mainstream user“. Das will Meyer Sound nun für die Firmen ermöglichen, die bereits einen Bestand an Galileo Galaxy, dem aktuellen Lautsprechermanager von Meyer Sound, haben. Und das scheinen nicht wenige zu sein – Meyer Sound nennt 2.200 verkaufte Einheiten zum Anfang 2019.
Erweitert wird der Galileo um eine neue Firmware, die zur ISE 2019 schon einigermaßen stabil lief. Hinzu kommen mehrere iPads, über die im Live-Betrieb am FoH ein direkter Zugriff auf die Positionierung der Signale möglich ist. In Spacemap Live wird die Lautsprecherverteilung im Raum angelegt, wobei man von einer stark vereinfachten Geometrie ausgeht – einem einfachen Quadrat.
Es geht also (jedenfalls mittelfristig) nicht um präzise Positionierungen wie z. B. bei Astro Spatial Audio, wo die Klangobjekte präzise auf die Raum- und Lautsprechergeometrie umgerechnet werden, sondern einen einfacheren, schneller angelegten „Basis-Surround“. Bei der Raumsegmentierung kann man zwischen zwei Varianten wählen: Entweder nach der „reinen Lehre“ mit individuellen Outputs zu allen positionierten Lautsprechern. Jede Box im Raum bekommt also ein individuell bearbeitetes Signal und erzeugt eine Zone. Wer diesen Aufwand scheut, kann aber auch mehrere Lautsprecher zu größeren Zonen zusammenfassen. Wozu macht das Sinn? Wenn nur eher diffuse Signale geroutet werden sollen, wie die Verteilung von Reverbs ums und hinters Publikum, ist das sicher weniger kritisch, als wenn man Schauspieler präzise auf einer Bühne orten möchte. Es kann also ausreichen, in einer vereinfachten Struktur mehrere „Surround-Lautsprecher“ auf einem gemeinsamen Weg anzusteuern. Welche Lautsprecher nun gerade Signal bekommen, kann man dann übrigens auch prima am Kreuzpunkt-Aufleuchten in der Matrix der Compass-Software verfolgen.
Ein großer Unterschied zu anderen Immersive-/ Surround- /3D-Sound-Prozessoren ist allerdings, dass in den Outputs der Galaxy-Matrix zwar Delays vorhanden sind, diese werden aber von Spacemap Live nicht manipuliert und nicht zur Ortung der immersiven Signale herangezogen. Das ist daher in der Mix-Praxis zu beachten: Ein nach hinten positioniertes Signal wird allein durch das Amplituden-Panning von Spacemap Live dort hingeschoben. Es erfährt aber auf dem zugehörigen Rear-Lautsprecher trotzdem zusätzlich ein in der Matrix gesetztes Delay, das man sich aus der Entfernung Rear-Lautsprecher/Frontlautsprecher berechnet und gesetzt hat. Andere ImmersiveProzessoren treiben hier einigen Aufwand, die Delays passend zur angestrebten virtuellen Position zu berechnen, dynamisch an die Moves anzupassen und vor allem das dabei eigentlich entstehende „Jaulen“ während der Delay-Veränderung zu vermeiden. Laut Steve Ellison ist das derzeit aber für Spacemap Live nicht geplant. Es bleibt einem nun selbst überlassen, ob man auch mit diesem Amplituden-Panning klarkommt, oder man doch ein aufwändigeres Processing benötigt – aber wie oft kommt es vor, dass der KeynoteRedner 35 Meter von der Hauptbühne entfernt steht oder präzise hinterm Publikum geortet werden muss? Um noch einen Punkt abzuhaken, der nicht geht: Mit der gegenwärtigen Hardware wird es keine zusätzliche Raum-/Nachhallsimulation geben. Das überlässt man den großen Systemen – räumlicher Mix und veränderbare Raumakustik liefert z. B. das auf D-Mitri basierende Constellation. Oder eben die FoH-Konsole, mit der man sowieso arbeitet.
D-Mitri-Systeme werden ja von der Cuestation programmiert, sie bieten eine viel größere Anzahl von Steuerpunkten als Galaxy sowie neben dem Akustik-Processing für Constellation auch optionale Komponenten wie die Audioaufnahme und -wiedergabe von intern gespeicherten Multitracks. Aus diesen Optionen ergibt sich aber auch eine komplexere Systemprogrammierung. Spacemap Live soll zwar von den gewonnenen Erfahrungen aus den „großen“ Systemen profitieren, aber eher als kreatives Werkzeug dienen, das einfach zu bedienen ist und in die gängigen Mix-Workflows integriert wird.
D-Mitri kann ja auch mit einer Blacktrax-Steuerung gekoppelt werden: D-Mitri übersetzt die von Blacktrax bereitgestellten Daten in Spacemap-Steuerelemente. Dies soll künftig ebenfalls mit einem Galaxy möglich sein – Steve Ellison will hier auf die Erfahrung mit seinen bisher drei Plattformen zurückgreifen (LD-88, Matrix3 und D-Mitri), diese aber an Spacemap Live anpassen.
Noch nicht endgültig geklärt ist die Frage der Live-Automationsanbindung. Bei den Preview-Veranstaltungen mit einer Digico-Konsole werden die Szenen derzeit via OSC-Recalls abgerufen. Und in welcher Größe lassen sich Immersive-Projekte anlegen? Ein einzelner Galaxy bietet eine Matrix aus 32 In × 16 Out. Die 32 Eingänge sind dabei eine Kombination aus den lokalen acht Analog-/AES-Eingängen und zusätzlichen AVB-Eingängen. Eine Erweiterung der Anzahl von Ausgängen durch die Kopplung mehrerer Galaxy-Prozessoren ist laut Steve Ellison bereits in Arbeit. Was derzeit auch noch nicht festgelegt ist: Nach welchem Lizenzmodell oder Preisstruktur die neue Software angeboten wird.
Anwenderseitig ist sicher besonders auffällig, dass Meyer Sound die Steuerung auf mehreren iPads realisiert, über die während der Demo Signale frei im Raum bewegt werden konnten. Zusätzlich gibt es automatische Bewegungsmuster, die im Galaxy-Prozessor selbst erzeugt werden. An den iPads können das Bewegungsmuster sowie dessen Geschwindigkeit, Rotation und X/Y-Richtung definiert werden.
Zufall oder nicht: Sehr gelegen kommt, dass Meyer Sound mit der Ultra X40 ab ca. Q2 2019 einen eher breit abstrahlenden Kompaktlautsprecher anbieten wird, eine kontrollierte Coverage wird ab 400 Hz aufwärts versprochen. Im Selfpowered-Konzept sehen ja eh viele Anwender Vorteile für verteilte Beschallungskonzepte. Und wenn alle Besucher Quellen aus verschiedenen Richtungen wahrnehmen sollen, muss bei ihnen auch mehr ankommen, als nur der Ton aus der Box direkt vor ihnen. Dieser 3D-Sound-Effekt stellt sich aber nur ein, wenn die entfernten Lautsprecher entsprechend breit und über ihren nahe gelegenen Zuhörerbereich noch hinaus abstrahlen – was man ja sonst zu vermeiden sucht. Wenn man dann nicht gerade in einer akustisch knochentrockenen Location sitzt … hier deutet sich also schon die nächste Herausforderung im Sound-Design an.