Immer mehr Event-Dienstleister stehen „in diesen Zeiten“ vor der Herausforderung, Streaming-Projekte umzusetzen. Und viele Kolleginnen und Kollegen aus dem Event-Betrieb, die sonst hervorragende Beschallungen abgeliefert haben, sitzen jetzt vor demselben Mischpult und sollen einen perfekt abgemischten Sendeton nach EBU R128 abliefern. Das kann eine Herausforderung darstellen.
(Bild: David Heuer)
Wie strukturiere ich mir meinen Audio- und Mischpult-Arbeitsplatz für Streamings, was benötige ich für einen guten Sendeton, was gilt es in der Planung zu beachten, was vor Ort? Das wollen wir uns hier im Detail ansehen.
Basis eines größeren Streaming-Projektes ist – wie bei allen anderen Projekten auch – eine gute Planung. Das Kernstück bildet hier die Signalplanung.
Ich erstelle vorher umfangreiche Tabellen, wo alle Inputs und Outputs an allen Devices bereits berücksichtigt sind. Neben dem Einsammeln der senderelevanten Signale wie Mikrofonen, Zuspielern etc. gehören für mich dazu auch Signalübergaben an die Intercom, Anbindung von Dolmetschern und natürlich das Embedding fürs Streaming (also der Punkt der Signalkette, wo Bild und Ton zueinander finden) und die Spurbelegung der Recorder.
Gibt es zusätzlich einen Mehrspurmitschnitt für die Postproduction? Muss ich Kamera-CCUs (Camera Control Unit – eine Einheit, die bei Systemkameras die Anschlüsse in der Regie zur Verfügung stellt) mit PGM-Tönen (Abkürzung für Programm, also dem Sendeton) versorgen? Gilt es mehrere Laptops für Schalten mit Ein- und Ausgängen zu berücksichtigen? Gibt es neben dem PGM-Mitschnitt auch noch Iso-Recordings (abgesteckte Kameras, die für die Postproduction gesondert aufgezeichnet werden), die mit Audio versorgt werden müssen? Wie übergebe ich die Signale an das Streaming? Analog, digital, embedded? Brauche ich Backup-Systeme? Meist geschehen größere Projekte dieser Art ja auf einem Dante-, AES67- oder MADI-basierten System. Die Tabelle ist dann später auch eine gute Vorlage für das Patching meiner Infrastruktur.
Natürlich bin ich auch verantwortlich, dass alle Beteiligten der Sendung das Geschehen gut verfolgen können. Es braucht also eine ganze Reihe an Abhören für die Regie, Einspielungen ins Studio, ggf. in Foyers, Maske, Catering usw. Dieser Bereich wird in der Planung gerne vernachlässigt und vor Ort dann unnötig improvisiert.
Ich persönlich mag ergonomische Arbeitsplätze, die meist einen Halbkreis um mich bilden. Kurze Wege, viele Monitore, gute Übersicht. Mittelpunkt der Sendetonregie ist natürlich das Mischpult. Aber springen wir noch kurz einen Step zurück. Die Wahl des Raumes: Sitze ich in einer offenen Halle, habe ich die Möglichkeit, akustische Maßnahmen zu treffen? Zwischenwände? Abhängungen durch Molton? Alles mit dem Ziel, eine gute Abhörsituation zu schaffen? Oder bin ich aufgrund der räumlichen Gegebenheiten darauf angewiesen, den Mix per Kopfhörer zu erstellen? Diese Fragen sollten immer vorab gestellt und in der Planung bereits berücksichtigt werden.
Wenn möglich gehört die Tonregie in einen gesonderten Raum, der im Idealfall im Vorfeld akustisch optimiert wird. Natürlich ist das nicht bei allen Projekten möglich. Im Zweifel bedeutet das: Kopfhörermix. Habe ich allerdings die Möglichkeit Abhören zu platzieren, schaue ich, dass diese auf Ohrhöhe in Sitzposition in der üblichen Stereoanordnung platziert sind.
Häufig baue ich mir dazu über das Pult eine „Brücke“, die dann auch als Ablage für den PGM-Monitor bzw. Multiviewer dient. Das kann ein halbes Bühnenpodest sein (2 × 0,5 m), was im hinteren Bereich des eigentlichen Regietisches mit den passenden Füßen aufgebaut wird. Die Höhe sollte an die Aufbauhöhe des Mischpultes angepasst sein. Hier sollte auch gut sichtbar das Metering platziert werden. Das Metering sollte im zentralen Sichtfeld verortet sein, um es immer im Blick zu haben. Ein externes Metering platziere ich dazu meist zentral unterhalb des PGM-Monitors. Wenn ich das Metering über einen zusätzlichen Laptop realisiere, platziere ich diesen unmittelbar daneben im zentralen Sichtfeld.
Jetzt gilt es noch, die diversen Laptops für Zuspieler, Routing, UHF-Remote usw. seitlich zu platzieren um den Halbkreis „abzurunden“. Ich verwende für Zuspielungen, Jingles, Musikbetten, Auftrittsmusiken immer die Software QLab in Verbindung mit einem Streamdeck als „Shotbox“, was ich auf oder direkt neben dem Pult platziere, sofern diese Medien nicht auch von einem Jingle-Operator oder Medienserver-Operator geliefert werden. Das ist von Projekt zu Projekt unterschiedlich.
Ebenso zentral und gut erreichbar sollten die Intercom-Sprechstelle oder das Intercom-Beltpack positioniert sein: Möglichst kurzer Weg für den Arm vom Fader zum Taster, um hier schnell interagieren zu können. Neben der Kommunikation mit der Regie und der Aufnahmeleitung sollte ich hier ggf. noch meinen Mikrofonierer erreichen können.
Ich generiere gern von meiner Sprechstelle einen Audio-Out, um dieses Signal auf eine zusätzliche Abhöre zu routen, die ich bewusst außerhalb vom Stereofeld der PGM-Abhöre platziere. Meist in der Richtung, wo auch physikalisch der Regisseur sitzt. Das erleichtert die akustische Trennung von Interkom-Dauerschleife und meinem senderelevanten Mix.
Beim Kopfhörermix muss ich mir natürlich eine Möglichkeit schaffen, auch die Regieanweisungen zu hören. In diesem Fall summiere ich mir meinen Mix im Pult mit dem Interkom-Signal. Auch hier bekommt die Interkom-Summe eine Ortung außerhalb vom Center, um zu separieren. Je nach Projekt auch mit einer binauralen Abhöre in 3D. Hier kann ich also die Regieanweisungen sogar im dreidimensionalen Raum platzieren. Da bekommt der Begriff Voice of God eine ganz neue Bedeutung.
Die Basis eines aufgeräumten Sendetons ist eine gute Pegelstruktur. Ich metere auf Lautheit nach EBU R128 und bevorzuge das Loudness-Radar von TC, welches als Standalone-Hardware oder als Plugin verfügbar ist. Aber auch jedes andere Loudness Metering führt hier zum Ziel. Das soll hier jetzt aber kein Ausflug in die Theorie des Loudness-Meterings werden.
LUFS – Loudness Units relative to Full Scale – bedeutet, hier wird die Lautheit im Verhältnis zum Normpegel betrachtet. Der wesentliche Unterschied zum klassischen Peak-Metering ist hier, dass die Inhalte auf ihre Dichte, also auf die subjektive Wahrnehmung von Lautheit hin analysiert werden.
Stark komprimierte Inhalte ergeben also einen höheren LUFS-Wert als dynamische Inhalte mit identischem Peak-Wert. Eine nach LUFS ausgesteuerte Sendung verhindert also ganz simpel erklärt, dass der Zuhörer nicht aktiv zur Fernbedienung greifen und die Lautstärke anpassen muss, weil ihm Teile der Sendung in seiner Wahrnehmung als zu laut erscheinen.
Ziel ist es, die integrierte Lautheit auf -23 LUFS zu bekommen. Das ist die Vorgabe der EBU für alle Broadcast-Formate. Für das Streaming auf Plattformen wie YouTube gelten andere Vorgaben, informiert euch da am besten im Vorfeld, welchen LUFS-Wert das Endprodukt haben soll.
Das bedeutet: Auf die gesamte Sendestrecke gesehen soll die Lautheit des produzierten Endproduktes in diesem Fall -23 LUFS betragen. Ich darf also auch mal lauter sein und ich darf auch mal leiser sein. Die Abweichung nach oben und unten wird als Loudness-Range bezeichnet und sollte je nach Format gewisse Richtwerte nicht überschreiten.
Meist zeigen die Loudness-Meterings verschiedene Werte an, häufig in Balkenform. „Momentary“, das ist der aktuelle Loudness-Wert, „Short Term“, das ist die Lautheit über einen kurzen Zeitraum betrachtet und „Integrated“, das ist die Lautheit über die gesamte Sendestrecke betrachtet. Hierzu befinden sich auf jedem Metering eine Play- und eine Reset-Taste, sowie häufig auch eine Pause-Taste. Hier kann ich das Metering entsprechend starten, pausieren und zurücksetzen. Das sollte immer mit Beginn der Sendung oder zu Beginn einer Probe erfolgen.
Das Loudness-Radar von TC beispielsweise ist wie ein Radarkreis aufgebaut. Hier sieht man also die Loudness-Messwerte über einen längeren Zeitraum und kann so auf die Schnelle erkennen: War mein Talk zu leise? War die Einspielung zu laut? Diese Darstellungen hat sich bei vielen Toningenieuren durchgesetzt und ist daher sehr beliebt.
In der Praxis bedeutet das: Alle Zuspieler, Filme etc., die vorab vorliegen, kann ich bereits bei den Proben auf den idealen Lautheits-Wert pegeln, wenn diese nicht bereits sowieso nach dem Standard angeliefert werden. Im Broadcast-Bereich ist das häufig so, im Event-Bereich „eher nicht“. Hier gilt es also, sich mit dem zuspielenden Kollegen vorab die Zeit zu nehmen und alle Medien schon mal zu pegeln. Entweder kann dies direkt im Medienserver o. ä. passieren oder man schreibt sich im Pult Szenen für die einzelnen Zuspieler. Das hat den Vorteil, dass man auch tonal noch mal anpassen kann. Je nach Format und Dichte der Zuspieler in der Sendung ist das aber nicht immer praktikabel.
Ziel der Aktion: Wenn der Fader auf 0 dB steht, sagt mein Metering am Ende der MAZ exakt -23.0 LUFS. Somit habe ich alle vorproduzierten Sendestrecken schon mal fest im Griff und muss mich beim Mix der Sendung nur auf den Liveanteil konzentrieren. Ich lasse also alle Videos anspielen und schiebe mir das im Metering passend. Den daraus resultierenden Wert des Faders lasse ich im Zuspieler korrigieren. Also zum Beispiel -4dB.
Insbesondere beim Sprachanteil der Sendung kann es mitunter schon ein bisschen herausfordernd sein, auf den gewünschten LUFS-Wert zu kommen. Hier darf schon mal der Kompressor etwas aktiver arbeiten, als man das aus dem Eventbereich gewohnt ist. Auch ein guter Summenkompressor am Ende erleichtert das Arbeiten. Ziel ist es auch hier: Fader auf 0 dB bei einem Mikrofon bedeutet -23LUFS am Metering als Ausgangspunkt. Somit kann ich beim „Fahren“ der Sendung erst mal guten Gewissens schnell und präzise arbeiten und muss mir nicht abweichende Werte merken.
Im nächsten Teil sehen wir uns den Einsatz von Plugins und zusätzlicher Tools an, die Struktur der Outputs und welche Checks Systemstabilität garantieren.
David Heuer arbeitet als erfolgreicher Toningenieur in den Anwendungen Broadcast und Event. Der 38jährige ist seit 2002 parallel in beiden Welten der Branche selbstständig unterwegs (www.DavidHeuer.de). Als Freelancer agiert er von Düsseldorf aus für einige Kunden auch als Full-Service-Dienstleister mit eigener Technik. Seit 2019 ist er zudem im „Trio“ mit der QoSono GmbH&Co KG unterwegs, die die Aufgaben Sounddesign, Fachplanung und Operating im Audiobereich vereint.
(Bild: Christian Ruvolo)
Zu den spannenden Projekten und Herausforderungen, in denen die beiden Welten Broadcast und Event aufeinander treffen, zählt er beispielsweise die mit QoSono betreuten Ehrlich Brothers. Neben der technischen Beratung ist man für das Tour-Operating, aber auch für Sounddesign und Audio-Postproductions für die TV-Produktionen der Brüder verantwortlich. Reizvoll findet er im Broadcast-Bereich vor allem die großen Projekte, so wirkte er zum Beispiel beim Champions-League-Finale oder dem Eurovision Songcontest mit.