Auf Messen, in Onlinepräsentationen oder nur einem kurzen Facebook-Post: Eine Vielzahl neuer Videoprodukte enthüllt die Prioritäten der Hersteller und erlaubt uns, ein vages Bild von der Zukunft moderner Produktionen zu zeichnen. Wir schauen auf Trends und Neuerungen von der NABShow und stellen interessante Produkte aus dem Bereich des Videoprocessing vor.
Elektronische Berichterstattung und Medienproduktion erfolgten in den vergangenen zwei Jahren gezwungen remote. Virtuelle Produktionsmittel wurden vorangetrieben. Welche dieser Trends bleiben und was sie für die Veranstaltungswirtschaft bedeuten, ließ sich in Las Vegas auf der NABShow 2022 der National Association of Broadcasters entdecken.
(Bild: Alexander Heber)
NABShow nach zwei Jahren Pause bedeutete für die meisten Aussteller, einen Gang herunterzuschalten. Der allgemeine Messewahnsinn sich überbietender Stände und glamouröser Inszenierung wurde unterbrochen. Wo es nötig und sinnvoll war, wurde natürlich am technischen Limit präsentiert. Der Eindruck über Gebühr auf den Putz hauen zu müssen, entstand jedoch nicht. Lediglich Blackmagic Design sah keinen Anlass für einen kleinen Stand, was in Anbetracht des immensen Erfolgs der letzten Jahre und des überaus steten und regen Treibens auf der Ausstellerfläche auch nachvollziehbar war.
In diese Beobachtung kann man eine Symbolkraft deuten. Veranstaltungen, Schulungen, Kongresse, Unterricht und unzählige andere Begegnungen der realen Welt zogen ins Internet um und zwangen so manchen, ohne jede Vorerfahrung zum Produzenten zu werden. Ist das Grün hinter den Ohren erst einmal verloren, werden jene, für die ein ATEM Mini anfangs viel zu kompliziert schien, nun plötzlich doch auch zu Ideengebern und Treibern einer ganzen Industrie. Die Zahl der Prosumer wächst genau zur gleichen Zeit, in der sich Produktionsabläufe auf professioneller Ebene revolutionieren, umkämpfen, neu erfinden und etablieren – das sorgt für Synergien, wie es sie vorher nicht gab.
In den Wolken – Cloudprocessing in der Videoproduktion
Cloud, Cloud und nochmals Cloud. Die Frage ist nicht, ob Medien komplett in der Cloud verwaltet werden, sondern wann und mit welchem System. Sowohl die Liveproduktion als auch die Bearbeitung in nonlinearen Video-Editoren kann inzwischen online erfolgen. Interessant ist dabei, welche Anbieter hier den Vorstoß machen. AWS (Amazon Web Services) präsentierten sich als Mittler zwischen Broadcast und dem Produzieren in der Cloud, während HP einen Schritt weiter geht und mit „Broadcast as a Service“ den produktionsbereiten Ü-Wagen in der Cloud platziert haben will. Etwas greifbarer für unsere Zwecke präsentiert Atomos eine Live-Produktionslösung inkl. Intercom zu den abgesetzten Produktionsorten. Die Verwaltung von aufgenommenen Inhalten und Aufbereitung in der Cloud haben sich ebenfalls viele Anbieter zur Aufgabe gemacht. Die Lösungen zur Auswertung von Inhalten per KI und Media Asset Management im Allgemeinen sind alle ähnlich und nur schwer lässt sich hier ein Gefühl dafür entwickeln, welches – und ob überhaupt – ein System die Nase vorn haben wird.
Nun kann man – vielleicht zurecht – die Frage in den Raum werfen, warum uns die Verwaltung von Medien in der Cloud überhaupt interessieren sollte. Schließlich sind wir keine Produktionsfirmen, sondern realisieren Events. Jedoch stellt sich auch die Frage, ob es künftig ausreicht, den Mitschnitt einer Veranstaltung erst zwei Stunden nach Abbauende auf einer Festplatte an die Kunden zu übergeben. Müssen Showinhalte nicht direkter greifbar sein und live zur Verarbeitung in Social Media und Streamings bereitgestellt werden können? Den schicken Opener mit den schönsten Momenten aus Tag 1 für einen zweiten Veranstaltungstag zu produzieren, funktioniert eben nur, wenn es überhaupt einen zweiten Veranstaltungstag gibt. Dabei könnten
diese Zusammenschnitte auch ohne weiteres bei der Abendveranstaltung oder sogar in den Pausen laufen, wenn man denn eine moderne Infrastruktur zur Datenverarbeitung bereitstellt.
Und wie ist es andersherum? Welche Inhalte müssen wir künftig in Veranstaltungen einbinden können und wie entstehen diese Inhalte? Für Events, die sich über mehrere Standorte erstrecken, ist ein geeinsamer Ort für den schnellen Austausch von Livesignalen, aufgenommenen Inhalten und Grafiken sehr wohl attraktiv. Darüber hinaus werden wir nicht nur Daten an unterschiedliche Ausspielwege übergeben müssen, sondern auch von verschiedenen Medien empfangen und in Events einbinden – und das ad hoc und nicht erst am Tag danach.
Die Verarbeitung in der Cloud kann zudem Ressourcen sparen. Der Schnitt für den Livestream muss einfach nicht am Veranstaltungsort passieren, sondern kann mittels einer stabilen Internetverbindung von überall erfolgen.
IP, aber wie?! – Wer macht das Rennen im Bereich AV over IP?
Der SMPTE-Standard ST2110 wird im Broadcast nicht hinterfragt und bildet künftig die Basis der Signalverwaltung. NDI beweist einen ebenfalls sehr festen Stand, wenn Signale nicht unkomprimiert transportiert werden müssen. Gleichzeitig war es gut zu sehen, dass IPMX wieder von sich hören ließ. IPMX bemüht sich, einen komprimierbaren und nicht zwingend von einem PTP-Server abhängigen Video-over-IP-Standard zu etablieren, der in den Grundzügen viele technische Gemeinsamkeiten mit ST2110 aufweist und so die Implementierung für Hersteller leicht machen soll. Das ist deshalb eine gute Nachricht, weil es den Ausblick auf eine Konsolidierung in einen Standard gibt, der auch für die Eventbranche in realisierbare Nähe rückt. Zwar präsentieren sich auch Hersteller mit neuen AV-over-IP-Lösungen, aber proprietäre Ansätze machen die
Arbeit auf Dauer schwer. Bestrebungen, den nun einmal gesetzten ST2110-Standard adaptier- und greifbar zu machen, sind indes sehr willkommen. Nvidia präsentierte – fast schon in einer Art Randnotiz – am Stand von Phabrix eine Softwarelösung, die einen zweiten Bildschirm in der Windowsoberfläche simuliert und diesen zweiten Bildschirm mit längst gängiger Hardware als ST2110 ausspielt. Das passiert ohne eine komplizierte Einbindung in den Timing-Server, da das Tool die nötigen Informationen aus dem Netzwerk entnimmt und für sich beansprucht. Diese Entwicklungen könnten den Standard perspektivisch auch für unsere Aufgaben zum Mittel der Wahl werden lassen, insbesondere wenn mit IPMX ein weiterer Standard entsteht, der Signale auch in 1G-Netzwerken realistisch macht.
Erstmals vorgestellt wurde IPMX auf der ISE 2020. IPMX soll zu einer Vereinheitlichung von Video-over-IP-Protokollen führen, welche frei zugänglich sein sollen. Dabei soll der Standard von SD bis 8K und darüber hinaus funktionieren und zukunftsfähig bleiben. Alle Farbräume, Pixelformate und Bildwiederholraten seien unterstützt. Die Latenz soll unter einem Frame liegen und ein Betrieb sowohl synchron als auch asynchron gewährleistet sein (Nutzung mit oder ohne PTP-Server). Mit der Unterstützung von JPEG-XS wird zudem gewährleistet, dass Signale bereits in 1G-Netzwerken transportiert werden können. IPMX soll sowohl für Hardware- und Software-Lösungen kompatibel sein und dank NMOS-Discovery und -Registrierung einfach zu handhaben bleiben. Die Integration von USB, HDCP und Verschlüsselung sorge zudem für ein breites Anwendungsfeld. Vorangetrieben wird die Entwicklung durch AIMS (Alliance for IP Media Solutions), zu der namhafte Hersteller wie Lawo, Panasonic, Ross, Yamaha und viele weitere gehören.
Irrsinnig große Auflösungen schaffen es noch nicht so recht in die Wohnzimmer normaler Konsumenten, das menschliche Auge hat eben auch Limits in der eigenen Auflösung. Zwar gibt es z. B. in Japan bereits Sendeketten in 8K – die Regel ist das aber nicht. Hohe Auflösungen und Farbtiefen finden im Bereich virtueller Produktionen jedoch eine Berechtigung. Der feine Pixelpitch bei LED-Wänden wir erschwinglicher und erweitert die Optionen für Kamerapositionen und Animationen für XR-Set-Produktionen. ROE demonstrierte zusammen mit Disguise Wege in die XR-Produktion, womit nun auch Medienserver im Broadcast zum Einsatz kommen, die wir eher unserem Event-Alltag zugeordnet hätten. Die Auflösung zu erhöhen ist nur eine Seite der Medaille, die Qualität des Bildes muss auch Schritt halten. So hört man immer wieder von HDR-Kompatibilitäten und HDR-Workflows. Doch auch hier ist man noch ein Stück von der Konsolidierung auf einen Standard entfernt. SMPTE gibt zwar Empfehlungen und auch Standards vor, dennoch bleibt der Anspruch auf die HDR-Lösung umkämpft. Eine Signalkette End-to-End in HDR 4K ist nicht so banal, wie es den Anschein hat. Daran wurde man auch auf der NABShow erinnert.
The Show must go on! Durch Fachkräftemangel, Amazon Web Services sinkende Ticketverkäufe in allen Reihen der Kultur und dem – teils widerwilligen – Trend zu Online- und Hybridevents haben sich die Ausrichtungen der Hersteller verändert. Das hat neue Produkte hervorgebracht oder die Nachfrage von totgeglaubten Technologien wiederbelebt. Mit einer Auswahl an Produkten heben wir Bedeutendes, Zukunftsweisendes und auch Kurioses aus dem Feld der Videoverarbeitung hervor – vornehmlich entdeckt auf der NABShow 2022.
AJA beweist mit Bridge NDI 3G und Bridge Live, dass man den Bedarf für Formatwandlungen erkannt hat und diesen professionell bedient. SMPTE ST2110, NDI, Dante und weitere IP-Formate werden hier gebündelt und für die Weiterverarbeitung per SDI bereitgestellt – oder andersherum. Darüber hinaus liefert AJA mit dem Io X3 eine HDR-fähige Mehrkanal-Thunderbolt-Input/Outputkarte mit Audioüberwachung, Referenzsignalschnittstelle und Timecode-Anbindung. NABShow Product of the Year Gewinner ist dennoch der Nachfolger des beliebten Helo-Streaming- Encoders geworden: der AJA Helo Plus.
Der neue KVM Desktop- Multiviewer Adderview CCS-MV 4224 ermöglicht die Bedienung von bis zu vier Geräten in UHD. Mit AdderLink Infinity IP KVM kann auch über Netzwerk gearbeitet werden. Der Cursor der Maus bewegt sich dabei nahtlos zwischen den angeschlossenen Geräten und ermöglicht schnelles Arbeiten und gleichzeitiges Überwachen.
Auf der NABShow 2022 präsentierte Amazon verschiedene Lösungen für Broadcastanbieter. Ein kleiner Showcase stellte unter Beweis, dass eine komplette Produktionsumgebung in der Cloud betrieben und dennoch mit den klassischen Controllern bedient werden kann. Viz Vectar Plus läuft als NDI-Mixer in der Cloud, die Quellen sind als virtuelle Rechner verfügbar und das Signalrouting erfolgt per NDI mit Sienna. Bedient wird das Ganze dann trotzdem mit einem Control Panel von NewTek. Was AWS mit Stolz präsentiert, vermisst jedoch (noch) die einfache „One-Click-Lösung“, die man sich dafür wünschen würde. Wenn es einmal so weit sein sollte, dass sich die Videoregie per Drag and Drop in der Cloud zusammenstecken lässt, spielt auch die Verfügbarkeit von Fachpersonal an einem bestimmten Ort eine geringere Rolle. Bis es so weit ist, sei Interessierten empfohlen, einmal durch den AWS Marketplace zu stöbern und ein Gefühl für die Angebote zu bekommen, die bereits von Drittanbietern deployt werden. SRT Streaming-Server, Renderfarmen und selbst Anleitungen bis zur eigenen vMix-Maschine in der Cloud sind bereits zu finden. Noch benötigt es eine Menge Know-how für diese Lösungen, aber das wird künftig eher besser und einfacher.
1080p-Streamings belebten die Nachfrage bei Geräten wie der Pulse 3G und den aktuelleren Produkten aus der Midra-Serie. Die großen Multiscreen-Management-Systeme aus der LivePremier-Reihe am anderen Ende des Portfolios sind für kleinere Anwendungen im Streaming dann doch oftmals zu viel des Guten. Die Lücke zwischen den „kleinen“ und „großen“ Switchen schließen nun Prozessoren aus der Alta-Serie. Zwei Geräte, der Zenith 100 und Zenith 200, liefern künftig bis zu 16 Inputs, sechs Outputs und acht Layer plus nativen Hintergrund – je nach Konfiguration. Für Streamings mit umfangreichem Monitoring, Konferenzen mit verschiedenen Outputs, Softedges und AUX- Wegen wird die Alta-Serie gewiss ein treuer Begleiter für viele Videodienstleister. Sobald wir ein Exemplar der frisch auf der ISE vorgestellten Alta-Geräte in die Hände bekommen, werden wir in einem Test genau ermitteln, wo die Serie ihren Stammplatz finden kann.
Das gute Preis/Leistungsverhältnis von Monitoren und Recordern hat viele Atomos-Geräte in die Regien von Veranstaltungstechnikunternehmen befördert. Der Hersteller beweist mit den Produkten der neuen Kategorie „Connect“, dass auf die Bedürfnisse der Medienschaffenden geachtet wird. Connect-Geräte erweitern die Produktreihe um Streaming Encoder. Entweder als Erweiterung für Atomos Ninja-Recorder mit dem Atomos Connect oder als eigenständige Geräte wie dem Shogun Connect oder Zato Connect. Auf der NABShow wurde dann der eigentliche Clou vorgestellt: das Atomos Cloud Studio, welches im September live gehen soll. Low-Latency-Live-Produktion inkl. Videomischer, Audiomischer, Grafikplayer, Videoplayer und Talkback zur entfernten Produktionsstätte sollen damit zum Kinderspiel werden. Wenn hier die Bedienung und Kommunikation tatsächlich so einfach wird, wie es der Hersteller suggeriert, könnte dies ein wunderbares Tool für kleine und mittlere Produktionen werden. Mehrere Standorte miteinander zu verbinden, könnte damit ebenfalls leichter werden als bisher. Der Launch der Oberfläche ist im Kalender markiert – wir werden Updates liefern.
Neue Atem-Mischer und -Panel, neue Version von DaVinci Resolve, Cloud- und Kollaborationsmöglichkeiten, neue Hyperdecks, neue Pocket-Cinema-Kameras und Decklink-Karten. Eine hohe Kontrolle über die eigenen Lieferketten zusammen mit dem unglaublichen Erfolg der kleineren Atem-Mixer hat Blackmagic Design über die letzten Jahre regelrecht nach oben katapultiert. Die Frage nach der Lieferbarkeit wird zwar selbst bei Blackmagic Design je nach Produkt und Kontinent sehr spannend, eine Vielzahl der neuen Produkte ist aber sofort in Deutschland verfügbar. Dass sich der Hersteller aus Australien ausgerechnet für eine neue Atem-Serie in HD und nicht etwa 4K entschieden hat, zeigt, dass HD noch lange nicht am Ende ist – gerade bei Online-Veranstaltungen. Dafür kommen beispielsweise beim 4 M/E-Modell 40 × 3G SDI Quellen, 24 × 3G-SDI-Ausgänge, 16 × Chroma Keyer, 4 × Multiviewer und vier Mediaplayer zum Einsatz. Bei einer UVP von 3.695 € sind das beeindruckende Eckdaten.
Blackmagic Design Cloud-Lösungen
Bild: Blackmagic Design
Mit gleich drei Produkten werden Dateien für den Netzwerkzugriff bereitgestellt. Cloud Store bietet bis zu 320 TB Speicher und vier 10G-Ethernet-Ports. Cloud Store Mini bietet 8 TB und einen 10G-Ethernet- Anschluss. Der Cloud Pod macht aus zwei angeschlossenen USB-C-Datenträgern ein Netzlaufwerk. Alle Blackmagic-Cloud-Geräte unterstützen Dropbox
Bild: Blackmagic Design
Mit gleich drei Produkten werden Dateien für den Netzwerkzugriff bereitgestellt. Cloud Store bietet bis zu 320 TB Speicher und vier 10G-Ethernet-Ports. Cloud Store Mini bietet 8 TB und einen 10G-Ethernet- Anschluss. Der Cloud Pod macht aus zwei angeschlossenen USB-C-Datenträgern ein Netzlaufwerk. Alle Blackmagic-Cloud-Geräte unterstützen Dropbox
Bild: Blackmagic Design
Mit gleich drei Produkten werden Dateien für den Netzwerkzugriff bereitgestellt. Cloud Store bietet bis zu 320 TB Speicher und vier 10G-Ethernet-Ports. Cloud Store Mini bietet 8 TB und einen 10G-Ethernet- Anschluss. Der Cloud Pod macht aus zwei angeschlossenen USB-C-Datenträgern ein Netzlaufwerk. Alle Blackmagic-Cloud-Geräte unterstützen Dropbox
Blackmagic Design Hyperdeck
Bild: Blackmagic Design
Das Hyperdeck Shuttle zeichnet HDMI-Signale auf SD-Karte auf und hilft per Jog-Wheel beim Monitoring und gezieltem Playback. Durch Unterstützung von RTF-Dateien wird das Gerät sogar zum Teleprompter.
Bild: Blackmagic Design
Das Hyperdeck Extreme 4K liefert HDR-Performance, Recording auf CFast Karten und wahlweise ein Steuermodul mit Jogwheel und Playback Buttons.
Als Monitore für so ziemlich alles präsentieren sich die neuen Core 5 und Core 7 von Birddog. NDI-Encoder, NDI-Decoder, Streaming-Encoder, Recording, Tally und Monitoring inkl. Waveform, Vektorskop und RGB-Parade. Der SFP+-Slot macht die Anbindung an ein 10GbE-Netzwerk möglich, per Glasfaser oder Kupfer. Die Monitore verwalten Signale bis 12G. Für Streamings stehen NDI- und NDI|HX-Formate zur Verfügung. SRT und RTMP gehören unter anderem auch dazu. Videosignale können über am USB-C-Anschluss verbundenen Speicher mitgeschnitten werden – es stehen verschiedene Codecs zur Wahl. Die Geräte sollen Ende dieses Jahres verfügbar werden.
Birddog Core
Bild: Alexander Heber
Die Core-Modelle in 5" und 7" Größe codieren SDI- oder HDMI-Signale in NDI, NDI|HX2&3, SRT, H.264, HEVC, RTMP oder RTSP bis zu 4K60p
Bild: Birddog
Die Core-Modelle in 5" und 7" Größe codieren SDI- oder HDMI-Signale in NDI, NDI|HX2&3, SRT, H.264, HEVC, RTMP oder RTSP bis zu 4K60p
Der italienische Stativhersteller hat mit dem KPTZStativ ein Produkt speziell für den Einsatz mit PTZKameras vorgestellt. Das Stativ lässt sich mit Einzelfüßen oder auf einer Rollspinne montiert zum Einsatz bringen. Die Höhe ist zwischen 89 und 205 cm variabel. Die integrierte Wasserwaage am Kugelgelenk der Kameraaufnahme erleichtert die Einrichtung.
Die Liste an Produkten und Dienstleistungen von Cisco ist lang. Hervorzuheben ist jedoch das eigene Hardware-Angebot für Cisco Webex. Es ist in vielen Konferenzräumen zur festen Meetinglösung geworden und verbindet auch bei Events immer wieder zugeschaltete Gäste mit dem Bühnengeschehen. Während es als reine Softwarelösung auf den Mietrechnern Einzug halten kann, so ist auch die eigene Hardware eine gute Möglichkeit, einheitliche Bedingungen für Liveschalten zu schaffen. Die Webex-Desk-Produkte können an Gäste und Vortragende versendet werden und eine Teilnahme erleichtern. Die Webex-Endpoints werden zum Kauf und auch zur Miete angeboten.
Bedienkonzepte werden auch beim taiwanesischen Hersteller Datavideo hinterfragt. Das 4K Showcast Studio setzt auf einen integrierten 14″-Touchscreen für die Bedienung. Vier HDMI-Signale können hier gemischt werden und PTZ-Kameras direkt mit dem Pult gesteuert und Presets abgerufen werden. Das Gerät verfügt über einen Lumakey, die Möglichkeit zum Integrieren von Titelgrafiken mittels Web GUI und ermöglicht ein PiP. Gestreamt wird per RTSP oder RTMP und für den Mitschnitt gibt es einen SD-Karten-Slot.
Der 4K 12G-SDI Splitter und Reclocker von Freakshow HD ist winzig und fällt genau dadurch ins Auge. Die dennoch robuste Bauweise und Performance für hochauflösende Signale machen das Gerät zu einer guten Option für das Tool-Case oder eine Daisy-Chain-Signalverteilung.
Ganz im Zeichen der Remote-Produktion hat Intinor den Direkt Link Compact vorgestellt. Eine echte Punkt-zu-Punkt-Verbindung über das Internet mit 4-Draht-Interkom-Unterstützung ermöglicht die Anbindung kleiner und flexibler Teams an entfernten Locations. Intinor nutzt ein eigens entwickeltes Protokoll für die Übertragung namens Bifrost Reliable Transport, welches mittels ARQ, adaptiver Bitrate und Netzwerkbonding eine hohe Stabilität bei einer angegebenen Latenz von nur 0,5 Sekunden liefern soll.
SDI-Inputs und -Outputs – egal wo, egal wie viele. So oder so ähnlich muss die Prämisse bei der Entwicklung von Lawo Edge gewesen sein. Man kann es als eine moderne, skalierbare SDI-Kreuzschiene beschreiben.In 25GbE- und 100GbE-Netzwerken stellt das System mit smarten 19″-Einheiten SDI-Ein- und Ausgänge zur Verfügung. Die Verwaltung der Signale erfolgt über ST2110. Auch ST2022-7 wird unterstützt. Für Großveranstaltungen, detaillierte Tour-Setups oder komplexe Konferenzen kann eine Verwaltung basierend auf diesen Standards von Vorteil werden.
Lawo Edge
Bild: Alexander Heber
Lawo Edge auf der NABShow 2022
Bild: Lawo
Die Signale aus dem Netzwerk werden auf Mini-HD BNC Connectoren an den 19" Geräten gepatcht
Bild: Lawo
Edge integriert
sich nahtlos in die Bedienoberfläche
„Home“.
CV568, CV368, CV566 und CV366: gleich vier neue Modelle der weit verbreiteten POV-Kameras sind von Marshall präsentiert worden. Sony Sensoren, SDI- und HDMI-Abgänge gehören zu allen Modellen. Dank Tri-Level Sync lassen sich die kleinen Kameras in HD-Workflows integrieren und Produktionen um ausgefallene Perspektiven erweitern.
Bild: Marshall
Marshall CV568
Bild: Marshall
Marshall CV566
Ebenfalls neu aus dem Hause Marshall sind PTZ-Kameras mit Autotracking, die KI gestützt ohne zusätzliche Kamera im Basement auskommen sollen. Diese Modelle werden auf der IBC 2022 vorgestellt.
NDI wird inzwischen von so vielen Herstellern und Programmen unterstützt, dass NewTek bei der NABShow den größten Teil des eigenen Standes für andere Firmen vorgesehen hatte, die ihre eigenen NDI-Lösungen präsentierten. NewTek weiß also genau, dass der Erfolg von NDI nicht nur auf den eigenen Produkten gegründet ist. Die neusten Updates zu NDI 5 eröffnen weitere Möglichkeiten für Drittanbieter und Produktionen an sich. NDI Bridge soll die Verknüpfung zwischen entfernten NDI-Netzwerken ermöglichen und die entfernten Signale in der eigenen Produktionsumgebung nutzbar machen. Wenn es nicht die komplette Kontrolle über NDI-Quellen in einem anderen Netz braucht, so wird NDI Remote zur einfachen Schnittstelle zwischen entfernten Quellen und dem eigenen NDI-Netzwerk: Hierzu teilt man einen Link, der es Mitwirkenden mit nahezu jedem Endgerät ermöglichen soll, Teil der NDI-Infrastruktur zu werden. Weitere Verbesserungen kommen mit NDI Audio Direct, was die Verwaltung von Audioquellen im Netzwerk in beide Richtungen erleichtern soll. Die neusten und sehr lang ersehnten Features sind in der Windows-Version von NDI Tools enthalten. Wie genau die neuen Werkzeuge funktionieren, wird uns in kommenden Ausgaben beschäftigen.
Auch im Bereich Hardware steht NewTek nicht still. Die TriCaster-Familie begrüßt mit dem Mini X ein neues Familienmitglied. Größte Besonderheit hier dürfte das Live Link Feature sein, welches das Einbinden von Webseiten und HTML basierten Tools (z. B. für Grafiken und Titeleinblendungen) ohne zusätzliche Tools möglich machen soll.
Bitcoin-Farmer geben auf und Grafikkarten frei: Gamer und videolastige Unternehmen freut diese Nachricht. Eine Entwicklung aus dem Haus Nvidia war ganz unscheinbar am Stand von Phabrix auf der NABShow zu entdecken. Per Software wird auf einem Windows-Computer ein Display simuliert. Auflösung und Bildwiederholrate lassen sich durch die normalen Windows-Einstellungen anpassen. Das Besondere: Das Signal wird von einer Nvidia-Grafikkarte gerendert und ohne Umwege über den CPU an eine NIC übergeben und als ST2110 ausgegeben. Die notwendige Eingliederung in den PTP-Server erfolge dabei sogar automatisch. Anders ausgedrückt: Einen PC als ST2110-Signal zur Verfügung zu stellen wird perspektivisch so leicht wie der Anschluss eines HDMI-Displays. Das ändert noch nichts an der aufwändigen Infrastruktur und den hohen Anforderungen an ein Netzwerk für diese Signalstruktur, ist aber ein Schritt in die richtige Richtung. Wenn es mit ST2110 möglich ist, ist der Schritt zu IPMX hoffentlich nicht weit.
Der Kairos geht den mutigen Schritt in die ST 2110-basierte Signalverwaltung bei gleichzeitigem Wechsel auf ein softwarebasiertes Processing. Der Mischer mag zwar wie ein klassischer Bildmischer anmuten, aber da hier die Bildverarbeitung nicht mehr durch FPGAs, der Anzahl von Keyern oder M/E-Ebenen definiert wird, kommen für den Kairos auch Aufgaben infrage, die sonst einem Multiscreen-Management von Barco oder Analog Way zugeschrieben worden sind. So können auch Formate bespielt und verarbeitet werden, die nicht einem traditionellen 16:9-SMPTE-Standard entsprechen.
Riedel erweitert das ohnehin schon starke Mediornet kontinuierlich. Mit dem Mediornet MicroN steht ein Knotenpunkt zur Verfügung, der verschiedene Aufgaben erfüllen kann: Entweder ist das Gerät Signalkonzentrator mit zwölf 3G-SDI-Inputs und zwölf 3G-SDI-Outputs, Signalprozessor, Schnittstelle in eine IP-Infrastruktur oder Multiviewer. Zwei MADI-Anschlüsse erlauben die Verwaltung von 128 Audiokanälen. Ein 16-Kanal-Audio-Embedder/De-Embedder gehört ebenfalls zum Feature-Katalog.
Etwas kleiner, etwas leichter zu bedienen: Die Philosophie der neuen Produkte SR-20HD und AeroCaster zeigen ebenfalls den Bedarf nach einfachen Lösungen für Streaming- und Live-Produktion. Der SR-20HD vereint Video-Switcher, Audio-Mixer, Recorder und Streaming-Encoder. Vier Mikrofoneingänge, zwei HDMI-Quellen: für viele Workshop-Situationen reicht das. Der Automixer kümmert sich um die Mikrofonlautstärken und bei Bedarf folgt das Videobild dem aktiven Mikrofonsignal. AeroCaster indes soll Telefone in ein drahtloses Multi-Kamera-Studio verwandeln. Mit der Kamera-App auf den Telefonen und der Steuer-App auf dem Tablet braucht es nur noch das Audio-Interface VRC-01 und die Produktion kann losgehen. Sicher, nicht die professionelle High-End-Lösung, aber als Variante für kleinere Budgets doch ganz interessant. Wer nicht nach Trendsetter-Produkten sucht, findet im VC-100UHD einen grundsoliden Scaler und im V-160HD einen der flexibelsten Videomischer in der Preiskategorie bis 6.000 Euro.
Rotolight Neo 3 Weißlicht, Blitzlicht, Effektlicht, oder doch eine von den vielen gespeicherten Farbfolien? Die mehrfach ausgezeichnete Leuchte Neo 3 von Rotolight findet nicht nur auf dem Zubehörschuh einer Kamera ein gutes Zuhause, sondern hilft auch in kleinen Bühnen- oder Moderationssituationen, die Akteure erfolgreich in Szene zu setzen.
Ganz am Rand der North-Hall im Las Vegas-Convention-Center machte ein kleiner „Bluescreen“ auf sich aufmerksam. Ryan Burgoyne stellte hier seine App „Skyglass“ vor. Skyglass macht sich die LiDAR-Sensoren im iPhone zu Nutze und sendet diese Daten an einen Unreal-Server in der Cloud, an dieser Stelle wird der Hintergrund durch ein virtuelles Set getauscht und zurück an das Telefon gesendet. Eine schnelle Internetverbindung ist die Voraussetzung. Es soll möglich sein, eigene virtuelle Sets zu erstellen und auch die Verwendung anderer Kameras ist machbar, womit das iPhone „nur“ zum Tracking-Gerät wird. Auf der einen Seite könnte Skyglass für viele Indie-Filmschaffende ein Weg sein, sich mit virtuellen Sets vertraut zu machen. Zum anderen könnte es eine gute Option werden, Mockups zu erstellen. Mit deren Hilfe ließe sich potentiellen Kunden eine Produktion im „richtigen AR/XR-Studio“ schmackhaft machen. Die App wird voraussichtlich Anfang 2023 für die Öffentlichkeit verfügbar sein. Informationen gibt es unter www.skyglass.com.
Einfach und genial: Der Schultergurt von Steadygum verteilt die Last beim geschulterten Kameraeinsatz gleichmäßig auf beide Schultern. Das hilft der Gesundheit von Kameraleuten maßgeblich. Drei Modelle unterstützen die Bedienung von Kameras unter und über 6 kg und die Verwendung von Camcordern.
Steadygum
Bild: Alexander Heber
Steadygum präsentierte die Folgen für Kameraleute ohne Steadygum mit etwas Dramatik
Bild: Alexander Heber
Mit dem Steadygum wird die Last einer Schulterkamera gleichmäßig auf beide Schultern verteilt
Telestream hat Sherpa Stream gekauft und bietet nun eine Plattform für Webcasts, Webinare und virtuelle Events an. Zudem hat Wirecast Gear ein Update erfahren. Das Paket aus Software und passender Hardware verspricht 4K-Produktionen mit bis zu vier Inputs unter 10.000 Euro. Wirecast Gear 3 ist in vier Varianten erhältlich, die sich in der maximalen Auflösung (1080p60 oder 4Kp60) und den möglichen Capture- und Outputkarten unterscheiden.
Zwei Trends werden ersichtlich, wenn wir die Produkte im Bereich Video betrachten: Ein Hang zur Vereinfachung, wenn es um das Mischen von Bildern geht und andererseits der Vorstoß in eine (noch) Know-how-intensivere Signalverwaltung basierend auf Netzwerkprotokollen. Vielleicht schaffen die einfacheren Pulte die Möglichkeit, neues Personal schneller anzulernen und gleichzeitig Kapazitäten bei den erfahrenen Technikerinnen und Technikern, um die neuen Technologien zu verinnerlichen und zu implementieren. Es gilt, aufmerksam zu bleiben und ein Gefühl für die neuen Bedürfnisse und Einsatzgebiete zu gewinnen. Wir sind noch nicht an dem Punkt angekommen, an dem wir die IP-Standards aus dem Broadcast problemlos adaptieren können. Gleichzeitig sind die einfacheren Formate – wie NDI – nicht für alle Anwendungen geeignet. Die Entwicklung geht aber mit exponentiellen Schritten voran: Netzwerkstrukturen werden bald das Herzstück vieler Events.
Hallo Matthias,
danke für dein Feedback.
Wie eingangs erwähnt, stammt der Großteil der ausgewählten Produkte aus dem Kontext der NABShow. SDVoE ist im Broadcastbereich nicht etabliert – man kann fast sagen „nicht existent“. Allmählich bewegt sich SDVoE aus dem Installationsbereich in den mobilen Eventsektor, wie man u.a. an den „rugged“ Produkten von ZeeVee und den SDVoE-Karten für Analog Way LivePremiere erkennen kann. Wir haben die Technologie im Blick und werden uns Anwendungen, Produkten und Grundlagen widmen. Aktuell ist uns aber zum Beispiel kein Videomischer, keine Playbacksoftware und nur ein Recorder bekannt, der mit dieser Technologie arbeitet. Deshalb werden wir zuerst SDVoE an sich und die Perspektiven dieser Technologie für den Eventbereich beleuchten – und das auch sehr bald.
Viele Grüße
Alexander Heber
Leider gibt es nichts zu SDVoE.
Seltsam.
Hallo Matthias,
danke für dein Feedback.
Wie eingangs erwähnt, stammt der Großteil der ausgewählten Produkte aus dem Kontext der NABShow. SDVoE ist im Broadcastbereich nicht etabliert – man kann fast sagen „nicht existent“. Allmählich bewegt sich SDVoE aus dem Installationsbereich in den mobilen Eventsektor, wie man u.a. an den „rugged“ Produkten von ZeeVee und den SDVoE-Karten für Analog Way LivePremiere erkennen kann. Wir haben die Technologie im Blick und werden uns Anwendungen, Produkten und Grundlagen widmen. Aktuell ist uns aber zum Beispiel kein Videomischer, keine Playbacksoftware und nur ein Recorder bekannt, der mit dieser Technologie arbeitet. Deshalb werden wir zuerst SDVoE an sich und die Perspektiven dieser Technologie für den Eventbereich beleuchten – und das auch sehr bald.
Viele Grüße
Alexander Heber