Die olympischen Sommerspiele 2021 stehen kurz bevor, und für uns bei RTW ist es natürlich besonders interessant zu sehen, wie Audio produziert und wie es von den Spielen an die Broadcaster in der ganzen Welt verteilt wird. Nicht zuletzt ist es wichtig für uns herauszufinden, wie wir dazu beitragen können, die Audio-Qualität sowohl während der Produktion als auch bei der Übertragung sicherzustellen.
|
Melden Sie sich jetzt an und lassen Sie sich |
|
In der Praxis
Die Technologie ist die eine Sache, wie es in der Praxis eingesetzt wird ist die andere. Bei Diskussionen mit zahlreichen TV-Sport-Kanälen haben wir festgestellt, dass 16-Kanal Audio das gebräuchlichste Format für Übertragungen im Sport im Allgemeinen ist, und auch das Format, das OBS (Olympic Broadcasting Service) bei den Sommerspielen 2021 verwenden wird. OBS ist die Organisation, die verantwortlich ist für die Produktion der offiziellen Audio- und Video-Beiträge von den Spielen, Live-TV-, Radio- oder digitale Berichterstattung.
Alle Audio-Beiträge bei den Sommerspielen 2021 werden mit 16 Audio-Kanälen produziert, und das relativ neue Dolby® Atmos™-Format bildet die Grundlage dafür, wie diese 16 Kanäle angeordnet werden. Obwohl bekanntermaßen Metadaten Teil von Dolby® Atmos™ sind, wird OBS keine Metadaten liefern, denn sie werden immersives diskretes Audio übertragen.
Audio-Kanal-Layout
Obwohl der gesamte Ton in einem immersiven Audio-Format produziert wird, können Broadcaster Kanal-Layouts von Stereo bis hin zu 5.1.4 mit zusätzlichen Objekten beziehen. An dieser Stelle möchte ich näher auf die verwendeten Formate eingehen.
Zwei immersive Kanal-Layouts werden im Spiel sein. Beide basieren auf dem herkömmlichen 5.1.4-Main- und Upper-Bed-Layout, unterscheiden sich aber im Hinblick auf Stereo-Kanäle und die Anzahl der Objekte.
Das erste Layout hat zwei Stereo-Paare und zwei Audio-Objekte:
Das andere Layout hat nur ein Stereo-Paar, dafür aber 4 Objekte:
Inhalt
Das 5.1-Main-Bed ist eine Ebene im herkömmlichen 5.1-Surround-Format, die keine Metadaten enthält. Auch wenn es keine Metadaten gibt, kann natürlich das normale Panning erfolgen, allerdings wird das Panning wahrscheinlich statisch sein.
Das Upper-Bed repräsentiert vier an der Decke montierte und nach unten geneigte Lautsprecher. Auch hier gibt es keine Metadaten, und höchstwahrscheinlich statisches Panning.
Das 5.1.4-Format wird einen üblichen Mix der Atmosphäre z. B. eines Fußballstadions enthalten.
Die Stereo-Kanäle könnten z. B. die gleiche Atmosphäre in Stereo enthalten.
Die Objekte können so einfache Dinge sein wie statische internationale Kommentare oder anderer statischer Ton. Wie bereits erwähnt, enthalten die Übertragungen von den Sommerspielen keine dynamischen Metadaten, obwohl das Dolby® Atmos™-Format diese unterstützen.
Es gibt zahlreiche internationale Standards zur Audio-Messung von Stereo- und Surround-Formaten, und Sie werden sich fragen, ob es auch einen für Immersive Audio gibt.
Die Antwort ist Ja. ITU 1770 in der neuesten Version 4 (ITU-R BS.1770-4) deckt die gängigsten Konfigurationen und Bewertungsfaktoren für Audio-Messungen bis zu 22.2 ab.
NHK 22.2
Neben dem bereits besprochenen 16-Kanal immersiven Audio-Format wird NHK, der wichtigste japanische Broadcaster, zusätzlich ein Format mit 24 Kanälen übertragen: 22.2.
22.2 ist die Surround-Sound-Komponente des neuen TV-Standards Super Hi-Vision. Es wurde von der wissenschaftlichen und technischen Forschungsabteilung des NHK entwickelt und verwendet 24 Lautsprecher inklusive zweier Subwoofer, angeordnet in drei Ebenen plus LFE: Obere Ebene: 9 Kanäle, mittlere Ebene: 10 Kanäle, untere Ebene: 3 Kanäle und 2 LFE-Kanäle.
Super Hi-Vision wird nur von wenigen Standorten und zur begrenzten Verteilung produziert.
Mit seiner einfachen und flexiblen Benutzeroberfläche und der Möglichkeit, bis zu 32 Audio-Kanäle gleichzeitig überwachen zu können, ist der TouchMonitor bestens für die Überwachung von immersiven Audio-Streams geeignet. Mit der Auswahl an Formfaktoren erweist er sich als nützlich sowohl für Toningenieure in der Produktion als auch für die nachfolgenden Arbeitsschritte.
In meinem nächsten Blog-Beitrag werde ich erörtern, welche Teile eines immersiven Audio-Signals überwacht werden müssen, wie sie überwacht werden sollten und wie der TouchMonitor für diese Aufgabe eingerichtet wird.
Dolby® Atmos™
Für diejenigen von Ihnen, für die dieser Begriff noch Neuland ist, eine kurze Erläuterung: Dolby® Atmos™ ist die Bezeichnung für eine Surround-Sound-Technologie, die von den Dolby Laboratories entwickelt wurde und bis zu 128 Audio-Kanäle unterstützt.
Über die eigentlichen Audio-Kanäle hinaus erlaubt es Dolby® Atmos™ den Audio-Ingenieuren, Metadaten mit räumlichen Audiobeschreibungen den Audio-Kanälen zuzuordnen.
Ein Audio-Kanal mit Metadaten wird als Audio-Objekt bezeichnet.
MPEG-H
Das MPEG-H 3D-Audio-System wurde von Fraunhofer auf Basis des Standards MPEG der ISO/IEC Moving Pictures Experts Group entwickelt, um Audio als Audio-Kanäle, Audio-Objekte oder übergeordnete sogenannte Ambisonics (HOA - Higher Order Ambisonics) zu codieren.
MPEG-H 3D-Audio unterstützt bis zu 64 Lautsprecher-Kanäle und 128 Codec-Kernkanäle (codec core channels).
Kanäle, Objekte und HOA-Komponenten können sowohl zur Übertragung von immersivem Sound als auch für Mono, Stereo oder Surround-Sound verwendet werden. Der MPEG-H 3D-Audio-Decoder gibt den Datenstrom auf verschiedenen herkömmlichen Lautsprecher-Konfigurationen oder auf deplazierten Lautsprechern wieder.
Die binaurale Sound-Wiedergabe auf Kopfhörern wird ebenfalls unterstützt. Objekte können alleine oder in Kombination mit Kanälen oder HOA-Komponenten verwendet werden.
Der Einsatz von Audio-Objekten ermöglicht durch Anpassung der Verstärkung oder Position der Objekte bei der Wiedergabe mit dem MPEG-H-Decoder die Personalisierung oder Interaktivität mit dem Programm.
Hinweis: Wegen der Verschiebung der Sommerspiele 2020 auf 2021 haben wir dementsprechend das Jahr in diesem Artikel angepasst.
|
Melden Sie sich jetzt an und lassen Sie sich |
|