Live und objektbasiert 3D-Sound gestalten mit dem Fraunhofer Immersive Panner

Das Fraunhofer IDMT und das Fraunhofer IIS haben den Fraunhofer Immersive Panner entwickelt. Damit sind 3D-Audioproduktionen für Liveanwendungen mit herkömmlichen Produktionswerkzeugen möglich

Für die Live-Produktion von Audioinhalten, sei es für Rundfunk oder Streaming, benötigt man nicht nur spezielles Know-How, sondern auch absolut zuverlässiges und störungsfreies Equipment. Doch nicht jede Audiokonsole in der Liveproduktion verfügt schon über einen für 3D-Audioproduktionen erforderlichen 3D-Panner. Um nun auch Produktionshäusern, die mit Konsolen für Stereo- oder 5.1-Surround Produktionen ausgestattet sind, die Gestaltung von 3D-Audio zu ermöglichen, haben das Fraunhofer-Institut für Integrierte Schaltungen IIS und das Fraunhofer-Institut für Digitale Medientechnologie IDMT den Fraunhofer Immersive Panner (FIP) entwickelt. Basierend auf der bewährten SpatialSound Wave Technologie des Fraunhofer IDMT, die sich auf die Produktion und Wiedergabe von objektbasierten Klanginstallationen für Theater und Entertainment fokussiert, wurde das System von Fraunhofer IIS und IDMT an die Anwendung für den Live-Rundfunk angepasst. Hierfür wurden speziell Änderungen an der Benutzeroberfläche vorgenommen und Schnittstellen zu gängiger Produktionsinfrastruktur hinzugefügt.

Die flexible und modulare Lösung

Der FIP besteht aus einer flexiblen Hardwarelösung mit vielseitigen Möglichkeiten für Audioschnittstellen, sei es MADI oder Audio over IP (AoIP). Er ermöglicht das dreidimensionale Panning von bis zu 64 Audioobjekten und ein Rendering auf bis zu 32 Ausgangskanäle. Die gepannten Audiosobjekte können sowohl für immersive Lautsprechersysteme als auch binaural für Stereokopfhörer gerendert werden. Im 3D-Panner lässt sich eine Vielzahl von Lautsprecher-Setups erstellen. Hierfür stehen Presets zur Verfügung, die auch beliebig angepasst werden können. Dabei bietet der FIP die Möglichkeit, neben klassischem 5.1 auch 3D-Audio Formate wie 5.1+2H, 5.1+4H oder 22.2 in der Liveproduktion zu erstellen. Erweiterte Einstellmöglichkeiten wie adaptives Bassmanagement oder individuelle Limiter für Ausgangskanäle erlauben es, in Echtzeit eine 3D-Audio-Mischung zu erzeugen. Die browserbasierte, intuitiv gestaltete Bedienoberfläche ist plattformunabhängig und lässt sich dank des modularen Aufbaus flexibel an individuelle Bedürfnisse und spezielle Produktionssituationen anpassen. Das Endgerät zur Bedienung ist frei wählbar. Greift man zum Beispiel über ein Tablet auf den FIP zu, erhält man eine Bedienoberfläche mit Multi-Touch-Funktionalität. Der FIP kann über IP und Webinterface remote bedient werden. So können mehrere Personen gleichzeitig von überall auf der Welt an einer gemeinsamen immersiven Mischung arbeiten. Gerade in Zeiten von Corona und dem Trend zu Remote-Produktionen kann das Mischen von einem beliebigen Ort aus zur personellen Entzerrung vor Ort beitragen und zudem das Reisebudget schonen.

Einfache Bedienung und optimale Anpassung

In Kombination mit einer MPEG-H-Audio Authoring and Monitoring Unit kann aus dem 3D-Klang eine vollständige, objektbasierte und interaktive MPEG-H-Audioszene definiert werden. Auf dem Nutzerinterface wird der dreidimensionale Raum aus der Perspektive der Produzierenden definiert. Darin werden einzelne Audioobjekte angelegt und positioniert. Den einzelnen Objekten oder Gruppen können Klangeigenschaften ebenso wie individuelle Icons und Farben zugewiesen werden. So behält man auch bei komplexen Produktionen einfach den Überblick über einzelne Akteure oder Gruppen. Alle Einstellungen können im Vorfeld einer Produktion erstellt, gespeichert und aufgerufen werden. Während der Liveübertragung können die Audioobjekte im 3D-Raum verschoben und über ein innovatives Panningkonzept positioniert werden. Damit kann beispielsweise durch das Nachverfolgen der Bühnendynamik ein höchst realitätsnahes Hörerlebnis entstehen. Für die besonders nutzerfreundliche Bedienung lassen sich dabei bestimmte Parameter fixieren, zum Beispiel die Entfernung eines Audioobjekts vom Boden. So wird mit dem FIP die intuitive Produktion von 3D-Audioinhalten mit bestehenden Infrastrukturen ermöglicht.

Titelbild: ©lisegagne – stock.adobe.com; Fraunhofer IIS

This post is also available in: English 汉语