Zum Hauptinhalt springen

Optimale Sprachverständlichkeit und personalisierter Klang

Pin It

»Speech Intelligibility Meter«, Klangoptimierung und AES67 auf DSP auf der
NAMM 2026
In Film-, Fernseh-, Streaming- oder Live-Produktionen ist die
Gewährleistung einer guten Sprachverständlichkeit eine der größten
Herausforderungen für professionelle Tonschaffende. Vom Fraunhofer IDMT in
Oldenburg entwickelte Algorithmen analysieren die Höranstrengung in
Echtzeit und geben Anpassungsempfehlungen.

Darüber hinaus ermöglicht der
digitale Assistent »YourSound« Nutzenden von Audiogeräten und
Infotainmentsystemen, den Klang spielerisch an ihre persönlichen Vorlieben
anzupassen. Zusätzlich bringt das Fraunhofer IDMT AES67 auf DSP-Hardware
für Audio over IP.

Besuchen Sie uns während der NAMM Show in Anaheim, USA, vom 22.-24. Januar
2026 an unserem Stand Nr. 14916/5 (Deutscher Pavillon) oder auf unserer
Website www.idmt.fraunhofer.de/hsa.

Unklare Dialoge in einer Fernsehserie, zu laute Hintergrundmusik in
Reality-TV-Sendungen oder ein Sportinterview, das von Jubelrufen des
Publikums überlagert wird, können das Medienerlebnis für die Zuschauenden
beeinträchtigen. Bei der Medienproduktion werden technische Messgeräte
eingesetzt, um Pegel und Lautstärke zu überprüfen. Eine objektive Messung
der Sprachverständlichkeit muss noch etabliert werden.

Produktionsfachleute in den Bereichen Radio, Fernsehen und Streaming
sollten mit einem Tool sicherstellen können, dass Dialoge für das Publikum
stets klar verständlich sind. Daher hat das Fraunhofer IDMT-HSA in
Oldenburg das »Listening Effort Meter« (LE-Meter) zur objektiven Bewertung
der Sprachverständlichkeit entwickelt. Die Technologie ist als Lizenz
verfügbar und wird von verschiedenen Marktteilnehmenden eingesetzt.

Die Sprachverständlichkeitsmessung wurde bereits in
Postproduktionssoftware integriert und als Plug-in realisiert. Zu diesem
Zweck hat sich das Fraunhofer IDMT-HSA auch mit einer führenden Streaming-
Plattform zusammengetan, um die optimale Lösung für die Postproduktion auf
den Markt zu bringen. Technisch basiert die Messung auf KI-Algorithmen und
wurde in den letzten Jahren umfangreich evaluiert. Über die Messung der
Sprachverständlichkeit hinaus sind noch weitere Funktionalitäten denkbar,
wie zum Beispiel das automatische Markieren kritischer Bereiche direkt in
der Timeline oder eine automatisierte Verbesserung der
Sprachverständlichkeit.

YourSound: Ein virtueller Assistent, mit dem Hörende den Klang an ihre
Vorlieben anpassen können

Forschende des Fraunhofer IDMT-HSA haben eine einfache und elegante
Möglichkeit gefunden, Klang und Dynamik in einer Vielzahl von Anwendungen
zu personalisieren. Die »YourSound«-Technologie wurde bereits in
Kopfhörersoftware und ein Multimedia-System für Fahrzeuge implementiert.
Die entwickelte Audiosoftware ermöglicht individuelle Klangeinstellungen,
ohne dass sich Anwenderinnen und Anwender mit komplexen Sub-Menüs oder
Parametern auseinandersetzen müssen. Nutzende von Audiogeräten, z. B.
Multimedia-Plattformen oder Smartphones, können den Klang spielerisch an
ihre persönlichen Bedürfnisse und Vorlieben anpassen.

Die Technologie setzt auf eine Präsentation von Musikbeispielen, die
Anwendende über eine einfache Benutzeroberfläche nach ihren Vorlieben
anpassen können. Einmal eingestellt, wirken sich die individuellen Presets
positiv auf den Gesamtklang aus. Dies kann zu einem besseren Hörerlebnis
führen, unabhängig von der Lautstärke. Dank der neuen Algorithmen des
Fraunhofer IDMT-HSA wird der Klang von Musik und Filmen somit an die
individuellen Hörvorlieben angepasst.

Audio over IP: Fraunhofer IDMT bringt AES67 auf DSP-Hardware

Mit der Kopfhörerverstärker-Demo »Minikraken« des Fraunhofer IDMT kann
Mehrkanal-Audio über normale Netzwerk-Switches statt über herkömmliche
Audiokabel geroutet, verteilt und aufgenommen werden. Auf kostengünstiger
DSP-Hardware hat das Fraunhofer IDMT-HSA einen voll funktionsfähigen
Software-Stack auf Basis des AES67-Standards entwickelt, der in
verschiedenen Audioanwendungen eingesetzt werden kann. AES67 ist ein
offener Interoperabilitätsstandard der Audio Engineering Society (AES) für
professionelles Audio over IP (AoIP), der verschiedene proprietäre
Audionetzwerksysteme (wie Dante, RAVENNA, Livewire) miteinander verbinden
soll. Der DSP kann mindestens 16 Ein- und Ausgangskanäle verarbeiten.
Zusätzliche Signalverarbeitung auf dem DSP kann hinzugefügt werden. Je
nach Konfiguration und Netzwerkarchitektur liegt die Latenz zwischen 0,75
und 5 ms. Eine minimalistische Webanwendung und Discovery-Implementierung
ermöglicht es Nutzenden, andere Geräte im Netzwerk zu finden und sich mit
ihnen zu verbinden oder Konfigurationen vorzunehmen.

Hör-, Sprach- und Audiotechnologie HSA am Fraunhofer-Institut für
Digitale Medientechnologie IDMT in Oldenburg

Der im Jahre 2008 unter der Leitung von Prof. Dr. Dr. Birger Kollmeier und
Dr. Jens-E. Appell gegründete Institutsteil Hör-, Sprach- und
Audiotechnologie HSA des Fraunhofer-Instituts für Digitale
Medientechnologie IDMT steht für marktnahe Forschung und Entwicklung mit
Schwerpunkten auf
-       Sprach- und Ereigniserkennung
-       Klangqualität und Sprachverständlichkeit sowie
-       Mobile Neurotechnologie und Systeme für eine vernetzte
Gesundheitsversorgung.
Mit eigener Kompetenz in der Entwicklung von Hard- und Softwaresystemen
für Audiosystemtechnologie und Signalverbesserung setzen die
Mitarbeitenden am Standort Oldenburg wissenschaftliche Erkenntnisse in
kundengerechte, praxisnahe Lösungen um.
Über wissenschaftliche Kooperationen ist der Institutsteil eng mit der
Carl von Ossietzky Universität, der Jade Hochschule und der Hochschule
Emden/Leer verbunden. Das Fraunhofer IDMT ist Partner im Exzellenzcluster
»Hearing4all« und im Sonderforschungsbereich »Hörakustik«.

Weitere Informationen auf www.idmt.fraunhofer.de/hsa