{"id":4413,"date":"2019-04-23T11:00:02","date_gmt":"2019-04-23T09:00:02","guid":{"rendered":"https:\/\/websites.fraunhofer.de\/audioblog\/?p=4413"},"modified":"2020-01-03T16:14:49","modified_gmt":"2020-01-03T14:14:49","slug":"awards-fraunhoferiis-aes146","status":"publish","type":"post","link":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/awards-fraunhoferiis-aes146","title":{"rendered":"Preisgekr\u00f6nte Fraunhofer IIS-Wissenschaftler"},"content":{"rendered":"<p><strong>Bei der letzten AES-Konferenz in Dublin (Irland) gingen gleich zwei Auszeichnungen an Wissenschaftler des Fraunhofer IIS: Christian Uhle wurde f\u00fcr seine Verdienste als Co-Vorsitzender bei der <\/strong><a href=\"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/aes-conference-semantic-audio\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>2017 International AES Conference on Semantic Audio<\/strong><\/a><strong> der AES Board of Governors Award verliehen; den Preis f\u00fcr das beste Paper erhielten Matteo Torcoli, Jouni Paulus und Christian Simon f\u00fcr ihre Studie \u201c<\/strong><a href=\"http:\/\/www.aes.org\/e-lib\/browse.cfm?elib=20308\" target=\"_blank\" rel=\"noopener noreferrer\"><strong>Background Ducking to Produce Esthetically Pleasing Audio for TV with Clear Speech<\/strong><\/a><strong>\u201d, die sie zusammen mit Alex Freke-Morin und Professor Ben Shirley von der University of Salford (Gro\u00dfbritannien) erarbeitet haben.<\/strong><\/p>\n<p><!--more--><\/p>\n<p>Das Paper besch\u00e4ftigt sich mit dem bekannten Problem schwer verst\u00e4ndlicher Sprache in Fernsehsendungen, wenn der Hintergrund im Verh\u00e4ltnis zu Dialog oder Kommentator zu laut ist. Das Dilemma: Musik und Effekte sind zwar wichtig f\u00fcr das Gesamtbild und den Genuss einer Fernsehsendung, sie k\u00f6nnen Sprache aber eben auch \u00fcbert\u00f6nen und es f\u00fcr die Zuschauer sehr m\u00fchsam \u2013 oder gar fast unm\u00f6glich \u2013 machen, alles zu verstehen.<\/p>\n<p>Next Generation Audio-Systeme wie <a href=\"https:\/\/www.iis.fraunhofer.de\/de\/ff\/amm\/prod\/digirundfunk\/digirundf\/tvaudio.html\" target=\"_blank\" rel=\"noopener noreferrer\">MPEG-H Audio<\/a> k\u00f6nnen mithilfe von Audio-Objekten dieses Problem l\u00f6sen: diese er\u00f6ffnen den Zuschauern die M\u00f6glichkeit, die Dialog-Lautst\u00e4rke an ihre Bed\u00fcrfnisse anzupassen. Dennoch braucht es immer noch eine Standard-Mischung, und diese soll so viele Zuh\u00f6rer wie m\u00f6glich zufriedenstellen.<\/p>\n<p>Um die Verst\u00e4ndlichkeit von Sprache in Standard-Mischungen zu verbessern und gleichzeitig eine gut klingende Mischung anzubieten, k\u00f6nnen Produzenten auf das sogenannte \u201eBackground Ducking\u201c zur\u00fcckgreifen. Die Autoren des Papers definieren Ducking als \u201ejedwede zeitlich variable Abschw\u00e4chung des Hintergrunds, mit dem Ziel, die Sprache im Vordergrund klarer verst\u00e4ndlich zu machen.\u201c Technische Details und Best Practice-Beispiele f\u00fcr gut abgestimmtes Ducking sind bisher allerdings weder in Mixing-Handb\u00fcchern noch in Empfehlungen der Rundfunkanstalten dokumentiert worden \u2013 meist gab die vorhandene Literatur lediglich den Tipp, dass Sprache im Vordergrund \u201everst\u00e4ndlich\u201c und \u201eklar\u201c sein soll. Insbesondere da das Fernsehpublikum immer \u00e4lter wird und Barrierefreiheit dadurch einen immer h\u00f6heren Stellenwert einnimmt, war es f\u00fcr die Autoren des Papers h\u00f6chste Zeit, diese Situation zu \u00e4ndern. Und so kam es zur ersten Studie \u00fcber gew\u00fcnschte Lautheitsunterschiede (loudness differences, LD) beim Ducking.<\/p>\n<p>Fr\u00fchere Arbeiten haben sich lediglich mit einem statischen Hintergrund-Level besch\u00e4ftigt, nicht aber mit Ducking. Dieses Paper analysiert daher zun\u00e4chst gebr\u00e4uchliche Ducking-Methoden aus einer Stichprobe mehrerer TV-Dokumentationen, und dann die Ergebnisse eines subjektiven Tests, den Alex Freke-Morin im Rahmen seiner Abschlussarbeit am Fraunhofer IIS durchgef\u00fchrt hat. Hier wurden die Vorlieben von 22 Probanden mit normalem Geh\u00f6r (elf davon Experten, z.B. Toningenieure) betreffend der Lautheitsunterschiede zwischen Sprache und Hintergrund beim Ducking untersucht. Au\u00dferdem wurden Arbeiten, die sich mit \u00e4hnlichen Themen besch\u00e4ftigen, analysiert und mit den eigenen Ergebnissen verglichen.<\/p>\n<p>Eines der hervorstechendsten Ergebnisse des Tests zeigt, dass ein signifikanter Unterschied zwischen den Pr\u00e4ferenzen der Experten und Nicht-Experten besteht. Im Durchschnitt bevorzugen die Nicht-Experten Lautheitsunterschiede, die vier LU (loudness units) h\u00f6her liegen als die pr\u00e4ferierten Werte der Experten \u2013 letztere produzieren bekanntlich die Audiomixes. Auf diesen Resultaten aufbauend empfehlen die Autoren f\u00fcr einen \u00e4sthetisch zufriedenstellenden Standard-Mix mit gleichzeitig klarer Sprache einen Lautheitsunterschied von mindestens 10 LU wenn Musik den Hintergrund bildet, und 15 LU f\u00fcr mit Atmosph\u00e4re unterlegtem Kommentar.<\/p>\n<p>\u201cEs gibt so viele Beispiele im TV, die unter diesen Werten bleiben und bei denen darum der Hintergrund sehr laut ist. Das mag zwar wirklich toll gemacht und unterhaltsam sein, aber es ist dann keine \u00dcberraschung, wenn die Verst\u00e4ndlichkeit nach unten geht. Ein lauter Hintergrund aus k\u00fcnstlerischen Gr\u00fcnden ist absolut in Ordnung, aber Toningenieure m\u00fcssen sich dar\u00fcber im Klaren sein, dass sie damit einen Teil der Zuschauer verlieren k\u00f6nnen \u2013 au\u00dfer diese nutzen zuhause die MPEG-H-Technologie\u201c, schlussfolgert Autor Matteo Torcoli.<\/p>\n<p><a href=\"http:\/\/www.aes.org\/e-lib\/browse.cfm?elib=20308\" target=\"_blank\" rel=\"noopener noreferrer\">Das ausgezeichnete Paper ist als \u201eOpen Access\u201c-Dokument in der AES e-Bibliothek verf\u00fcgbar.<\/a><\/p>\n<p>Titelbild \u00a9 Manuela Wamser &#8211; Fraunhofer IIS<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Bei der letzten AES-Konferenz in Dublin (Irland) gingen gleich zwei Auszeichnungen an Wissenschaftler des Fraunhofer IIS: Christian Uhle wurde f\u00fcr seine Verdienste als Co-Vorsitzender bei der 2017 International AES Conference on Semantic Audio der AES Board of Governors Award verliehen; den Preis f\u00fcr das beste Paper erhielten Matteo Torcoli, Jouni Paulus und Christian Simon f\u00fcr [&hellip;]<\/p>\n","protected":false},"author":14,"featured_media":4274,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[106,116],"tags":[476,304],"class_list":["post-4413","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-forschung","category-menschen","tag-accessibility-de","tag-aes-de"],"_links":{"self":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts\/4413"}],"collection":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/users\/14"}],"replies":[{"embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/comments?post=4413"}],"version-history":[{"count":3,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts\/4413\/revisions"}],"predecessor-version":[{"id":5106,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts\/4413\/revisions\/5106"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/media\/4274"}],"wp:attachment":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/media?parent=4413"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/categories?post=4413"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/tags?post=4413"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}