{"id":7151,"date":"2021-12-13T15:07:43","date_gmt":"2021-12-13T13:07:43","guid":{"rendered":"https:\/\/websites.fraunhofer.de\/audioblog\/?p=7151"},"modified":"2021-12-13T15:11:18","modified_gmt":"2021-12-13T13:11:18","slug":"qoevave","status":"publish","type":"post","link":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/qoevave","title":{"rendered":"Willkommen im virtuellen Labor"},"content":{"rendered":"<p><strong>Realistische virtuelle Umgebungen machen die Optimierung von Experimenten in vielen Wissenschaftsbereichen m\u00f6glich.<\/strong><!--more--><\/p>\n<p>Noch lange sind nicht alle Abl\u00e4ufe in der hochkomplexen \u201cMaschine Mensch\u201d vollst\u00e4ndig erforscht. Vor allem die Funktionsweise von Gehirn und Sinneswahrnehmungen stellt Forschende noch vor R\u00e4tsel. Erst vor Kurzem erhielten David Julius und Ardem Patapoutian den Nobelpreis f\u00fcr Medizin f\u00fcr die Entdeckung von Rezeptoren f\u00fcr Temperatur und Druck. Das zeigt, dass sogar grundlegende Funktionsweisen des menschlichen K\u00f6rpers noch nicht vollst\u00e4ndig erforscht wurden.<\/p>\n<p>Ein anderes Beispiel zeigt sich in lauten Umgebungen, etwa in einer Bahnhofshalle. Wie ist es hier m\u00f6glich, sich voll auf das Gespr\u00e4ch mit dem Gegen\u00fcber zu konzentrieren, obwohl die Ohren alle Umgebungsger\u00e4usche erfassen? Diese Frage f\u00e4llt in den Forschungsbereich \u201eAuditive Wahrnehmung\u201c, in dem die Prozesse erforscht werden, mit denen das Gehirn die Klangwelt interpretiert. Er untersucht zudem die Wahrnehmung komplexer Ger\u00e4usche (was entscheidend f\u00fcr die Verarbeitung von Sprache, Musik und Umgebungsger\u00e4uschen ist) und die daf\u00fcr verwendeten Gehirnareale. Bisher war es hierbei schwer, chaotische Umgebungen wie Bahnh\u00f6fe in einer kontrollierten Laborumgebung zu simulieren. Virtual-Reality (VR)-Technologien sind Forschenden dabei schon l\u00e4nger eine gro\u00dfe Hilfe.<\/p>\n<p>In den letzten Jahren wurden betr\u00e4chtliche Fortschritte beim Verst\u00e4ndnis auditiver kognitiver Prozesse und F\u00e4higkeiten erzielt. Dabei kamen in Experimenten einfache virtuelle Umgebungen zum Einsatz. Diese sind zwar gut kontrollierbar, aber oft unrealistisch. Die j\u00fcngsten Entwicklungen bringen VR-Technologien sehr nahe an die Realit\u00e4t heran. So k\u00f6nnen viele Einschr\u00e4nkungen fr\u00fcherer Laborumgebungen \u00fcberwunden werden. Beispielsweise tragen interaktive virtuelle Umgebungen (Interactive Virtual Environments, IVE) dazu bei, die auditive Wahrnehmung komplexer audiovisueller Situationen zu verstehen. Sie k\u00f6nnen f\u00fcr die Modellierung akustisch ung\u00fcnstiger Situationen verwendet werden; etwa f\u00fcr den eingangs geschilderten Bahnhof, aber auch f\u00fcr laute Klassenzimmer oder volle Gro\u00dfraumb\u00fcros.<\/p>\n<p><strong>Wie evaluiert man das Virtuelle?<\/strong><\/p>\n<p>Eine extrem \u00fcberzeugende virtuelle Umgebung macht die Technologie transparent und Menschen k\u00f6nnen ganz nat\u00fcrlich mit der virtuellen Welt interagieren. Doch wie bewertet man die Qualit\u00e4t von IVEs und welche Referenzgr\u00f6\u00dfen sind hierf\u00fcr relevant? In der klassischen Audio- und Videocodierung ist die Qualit\u00e4tskontrolle vergleichsweise simpel: G\u00e4ngige Praxis ist der direkte Vergleich von codierten und nicht-codierten Signalen. Dabei konzentriert man sich auf einen bestimmten Aspekt (wie Ton-oder Bildqualit\u00e4t) und schaltet zwischen Original und zu bewertendem Signal hin und her. Hierbei fallen Unterschiede schnell auf. Diese Methode ist f\u00fcr IVEs oft nicht geeignet. Da diese multimodal sind und sogar Bewegungen in der virtuellen Szene erlauben, betrachtet man automatisch mehr als einen Aspekt (Ton, Bild, Bewegung). Diese multimodale sensorische Stimulation hat signifikante Auswirkungen auf Aufmerksamkeit und Qualit\u00e4tsbewertung.<\/p>\n<p>Um solche L\u00fccken in der Methodik zu finden und zu schlie\u00dfen, wurde das von der Deutschen Forschungsgemeinschaft (DFG) gef\u00f6rderte Projekt \u201eQuality of Experience Evaluation of Interactive Virtual Environments with Audiovisual Scenes\u201c (QoEVAVE) ins Leben gerufen. Es untersucht auch, ob man aus dem Verhalten von Menschen in einem IVE auf dessen Qualit\u00e4t schlie\u00dfen kann. Das Projekt basiert auf Erkenntnissen der Quality-of-Experience (QoE)-Forschung und erweitert diese um Ans\u00e4tze aus dem VR-Bereich, um den ersten umfassenden QoE-Rahmen f\u00fcr IVEs zu entwickeln. Das Ziel ist eine integrierte Sicht auf die Wahrnehmung der IVE-Qualit\u00e4t als kognitiven Prozess und auf die kognitive Leistung bei bestimmten Aufgaben als Merkmal f\u00fcr die Qualit\u00e4t eines IVE.<\/p>\n<p><strong>Mit vereinten Kr\u00e4ften Wissenschaft vorantreiben<\/strong><\/p>\n<p>Prof. Dr. ir. Emanu\u00ebl Habets von den International Audio Laboratories (AudioLabs) Erlangen und Prof. Dr.-Ing. Alexander Raake von der TU Ilmenau leiten die Forschung im QoEVAVE Projekt. Gemeinsam erarbeiten und testen ihre Teams in einem mehrstufigen Prozess eine Methode, mit der die Qualit\u00e4t der IVE evaluiert werden kann. Diese Methode soll sowohl unimodal (es wird immer nur ein Stimulus \u2013 Audio oder Video \u2013 bewertet) als auch multimodal (es werden zwei oder mehr Stimuli zusammen bewertet) funktionieren. Der erste Schritt ist die Erarbeitung eines unimodalen Testverfahrens. Dazu wird eine 360 Grad Bild- und Tonaufnahme von einer Alltagssituation gemacht. Die Medienprofis der TU Ilmenau sind dabei f\u00fcr die Videoaufnahme zust\u00e4ndig, w\u00e4hrend sich die Audioexperten der AudioLabs um die Audioaufnahme (mit einem em32 Eigenmike) und das binaurale Rendering der Aufnahmen k\u00fcmmern. In dieser Szene k\u00f6nnen Probanden nur den Kopf bewegen (3 Degrees of Freedom, 3DoF). Durch die echte Videoaufnahme und die einschr\u00e4nkten Bewegungsm\u00f6glichkeiten k\u00f6nnen sich die Testpersonen entweder auf die Audio- oder die Videoqualit\u00e4t konzentrieren. Die letzte Projektstufe ist die Evaluierung in einer vollst\u00e4ndig virtuellen Szene, in der man sich frei bewegen kann (6 DoF). Spannend ist dabei zum Beispiel die Frage, ob die Testpersonen die gleiche Audioqualit\u00e4t in beiden Szenen unterschiedlich beurteilen. G\u00e4ngige Bewertungsmethoden, wie ein MUSHRA-Test, sind bei der Bewertung von IVEs nicht direkt anwendbar. Daher entwickeln die Forschenden aus Erlangen und Ilmenau existierende Evaluierungsplattformen weiter und passen sie an virtuelle Umgebungen an.<\/p>\n<p>QoEVAVE ist Teil des 3-j\u00e4hrigen Koordinierten DFG-Programms AUDICTIVE (Auditory Cognition in Interactive Virtual Environments, http:\/\/www.spp2236-audictive.de), das im Januar 2021 startete. AUDICTIVE bringt Forscher aus Akustik, kognitiver Psychologie und Informatik\/ Virtueller Realit\u00e4t zusammen. Ziel ist ein genaueres Verst\u00e4ndnis der auditiven Wahrnehmung mit Hilfe von interaktiven virtuellen Umgebungen. Von der gemeinsamen Entwicklung der oben geschilderten, transparenten IVEs sollen letztlich alle Disziplinen profitieren.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Realistische virtuelle Umgebungen machen die Optimierung von Experimenten in vielen Wissenschaftsbereichen m\u00f6glich.<\/p>\n","protected":false},"author":2,"featured_media":7159,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[106],"tags":[367,385],"class_list":["post-7151","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-forschung","tag-audiolabs-de","tag-vr-de"],"_links":{"self":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts\/7151"}],"collection":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/comments?post=7151"}],"version-history":[{"count":1,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts\/7151\/revisions"}],"predecessor-version":[{"id":7152,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts\/7151\/revisions\/7152"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/media\/7159"}],"wp:attachment":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/media?parent=7151"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/categories?post=7151"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/tags?post=7151"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}