{"id":7831,"date":"2022-08-24T11:48:17","date_gmt":"2022-08-24T09:48:17","guid":{"rendered":"https:\/\/www.audioblog.iis.fraunhofer.com\/?p=7831"},"modified":"2022-11-02T11:51:55","modified_gmt":"2022-11-02T09:51:55","slug":"das-internet-der-klaenge-schaffen","status":"publish","type":"post","link":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/das-internet-der-klaenge-schaffen","title":{"rendered":"Die International Audio Laboratories Erlangen \u2013 Projects and People"},"content":{"rendered":"<p><strong>Teil III: Das Internet der Kl\u00e4nge schaffen<\/strong><!--more--><\/p>\n<p>Seit Juni 2020 ist Dr. Nils Peters Associate Professor an den International Audio Laboratories Erlangen. Seine Gruppe forscht zu \u201eAudio Signal Processing for the Internet of Things\u201c (Audiosignalverarbeitung f\u00fcr das Internet der Dinge).<\/p>\n<p>Bis zum Jahr 2030 sollen mehr als 25 Mrd. Ger\u00e4te miteinander kommunizieren und Informationen austauschen k\u00f6nnen. F\u00fcr Nils Peters ist klar, dass sich das Internet der Dinge (Internet of Things, IoT) auf immer mehr Anwendungsbereiche erstrecken wird. Deswegen erforscht er zusammen mit den Experten vom Fraunhofer IIS die M\u00f6glichkeiten, die Audioanwendungen er\u00f6ffnen. Damit liegt sein Schwerpunkt auf dem Internet der Kl\u00e4nge (Internet of Sound, IoS).<\/p>\n<p>Vernetzte Ger\u00e4te bieten zahlreiche M\u00f6glichkeiten \u2013 beispielsweise im Bereich der Musik: Bandmitglieder k\u00f6nnen ihre Songs proben, selbst wenn sie sich nicht treffen k\u00f6nnen. Bei virtuellen Konzerten kann die Stimmung des Publikums wahr- und aufgenommen werden. Echtzeit-Feedback erlaubt es den K\u00fcnstlern dann, ihr Programm der wechselnden Stimmung anzupassen. Zu weiteren Anwendungsbereichen geh\u00f6ren Musikproduktion und Musikunterricht. In Zukunft sollen Apps und smarte Musikinstrumente es m\u00f6glich machen, Fehler w\u00e4hrend der Proben genauestens zu analysieren und dadurch besser zu werden. Die Forschenden am Fraunhofer IIS und an den AudioLabs wissen, dass f\u00fcr diese Anwendungen eine hohe Audioqualit\u00e4t und geringe Latenz erforderlich sind, denn nur so kann man sie optimal auf individuelle Bed\u00fcrfnisse abstimmen.<\/p>\n<p>Das IoS \u00fcbertr\u00e4gt Kl\u00e4nge und damit assoziierte Daten, die von Menschen und Maschinen erzeugt und wahrgenommen werden. Hier interessiert Professor Peters sich gleich f\u00fcr mehrere Bereiche, n\u00e4mlich Datensicherheit und Datenschutz, effiziente Algorithmen f\u00fcr kleine Edge-Ger\u00e4te und verteilte Algorithmen f\u00fcr verschiedene Arten von Ger\u00e4ten, die in und mit der Cloud arbeiten. Hierzu geh\u00f6ren Sensornetzwerke wie etwa Mikrofon-Arrays, mit denen sich Kl\u00e4nge pr\u00e4zise wahrnehmen und orten lassen. Da viele Ger\u00e4te, zum Beispiel Smartphones, bereits Audio aufnehmen und abspielen k\u00f6nnen, greift man zur Einrichtung von IoS-Netzwerken gern auf sie zur\u00fcck. Die Nutzung dieser nahezu \u00fcberall verwendeten Ger\u00e4te ist auch deswegen sinnvoll, da sie vergleichsweise kosteng\u00fcnstig sind: Mikrofone sind g\u00fcnstiger in der Herstellung und im Betrieb als andere Sensoren, wie zum Beispiel Kameras.<\/p>\n<p>Es ist keine einfache Aufgabe, eine leistungsf\u00e4hige verteilte Mikrofon-Array-Infrastruktur zu entwickeln. Auch das Verkn\u00fcpfen verschiedener Ger\u00e4tetypen zu einem Netzwerk und der schnelle, effiziente Austausch von relevanten akustischen Daten darin ist eine gr\u00f6\u00dfere Herausforderung. Ein Smartphone k\u00f6nnte die Verarbeitung einer komplexen Aufgabe an ein nahegelegenes Rechenzentrum delegieren und das Ergebnis in k\u00fcrzester Zeit empfangen. Das w\u00e4re ziemlich praktisch\u00a0\u2014 doch w\u00e4re es auch sicher? Je komplexer die Netzwerke und je verteilter die Rechenleistung, desto schwieriger wird es, Datenschutz und Sicherheit zu gew\u00e4hrleisten.<\/p>\n<p>Das IoS h\u00e4lt offensichtlich viele Chancen und offene Fragen f\u00fcr die Forschung bereit, denen Professor Peters mit seinem Team auf den Grund geht. Er hatte schon immer Gefallen daran, sich mit komplexen, interdisziplin\u00e4ren Themen zu befassen. Zu seinen in \u00d6sterreich, Kanada und den USA gesammelten Erfahrungen und Kenntnissen geh\u00f6ren Raumakustik, Psychoakustik, Signalverarbeitung und maschinelles Lernen. An der Universit\u00e4t f\u00fcr Musik und darstellende Kunst Graz und der Technischen Universit\u00e4t Graz erwarb er seinen Master of Science in der Elektrotechnik und Tontechnik. Er promovierte an der McGill University in Montreal im Fach Musiktechnologie, wo er unter der Leitung von Prof. Stephen McAdams im Music Perception and Cognition Lab (MPCL) akustische Raumwahrnehmung studierte und r\u00e4umliche Audiowiedergabe-Tools entwickelte, um das H\u00f6rerlebnis des Publikums zu optimieren. Anschlie\u00dfend forschte er als Postdoktorand am International Computer Science Institute (ICSI), dem Center for New Music and Audio Technologies (CNMAT) und dem Parallel Computing Laboratory an der University of California, Berkeley. Sein Schwerpunkt lag auf den technischen M\u00f6glichkeiten und Anwendungen der Mehrkanal-Audioverarbeitung f\u00fcr ein Mikrofon-Array mit 144 Kan\u00e4len. Bevor er zu den AudioLabs kam, arbeitete Professor Peters f\u00fcr Qualcomm, Inc. in San Diego und entwickelte Algorithmen f\u00fcr die Analyse r\u00e4umlicher Audioszenen und die 3D-Audiocodierung. Einige dieser Algorithmen wurden in den ISO-Standard MPEG-H 3D Audio integriert.<\/p>\n<p>Nils Peters gibt sein umfangreiches internationales und interdisziplin\u00e4res Fachwissen gerne weiter und motiviert Studierende dazu, die Audiosignalverarbeitung durch eine wissenschaftliche und kreative Brille zu betrachten. Seit 2013 ist er Co-Vorsitzender des Spatial Audio Technical Committee der Audio Engineering Society (AES). Er hat bei der Gr\u00fcndung der AES Student Section Erlangen-N\u00fcrnberg mitgeholfen und ist nun deren Fakult\u00e4tsberater.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Teil III: Das Internet der Kl\u00e4nge schaffen<\/p>\n","protected":false},"author":2,"featured_media":7647,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[106,116],"tags":[367],"class_list":["post-7831","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-forschung","category-menschen","tag-audiolabs-de"],"_links":{"self":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts\/7831"}],"collection":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/comments?post=7831"}],"version-history":[{"count":3,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts\/7831\/revisions"}],"predecessor-version":[{"id":7834,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/posts\/7831\/revisions\/7834"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/media\/7647"}],"wp:attachment":[{"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/media?parent=7831"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/categories?post=7831"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.audioblog.iis.fraunhofer.com\/de\/wp-json\/wp\/v2\/tags?post=7831"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}