RSA FG und Mozarteum luden „Music Technologists“ und MusikwissenschaftlerInnen nach St. Gilgen zu einem Kick-off-Event
Einen Überblick über die internationale digitale Musikwissenschaft und -technologie bot am 23.01.2020 die internationale Konferenz „Interactive Music Technologies“, die von der Research Studios Austria Forschungsgesellschaft (RSA FG) und der Universität Mozarteum Salzburg veranstaltet wurde.
Dabei waren führende VertreterInnen der internationalen Community der Music Technologists zu Gast – allen voran Michela Magas, die Erfinderin des Stockholmer Music Tech Fest, weiter Sergi Jorda, u.a. der Erfinder des „Reactable“ (eines interaktiven ‚musikalischen Tisches‘ zur Klangerzeugung), Maria Mannone mit ihrem „CubeHarmonic“ und Stefania Serafin. Helmi Vent, emeritierte Mozarteumsprofessorin, demonstrierte einen erfrischend-provokativen, alternativen Umgang mit Klängen und Klangerzeugern, der diese dekontextualisierte und in einen neuen Kontext setzte. Die Frage war, inwieweit auch die „Aware Systems“ des Research Studios Pervasive Computing Applications der RSA FG (Eyetracker, Sensoren u.a.) eingesetzt werden können, um körpergesteuerte (kontextgesteuerte) Musik zu produzieren.
Neben den „Music Technologists“ bot die Konferenz einen Überblick über gegenwärtige Forschungsbestrebungen, die versuchen, Musik mit neuesten Ansätzen des Deep Learning und der Künstlichen Intelligenz zu klassifizieren. Dabei sollte, worauf Petr Knoth, der neue Studio-Direktor des Research Studios Data Science der RSA FG hingewiesen hat, zwischen Music Information Retrieval (MIR) und (Automated) Music Generation unterschieden werden. „Music Generation ist nicht Information Retrieval“, sagte Knoth, der sich eine Anwendung von Big Data Science und Deep-Learning-Algorithmen zur Klassifikation und Analyse von Musik als zukünftigen Arbeitsbereich seines Studios sehr gut vorstellen kann. Einerseits könne etwa ein Open Archive von Aufführungen der Universität Mozarteum Salzburg geschaffen werden, andererseits wäre es für ihn auch denkbar, dass Data Science hilft, die MusikerInnenausbildung zu optimieren.
Peter Knees von der TU Wien sagte in seinem Vortrag, dass die Co-Creation zwischen Mensch und Maschine entscheidend sei: Das Komponieren werde also nicht alleine der Software überlassen, sondern KI kann etwa den menschlichen Komponisten dabei unterstützen, kreativer zu sein. „Co-Creation ist eine zentrale Aufgabe für alle zukünftigen KI-Systeme“, sagte Knees. Der Wissenschaftler setzt rekurrente neuronale Netzwerke (RNN) ein, um Rhythmussequenzen zu analysieren. Tillman Weyde von der City University of London demonstrierte, was Big Data-Analysen heute schon alles zu zeigen vermögen: etwa die Darstellung der quantitativen Verteilung von Jazz-, Rock- und Pop-Erscheinungen von 1950 bis heute. Ein Problem sei dabei immer der „semantic gap“, also der Unterschied zwischen der Musik selbst und ihrer Codierung im Rahmen eines Kategoriensystems.
Mit der Perspektive der MusikkonsumentInnen beschäftigte sich Hauke Egermann von der University of York in seinem Vortrag. So kann etwa eine eigene FaceReader-Software Gesichtsausdrücke beim Hören von traurigen oder fröhlichen Musikstücken messen. Eine Präsentation des Blockchain-Projekts „Bloxberg“ von Sandra Vengadasalam von den Max-Planck-Digital Labs rundete die Tagung ab.
Mozarteum-Rektorin Elisabeth Gutjahr beschäftigte sich in ihrem Einleitungsstatement mit dem Verhältnis von Künsten und (digitalen) Technologien. In ihren Diskussionsbeiträgen verwies sie auf die Vor- und Nachteile der Digitalisierung und sprach sich für klare Ziele bei Digitalisierungsstrategien aus.
Peter A. Bruck, Geschäftsführer und wissenschaftlicher Gesamtleiter der RSA FG, diskutierte mit den Vortragenden Eckpunkte einer möglichen Roadmap für Digitalprojekte in der Musikwissenschaft, die auf den Kompetenzen der Studios Pervasive Computing Applications (PCA) und Data Science (DSc) aufbauen könnte. Benedikt Gollan vom Research Studio PCA präsentierte dazu ein Fünf-Stufen-Modell der Aufmerksamkeit und Beispiele aus der industriellen Anwendung. Alois Ferscha, ebenfalls vom Research Studio PCA, spannte den historischen Bogen weit von der expliziten zur impliziten Interaktion mit Kommunikationstechnologien und zeichnete eine Parallele zur Entwicklung unserer Interaktion mit Musikinstrumenten. Am Ende seines Vortrags präsentierte er drei Musikstücke und ließ das Publikum raten, wer sie wohl komponiert hat. Schostakowitsch? Ravel? Die Antwort war zum Erstaunen des Publikums: Es war in allen drei Fällen Künstliche Intelligenz.
Auf dem Foto v.l.n.r.: Sergi Jorda, Alois Ferscha, Michela Magas, Mozarteums-Rektorin Elisabeth Gutjahr, Peter A. Bruck (Foto: Alexander Killer)
Medienberichterstattung