Forschungsberichte zum Themenschwerpunkt

Bewegungssonifikation: Psychologische Grundlagen und Auswirkungen der Verklanglichung menschlicher Handlungen in der Rehabilitation, im Sport und bei Musikaufführungen

Movement Sonification: Psychological Foundations and Effects of Sonification of Human Actions in Rehabilitation, Sports and Music

Jesper Hohagen*ab, Clemens Wöllnera

Jahrbuch Musikpsychologie, 2018, Vol. 28: Musikpsychologie — Musik und Bewegung, Artikel e36, https://doi.org/10.5964/jbdgm.2018v28.36

Eingereicht: 2018-12-21. Akzeptiert: 2019-03-31. Publiziert (VoR): 2019-05-28.

Begutachtet von: Vera Gehrs; Werner Goebl.

*Korrespondenzanschrift: Institut für Systematische Musikwissenschaft, Universität Hamburg, Neue Rabenstraße 13, 20354 Hamburg, Deutschland. E-Mail: jesper.hohagen@eh-freiburg.de

Dieser Open-Access-Artikel steht unter den Bedingungen einer Creative Commons Namensnennung 4.0 International Lizenz, CC BY 4.0 (https://creativecommons.org/licenses/by/4.0/deed.de). Diese erlaubt für beliebige Zwecke (auch kommerzielle) den Artikel zu verbreiten, in jedwedem Medium zu vervielfältigen, Abwandlungen und Bearbeitungen anzufertigen, unter der Voraussetzung, dass der Originalartikel angemessen zitiert wird.

Zusammenfassung

Im Rahmen künstlerischer Performances und wissenschaftlicher Forschung gewinnt Bewegungssonifikation als ein wichtiger Teilbereich der Sonifikationsforschung immer mehr an Bedeutung. Sonifikation beschreibt die Übertragung von Daten in Klang und stellt zugleich eine Technik dar, die Klang als Antwort auf Interaktion erzeugt. Bewegungssonifikationen sind spezifischer die Verklanglichung menschlicher Bewegungsdaten. Dabei spielt zumeist die Übertragung von kinematischen oder dynamischen Bewegungsparametern und die Erzeugung intuitiv nachvollziehbarer Bewegungsklänge eine wichtige Rolle. Zentrale psychologische Prozesse und Theorien liegen Anwendungen von Bewegungssonifikationen zu Grunde, wie z. B. die Wahrnehmungs-Handlungs-Kopplung, das Bewegungslernen oder das Embodiment. Disziplinübergreifend sind diese Theorien innerhalb der Sport- und Leistungspsychologie oder der Musikpsychologie gut erforscht, dennoch gibt es ein großes Potential, Effekte auditiven Feedbacks in Form von Bewegungssonifikationen auf grundlegende und spezifische Performance- und Wahrnehmungsprozesse zu untersuchen. Viele Studien, die Bewegungssonifikationen als wissenschaftliche Methode einsetzen, verorten sich im Rehabilitations- und Sportbereich mit dem Ziel, Erkenntnisse über Effekte des Bewegungslernens in speziellen Bewegungsaufgaben zu gewinnen. Es gibt vielversprechende Ergebnisse, die positive Effekte von Bewegungssonifikationen auf die Bewegungsrehabilitation bei Schlaganfällen bezeugen oder auf die verbesserte Gleichgewichts- und Haltungskontrolle. Des Weiteren zeigen Ergebnisse verbesserte Leistungen beim Rudern oder Laufen durch den Einsatz eines auditiven Feedbacks in Form von Bewegungssonifikationen oder natürlichen Bewegungsklängen. Im Musikbereich werden Bewegungssonifikationen oft als Augmentierung digitaler oder traditioneller Musikinstrumente eingesetzt, um zusätzliches auditives Feedback musikalischer Bewegungen als Unterstützung beim Üben des Instrumentes zu nutzen. Zudem berichten viele Tanzstudien über verschiedene Trainingsszenarien, in denen Sonifikationen von Tanzbewegungen neue künstlerische Perspektiven eröffnen und Tänzern in Form einer pädagogischen Rückmeldung helfen können. Wenige Untersuchungen in diesen Bereichen verwendeten jedoch randomisiert-kontrollierte Experimente, stattdessen finden sich zahlreiche Berichte zu Projekten, in deren Rahmen hochtechnologisierte Sonifikationssysteme und Forschungsdesigns für mögliche zukünftige Studien entwickelt wurden. Forscher nutzen Sonifikationen zumeist ohne die verwendeten Sonifikationsstrategien zu evaluieren, weder in Bezug auf Effekte unterschiedlicher Konzepte auditiven Feedbacks auf eine bestimmte Aufgabe, noch im Hinblick auf ästhetische Aspekte des Sonifikationsklanges. Das Ziel dieses Artikels ist es, eine Übersicht zu Forschungsergebnissen aus verschiedenen Anwendungsbereichen von Bewegungssonifikationen zu geben und diese im Hinblick auf beteiligte psychologische Prozesse und verwendete Sonifikationsstrategien zu diskutieren. Dieser Artikel stellt die wichtigsten Definitionen im Bereich der Bewegungssonifikation vor und beschäftigt sich mit zu Grunde liegenden psychologischen Vorgängen. Außerdem fasst er zentrale Studien von Bewegungssonifikationen in der Rehabilitation, im Sport sowie im Musikbereich zusammen und fokussiert dabei sowohl experimentelle Designs als auch Evaluationsansätze von Sonifikationsstrategien. Auf Basis bisheriger Erkenntnisse bietet der Einsatz von Bewegungssonifikationen für die musikpsychologische Forschung ein großes Potential.

Schlüsselwörter: Bewegungssonifikation, auditives Feedback, Interaktion, Wahrnehmungs-Handlungs-Kopplung, Bewegungslernen, Evaluation, Rehabilitation, Sport, Musik, Tanz

Abstract

Movement sonification, as an important field within the broader framework of sonification, is a growing research area that has a considerable impact on both artistic performances and the sciences. Sonification describes the transformation of data into sound, and is a technique of creating sound in some form of interaction design. Movement sonification can be defined as sonification of human movement data, mostly by transforming kinematic or dynamic movement parameters with the aim of creating intuitive movement sounds. There are central psychological processes underlying movement sonification applications, such as perception-action coupling, motor learning and embodiment. Across disciplines, related theories are well investigated in sport and performance psychology or music psychology, but there is also a high potential for studying the effects of auditory feedback in form of movement sonification on processes involved in perception and performance. Many studies using movement sonification as a scientific method can be found in the rehabilitation and sports domain, aiming at reaching insight into motor learning in specific movement tasks. Results of a small number of studies are promising and show positive effects of movement sonification on motor rehabilitation after stroke, and for improving postural motor learning and balance control. Furthermore, results indicate enhanced performances in rowing and running when using auditory feedback in form of movement sonification or natural movement sounds. In the music domain, movement sonification is applied as an augmentation of traditional or digital instruments, assuming that additional auditory feedback of musical movements should support the training on musical instruments. Besides, dance studies report on different training settings in which sonification of dance movements opens a new artistic level and could help in terms of pedagogical feedback. While only a few investigations in this area used randomized-controlled experiments, there are many technical reports of projects in which sonification systems for specific applications and research designs are described for potential future studies. Researchers often use sonification techniques without any evaluation of different sonification strategies, neither concerning the effect of various auditory feedback styles on a certain task nor regarding aesthetical issues of the sonification sounds. The aim of this article is to provide an overview of research from different application areas using movement sonification, and to discuss the findings with regard to the underlying psychological mechanisms and applied sonification strategies. This article provides the chief definitions in the context of movement sonification and examines the psychological processes involved. Moreover, it gives an overview of movement sonification research in rehabilitation, sports and music by highlighting experimental designs and evaluation approaches of sonification strategies. On the basis of present knowledge, the use of movement sonification offers high potential for music psychology research.

Keywords: movement sonification, auditory feedback, interaction, perception-action coupling, motor learning, evaluation, rehabilitation, sports, music, dance

Was bedeutet Bewegungssonifikation und welche psychologischen Prozesse liegen ihr zu Grunde?

Sonifikation macht Vorgänge hörbar, die sich sonst oft der Wahrnehmung entziehen. Spätestens seit der ersten International Conference on Auditory Display (ICAD) im Jahr 1992 sowie Kramers (1994) Handbuch zu unterschiedlichen Erscheinungsformen und Anwendungsarten des Auditory Display sind Sonifikationen im Fokus interdisziplinärer Forschungsvorhaben. Sonifikation stellt eine künstlerisch-wissenschaftliche Methode der Verklanglichung von Daten dar. Ihre Anwendungen verorten sich in verschiedenen Bereichen und erhalten Einzug in eine Reihe von Forschungsdisziplinen wie der Physik, Akustik, Psychologie, Linguistik, den Neurowissenschaften, Bewegungswissenschaften oder auch den Musikwissenschaften (Hermann, Hunt & Neuhoff, 2011).

Bewegungssonifikation als eine Art der Verklanglichung von Daten, deren Basis menschliche Bewegungen darstellen, kann als eine Methode bezeichnet werden, die vor allem innerhalb der Sportwissenschaften und der Rehabilitation, der Musikpsychologie und Performance-Forschung sowie in Zusammenhang mit ihren Teilbereichen – dem Bewegungslernen, der Biomechanik oder der Gestenforschung – Anwendung findet. Dieser Artikel diskutiert die zugrundeliegenden psychologischen Wahrnehmungsmechanismen und bietet einen Überblick auf verschiedene Anwendungsbereiche. Aus musikpsychologischer Perspektive bietet die Erforschung von Sonifikationseffekten ein großes Potential, Vorgänge multimodaler Integration im Rahmen audiovisueller Bewegungswahrnehmung zu untersuchen. Auditive Feedbackprozesse während der Ausführung von Bewegungshandlungen und der Vergleich der Effekte zwischen auditiven und visuellen Rückmeldungen spielen in diesem Zusammenhang ebenfalls eine große Rolle. Dabei ist es ein Ziel dieses Artikels, die musikalischen Eigenschaften der Sonifikationsklänge näher zu beleuchten. In diesem Zusammenhang erscheinen insbesondere Fragen zu unterschiedlichen Sonifikationsstrategien interessant. Welche Bewegungsparameter werden mit welchem Ziel verklanglicht? Welche auditiven Parameter werden bei der Sonifikation von Bewegungsdaten eingesetzt? Auf welche Art und Weise findet eine Transformation von Daten in Klang statt? Ein bislang noch unzureichend erforschter Bereich liegt in der Evaluation von Bewegungssonifikationen, der gegen Ende dieses Beitrags anhand eigener empirischer Studien behandelt wird.

In verschiedenen Anwendungsbereichen werden Sonifikationen eingesetzt, um über Klänge grundlegend und in Echtzeit eine hochauflösende und facettenreiche Rückmeldung zu Handlungen oder anderen Aktionen zu geben. Dabei sollen sehr spezifische Fertigkeiten trainiert werden wie im Sport oder in der Rehabilitation. Die Auswahl der Klänge geschieht dabei in der Regel intuitiv. Forscher probieren, welche Klänge am besten für ihre Zwecke passen könnten und begründen nur selten ihre Entscheidungen. Durch wiederholtes Training erlernen die Anwender bis zu einem gewissen Grad, wie sich ihre Handlungen auf die gehörten Klänge auswirken, es findet eine implizite Verknüpfung der Handlungen mit der auditiven Rückmeldung statt. Möglicherweise sind aber nicht alle Klänge gleichermaßen gut geeignet oder werden gar maskiert. Musikpsychologische Expertise, die diesen Fragen auf den Grund gehen kann, wurde in diesem Bereich wohl kaum eingesetzt.

In diesem Artikel werden zunächst die entscheidenden Fachbegriffe aus dem Sonifikationsbereich erklärt, die allgemeine Bedeutung von Sonifikation in Forschung und Performance beschrieben sowie die zu Grunde liegenden psychologischen Prozesse erläutert. Anschließend erfolgt eine Darstellung unterschiedlicher Sonifikationsstrategien und erzielter Ergebnisse in empirischen Studien aus den Bereichen Rehabilitation, Sport und Musik. Ausführungen zur Relevanz systematischer Evaluationen von Sonifikationen, die Präsentation eigener Forschungsergebnisse in diesem Zusammenhang und ein Fazit schließen den Artikel ab.

Definitionen: Sonifikation und Bewegungssonifikation

Der Begriff Auditory Display umfasst alle Aspekte der Mensch-Computer-Interaktion, die Klang als Antwort auf Daten zum Ziel haben (Hermann, Hunt & Neuhoff, 2011). Sonifikation als Kernelement von Auditory Displays wird hingegen als Technik der Klangwiedergabe auf Basis von Daten und Interaktionen beschrieben. Diese kann im Sinne der Kriterien von Hermann (2008) als wissenschaftliche Methode bezeichnet werden, sofern a) der Klang objektive Eigenschaften der Daten widerspiegelt und b) die Transformation der Daten zu einem Klang systematisch erfolgt. Zudem sollte c) die Sonifikation reproduzierbar sein und d) das System auch mit unterschiedlichen Input-Daten funktionieren.

Kramer et al. (1999) beschreiben Sonifikation als „[...] the use of nonspeech audio to convey information“ (S. 3) und ergänzen im Hinblick auf die Anwendungsziele Folgendes: „[...] sonification is the transformation of data relations into perceived relations in an acoustic signal for the purposes of facilitating communication or interpretation“ (ebd.). Diese Definitionen fokussieren zusätzlich den kommunikativen Aspekt von Sonifikation. Die Anwendungsziele einer Sonifikation hängen immer stark zusammen mit der jeweiligen Technik, die bei einer Verklanglichung von Daten genutzt wird, und der Funktion der auditiven Darstellungen. Technik und Funktion sind jedoch stark miteinander verbunden, sodass Grenzen zwischen den Kategorien verschwimmen (Walker & Nees, 2011). Im Hinblick auf die folgenden Erläuterungen in diesem Artikel scheint daher eine eindeutige Begriffsbestimmung notwendig, um die Methoden hier angeführter Studien besser nachvollziehen zu können. Tabelle 1 bietet einen Überblick über unterschiedliche Sonifikationstechniken mit kurzen Erklärungen und Anwendungsbeispielen. Diese Übersicht erhebt keinen Anspruch auf Vollständigkeit, alle aufgeführten Sonifikationstechniken enthalten jedoch Attribute, die den zuvor genannten definitorischen Kriterien einer Sonifikation entsprechen (vgl. Hermann, 2008).

Tabelle 1

Übersicht relevanter Begriffe und Definitionen im Bereich Bewegungssonifikation

Begriff (Abk.) Kurzbeschreibung Anwendungsbeispiel Grundlagenliteratur
Grundlegende Definitionen
Auditory Display (AD) Alle Aspekte von Mensch-Computer-Interaktion-Systemen, die Klang als Antwort auf Daten zum Ziel haben AD von Pilot-Kopfbewegungen zur Erforschung der Effekte beim Erreichen eines Zieles (Sorkin et al., 1989)
Sonifikation (Soni) Übermittlung von Information durch nicht-sprachliche Audio-Anwendungen zur Erleichterung von Kommunikation und Interpretation; Objektive, systematische und reproduzierbare Übertragung der Daten Soni von ergänzenden Gesten beim Klarinettenspiel zur Erforschung multimodaler Wahrnehmung und Aufmerksamkeitsfokussierung musikalischer Gesten (Grond et al., 2010)
Bewegungssonifikation (MovSon) Soni von menschlichen Bewegungsmustern zur Kreation authentischer Bewegungsklänge; Übertragung kinematischer, dynamischer Bewegungsparameter in Klang MovSon der Bootbeschleunigung zur Erforschung der Leistungsverbesserung im Rudersport durch auditives Feedback (Schaffert, 2011)
Sonifikationstechniken
Parameter-Mapping Sonification (PMSon) Verknüpfung von Informationen mit auditiver Datendarstellung; Veränderungen von Datendimensionen repräsentiert in Veränderung akustischer Dimensionen PMSon musikalischer Gesten zur Erforschung multimodaler Bewegungswahrnehmung (Hohagen & Wöllner, 2016)
Model-Based Sonification (MBSon) Rahmen für syst. Prozessgestaltung von Daten und Generierung von akustischen Signalen; Sonification Model als Menge von Instruktionen für die Erzeugung eines virtuellen klangfähigen Systems MBSon eines rollenden Balles zur Erforschung der Wirkung kontinuierlichen auditiven Feedbacks bei einer Balance-Aufgabe (Rath & Rocchesso, 2005)
Audification (Audf) Direkte Übertragung von Datenfunktionen in Klang; Kontinuierliche, nicht-digitale Interpretation von Daten Audf sensorischer Daten von Hochgeschwindigkeitszügen für eine musikalische Performance (Grond, 2012)
Earcons (Ecs) Nonverbale Audionachrichten zur Bereitstellung von Informationen über Computerobjekte, Operationen oder Interaktionen; Information-Klang-Verbindung nicht vorhersagbar Ecs als ergänzendes auditives Feedback über Verzögerungseffekte von Ruderschlagphasen (Dubus & Bresin, 2010)
Auditory Icons (AudIc) Nachahmung nicht-sprachlicher Klänge aus realer Welt (Unterschied zu Ecs); Metaphorische Hinweise auf bisherige Erfahrungen AudIc von Vitalzeichen zur Verbesserung der medizinischen Diagnostik in der Anästhesie (Fitch & Kramer, 1994)
Interaktion
Human-Computer Interaction (HCI) Gestaltung, Evaluation, Implementierung interaktiver Computersysteme für den menschlichen Gebrauch Entwicklung eines HCI-Systems, dass durch Soni von Gesten einen Computer-Arbeitsplatz erweitert (Hermann, Henning & Ritter, 2004)
Sonic Interaction Design (SID) Entwicklung adaptiver Klanginteraktionen, die kontinuierlich auf Gesten von Nutzern reagieren Sonic Interaction mit verschiedenen Alltagshandlungen zur Erforschung der Interaktion mit auditivem Feedback (Rocchesso, Polotti & Delle-Monache, 2009)
Interactive Sonification (ISon) Datenerkundung durch interaktive Manipulation der Datenübertragung in Klang Design einer ISon von Laufbeschleunigungsdaten zur Erforschung eines effektiveren Laufverhaltens (Eriksson & Bresin, 2010)
Echtzeit-Sonifikation (RTSon) Dauer des Soni-Prozesses (Datenaufnahme, Daten-Klang-Transformation, Klangwiedergabe) so gering, dass keine Verzögerung wahrgenommen wird RTSon von Tanzbewegungen zur Erforschung von Wahrnehmungs-Handlungs-Prozessen bei Kindern (Frid et al., 2016) Siehe ISon
Post-Performance Sonifikation (PPSon) Nachträgliche Verklanglichung zuvor aufgenommener Daten PPSon von Schwimmbewegungen zur Bewertung der Wirksamkeit von MovSon (Effenberg, 2000) Weitere Anwendungsbeispiele:
Auditives Feedback
Auditives Feedback (AF) AF steht in Abhängigkeit zur Nutzeraktivität; Kann (verglichen mit visuellem Feedback) Ablenkung reduzieren AF zur Verbesserung des Gleichgewichts bei Haltungsschäden (Dozza et al., 2011)
Natürliches AF (NatAF) Intrinsische Rückmeldung durch auditive Informationen, die durch die Bewegungsausführung selbst gegeben werden NatAF von Bewegungen beim Hürdenlaufen zur Erforschung auditiver Wahrnehmung im Sport (Kennel, Hohmann & Raab, 2014)
Augmentiertes AF (AugAF) Extrinsische Information, die ergänzend zu sensorischen Afferenzen (intrinsisch) auditives Feedback geben AugAF von Wurfbewegungen zur Erforschung der Leistung bei einer Ballwurfaufgabe (Helmer et al., 2010)

Insbesondere bei Anwendungen von Parameter-Mapping Sonifikationen (siehe Tabelle 1) spielen Mapping-Strategien eine entscheidende Rolle, also die Entscheidungen, welche Dateneigenschaften in Anwendung welcher Transferfunktion mit welchen klangerzeugenden Parametern verknüpft werden (Grond & Berger, 2011; vgl. Hermann, 2010). Bei der Verwendung von Parameter-Mapping Sonifikationen wird oftmals auf ein sogenanntes one-to-one Mapping zurückgegriffen, d. h. eine Dateneigenschaft wird mit einer Klangeigenschaft verknüpft (z. B. Geschwindigkeitswerte von Armbewegungen mit der Tonhöhe eines Klanges; für einen Überblick zu verschiedenen Dimensionen physikalischer und auditiver Eigenschaften siehe Dubus & Bresin, 2013).

Übergreifende Definitionen von Bewegungssonifikationen erscheinen aufgrund der Vielzahl an verschiedenen Anwendungsbereichen eher schwierig. Somit rücken die unterschiedlichen Funktionen von Bewegungssonifikationen in verschiedenen Anwendungs- und Forschungsfeldern in den Vordergrund. Hier unterscheidet Höner (2011) grob drei Bereiche: 1. Sonifikationen, die in Zusammenhang mit gesundheitsfördernden Übungen im Rahmen von Physiotherapie und Rehabilitation stehen; 2. unterhaltungsbezogene Sonifikationen, die Anwendung in Computer-Spielen, virtuellen 3D-Räumen oder Sportspielen finden; 3. leistungsbezogene Sonifikationen, die zu trainingswissenschaftlichen und diagnostischen Zwecken eingesetzt werden. Effenberg (2011) bietet folgende Erläuterung zum Ansatz von Bewegungssonifikationen: „Movement sonification, the sonification of human movement patterns is a new approach for creating ‘authentic’ acoustic movement sounds. This is achieved by transforming computed - kinematic as well as dynamic - movement parameters into sound“ (S. 548).

Als interaktive Sonifikationen werden hauptsächlich solche Verklanglichungen bezeichnet, die online oder in Echtzeit durch menschliche Handlungen verändert werden können. „Interactive Sonification is the discipline of data exploration by interactively manipulating the data’s transformation into sound“ (Hunt & Hermann, 2011, S. 274). So ergeben sich konzeptionelle Überschneidungen mit bereits etablierten Interaktionsansätzen wie der Human-Computer-Interaction (Hewett et al., 1992) oder des Sonic Interaction Designs (Serafin et al., 2011; für Begriffserklärungen und Anwendungsbeispiele siehe Tabelle 1). Viele der im Folgenden aufgezeigten Methoden beinhalten interaktive Echtzeit-Sonifikationen, die je nach Anwendung mit unterschiedlichen Forschungszielen eingesetzt werden, beispielsweise zur Leistungsverbesserung im Sport (Effenberg et al., 2016; Schaffert, 2011) oder zur Gestaltung eines interaktiven Performance-Systems (Aylward & Paradiso, 2006; Landry, Ryan & Jeon, 2014). Dem gegenüber stehen Bewegungssonifikationen, die zuvor aufgenommene Daten („pre-recorded“, Hermann et al., 2012) verklanglichen, um diese als auditives Bewegungsfeedback in Wahrnehmungsexperimenten (Effenberg, 2000; Effenberg & Schmitz, 2018; Hohagen & Wöllner, 2016) oder Evaluationsparadigmen (Hohagen & Wöllner, 2017) einzusetzen. In der Fachliteratur hat sich bislang kein einheitlicher Begriff für diese Art von Sonifikationen etabliert, nachfolgend werden sie daher vereinfacht als Post-Performance Sonifikation bezeichnet (siehe Ng et al., 2007).

Zudem soll an dieser Stelle noch der Begriff des auditiven Feedbacks genauer bestimmt werden, da in vielen der nachfolgend beschriebenen Studien Bewegungssonifikationen mit dem Ziel eingesetzt werden, auditive Bewegungsrückmeldungen zu liefern. Sigrist et al. (2013) unterscheiden zwei Subkategorien auditiven Feedbacks. Einerseits kann eine auditive Rückmeldung in Form von augmentierten Informationen über die Bewegungen stattfinden (auditive Alarme, Sonifikation von Bewegungsvariablen oder Sonifikation von Bewegungsfehlern), andererseits können die bei einer Bewegung erzeugten natürlichen Bewegungsklänge als „natural auditory feedback“ fokussiert oder verstärkt werden (Kennel & Pizzera, 2015). An anderer Stelle wird ebenso der Begriff des auditiven Biofeedbacks verwendet, der die Datengenerierung für Sonifikationen auf Basis körperlicher Aktivität verdeutlicht (Dozza et al., 2011; Hermann, 2008).

Bedeutung und Ästhetik von Bewegungssonifikationen in künstlerischer Performance und empirischer Forschung

Forschungsprojekte im Bereich der Bewegungssonifikation haben sowohl die Intention, grundlegende Wahrnehmungsprozesse experimentell zu untersuchen, als auch das Ziel, verschiedene Effekte von Sonifikationen auf Bewegungsleistungen in anwendungsorientierten Studien zu erforschen. Außerdem erleben Bewegungssonifikationen eine wachsende Bedeutung im Bereich interaktiver künstlerischer Performances. So entscheidet sich ein Performance-Künstler für eine interaktive Bewegungssonifikation aufgrund der ästhetischen Qualität der Sonifikation im Rahmen eines multimedialen Live-Auftritts (Mitchell & Heap, 2011; Renaud et al., 2014), ein Sportwissenschaftler hingegen wählt eine Sonifikationsmethode zur experimentellen Untersuchung der Wirkung eines erweiterten auditiven Feedbacks auf das Erlernen einer sportart-spezifischen Bewegung (Schaffert et al., 2011; für einen Überblick siehe Sigrist et al., 2013).

Künstlerische Performances verwenden seit langem verschiedene Formen der Sonifikation. Sie unterscheiden sich in der Regel von traditionellen Instrumenten dadurch, dass Klänge über Gesten gesteuert werden und der Klang nicht durch direkten Kontakt der Musiker mit einem physischen Klangerzeuger angeregt wird. Daher kann bereits das Theremin in den 1920er Jahren als eine frühe Form der Verklanglichung von Bewegungen gesehen werden (Theremin, 1996; vgl. Wöllner, 2019). Entscheidend für gelingende Aufführungen ist die vom Publikum erlebte enge Verknüpfung von Geste und Klang, die zunächst durch überzeugende Klänge, aber auch durch technische Bedingungen wie geringe Latenzen und eine geschickte Lautsprecherpositionierung erreicht werden. Chion (1983) prägte den Begriff des „kausalen Hörens“ beim Publikum, der besonders für Sonifikationen relevant erscheint: Klänge sollten real oder in der Vorstellung auf bestimmten Handlungen beruhen, die diese Klänge hervorrufen (vgl. Rovan & Hayward, 2000). Zu den bekannteren „Controllern“, die in zahlreichen Performances eingesetzt werden, gehören Datenhandschuhe (Fels et al., 2002; Rodgers, 2010), oder Motion-Capture-Systeme (Dobrian & Bevilacqua, 2003). Fragen der Übertragung (Mapping) spielen hierbei wie in anderen Anwendungsbereichen eine entscheidende Rolle.

Zusätzlich zur Anwendung von Sonifikationen in künstlerischen Performances gibt es zahlreiche Forschungsprojekte, in denen Bewegungssonifikation im Sinne einer wissenschaftlichen Methode eingesetzt wird (vgl. Hermann, 2008). Aus musikpsychologischer Perspektive ist insbesondere interessant, mit welchem Ziel welche Klänge verwendet werden, um Effekte auf die sportliche oder musikalische Leistung oder die Rehabilitation zu untersuchen, die über die Intention einer künstlerischen Performance hinaus gehen. Dabei ist die Frage nach der Ästhetik von Sonifikationen auch im Bereich der experimentellen Forschung sehr relevant (Barrass & Vickers, 2011; Grond & Hermann, 2012; Schaffert, Mattes, Barrass & Effenberg, 2009; Vickers, Hogg & Worrall, 2017).

Nachfolgend bietet dieser Artikel sowohl eine Übersicht von Studien in verschiedenen Anwendungsbereichen als auch eine Erläuterung von Zielen aus der Grundlagenforschung im Bereich der Bewegungssonifikation. Zuvor werden Theorien und Modelle zentraler psychologischer Vorgänge bei der Ausführung und Wahrnehmung von sonifizierten Bewegungen vorgestellt.

Psychologische Grundlagen

Entscheidende Theorien zu beteiligten Prozessen bei der Bewegungswahrnehmung werden oft mit dem Begriff der Wahrnehmungs-Handlungs-Kopplung („perception-action coupling“) überschrieben (Loula et al., 2005; Novembre & Keller, 2014; Wöllner et al., 2012). Diese spielt auch bei der Erforschung von Bewegungssonifikationen eine wichtige Rolle, sowohl im Sport (Effenberg & Schmitz, 2018; Schmitz & Effenberg, 2012) als auch im Zusammenhang mit interaktiven Performance-Systemen (Hermann, 2011; Serafin et al., 2011). Als einer der grundlegenden Ansätze gilt die Common-Coding Theory (Prinz, 1997), welche beschreibt, dass Wahrnehmungssysteme und motorische Systeme Repräsentationen gleicher Handlungen teilen. Diese Annahme beeinflusst Theorien zur Bewegungsplanung und Ansätze zu Funktionen von auditiven Bewegungsrückmeldungen, die auf die Bewegungshandlungen einwirken, sogenannte auditive Reafferenzen (Kennel et al., 2015; Kennel & Pizzera, 2015; Pizzera et al., 2017). So ist es nach der Annahme interner Modelle zur Bewegungsplanung (Wolpert & Flanagan, 2001) möglich, durch auditives Feedback Bewegungen während des Ausführungsprozesses anzupassen, anhand von Training die Kopplung auditiver Wahrnehmung und Handlungsausführung besser zu verstehen und somit Bewegungsabläufe zu optimieren oder Bewegungen wieder zu erlernen (Sigrist et al., 2013).

Bei motorischen Lernprozessen steht jedoch nicht nur die Planung von Bewegungsausführung im Vordergrund, sondern auch die mit ihr eng zusammenhängenden Vorgänge multimodaler Wahrnehmung. Im Hinblick auf die Funktion von Bewegungssonifikationen als auditive Rückmeldungen scheinen grundlegende Mechanismen multimodaler Integration eine wichtige Rolle zu spielen, da auditives Feedback oftmals in Ergänzung („augmented“) zu visuellen oder haptischen Rückmeldungen einer Bewegungshandlung auftritt. Erkenntnisse über die Beeinflussung visueller Wahrnehmungsprozesse durch zusätzliche auditive Sinneseindrücke (McGurk & MacDonald, 1976) sind ebenso von Bedeutung beim Wahrnehmen und Erlernen von Bewegungssonifikationen im Sport (Effenberg et al., 2016), in der Rehabilitation (Vinken et al., 2013) oder in künstlerischen Performances (Caramiaux et al., 2011; für einen Überblick zu Wahrnehmungsprozessen audiovisueller Integration siehe Koelewijn, Bronkhorst & Theeuwes, 2010).

In einigen der hier angeführten Studien liegen experimentellen Wahrnehmungstests sogenannte Selbst-Fremd-Erkennungsparadigmen zu Grunde, um zu untersuchen, ob Teilnehmer in der Lage sind, ihre eigenen Bewegungen von anderen zu unterscheiden. Neben Fragen zur Bedeutung visuell dargestellter Bewegungsinformationen zur erfolgreichen Bewältigung dieser Aufgabe (Knoblich & Prinz, 2001; Loula et al., 2005), scheint auch die Wirkung von auditiven und audiovisuellen Darstellungen mit Musik (Sevdalis & Keller, 2010; Wöllner, 2012), Bewegungssonifikationen (Hohagen & Wöllner, 2016; Schmitz & Effenberg, 2012) und natürlichem auditivem Feedback (Effenberg, Fehse & Weber, 2011; Kennel, Hohmann & Raab, 2014; für einen Überblick siehe Pizzera & Hohmann, 2015) auf die Selbst-Erkennung von besonderem Interesse. Dabei liegen diesem Prozess nicht nur Vorgänge der Wahrnehmungs-Handlungs-Kopplung zu Grunde, sondern ebenso Mechanismen, die auf Erfahrungen eines aktiven Selbst beruhen und auf die Urheberschaft einer Handlung (Agency) hinweisen (Jeannerod, 2003). Personen simulieren innerlich Handlungen Anderer und können sie so besser nachvollziehen. Dieser Mechanismus hängt wiederrum eng mit dem Common-Coding Ansatz zusammen und tritt auch bei der Erkennung klangbezogener Bewegungen auf (Keller, Knoblich & Repp, 2007; Knoblich & Repp, 2009; Sevdalis & Keller, 2010; Wöllner, 2012; 2014). Dementsprechend liegt die Vermutung nah, dass Agency-Prozesse auch bei der Erkennung von Sonifikationen, die Informationen zu eigenen und fremden Bewegungen enthalten, in verschiedenen Anwendungsbereichen relevant sind.

Sowohl im Rahmen interaktiver Sonifikationssysteme, als auch bei kontrollierten Experimenten zur Bewegungswahrnehmung mit auditivem Feedback spielt der Ansatz des Embodiments eine wichtige Rolle. Ähnlich der Darstellung von Agency-Mechanismen wird Embodied Cognition als Konzept zur Beschreibung kognitiver Prozesse angesehen, die auf Basis von Bewegungsempfindungen im „Inneren“ des menschlichen Körpers stattfinden (Leman, 2008). Dessen Bedeutung ist für musikalische Performances und musikalische Gesten bereits ausführlich behandelt worden (Godøy & Leman, 2010; für einen Überblick zu „Embodied Music Interaction“ siehe auch Lesaffre, Maes & Leman, 2017), bietet allerdings auch für den Einsatz von Bewegungssonifikationen in der Rehabilitation (Lesaffre et al., 2015; Schmitz, Kröger & Effenberg, 2014) und insbesondere im Tanz (Diniz et al., 2012; Frid et al., 2016; Naveda & Leman, 2008) eine Erklärungsgrundlage für Effekte auf Bewegungsprozesse. Dabei stellt eine Echtzeit-Sonifikation von Bewegungsdaten domänenübergreifend ein gutes Beispiel dar, denn je nach Setting wird dann nicht nur Bewegung verklanglicht, sondern gleichzeitig auch Klang verkörpert.

Zusammengefasst lässt sich sagen, dass bei der Erforschung von Bewegungssonifikationen auf ein sehr breites theoretisches Fundament zurückgegriffen werden kann, dessen Ansätze anhand von vielen empirischen bewegungs- und musikpsychologischen Untersuchungen bestätigt worden sind. Entscheidend bei der Implementierung von Bewegungssonifikationen in experimentelle Studiendesigns ist jedoch vor allem eine systematische Strategie des Sonifikationskonzeptes, um relevante Parameter der Bewegungs- und Klangdimension zu bestimmen. Der folgende Überblick zu Forschungsprojekten in den Bereichen Rehabilitation, Sport, Musik und Tanz soll einen Eindruck vermitteln, welche Erkenntnisse und Herausforderungen sich dabei herauskristallisieren.

Auditives Feedback in Rehabilitation und Therapie

Wirkungen musik-unterstützender Therapien konnten in vielen klinischen Studien nachgewiesen werden. Unter anderem stellt die Rhythmic Auditory Stimulation zur Rehabilitation motorischer Prozesse bei Parkinsonpatienten eine sich als sehr effektiv erwiesene Behandlungsmethode dar (Thaut et al., 1996; für einen Überblick siehe Ghai et al., 2018; Thaut & Abiru, 2010). Sie arbeitet mit Klang, der in engem Zusammenhang mit Bewegungsmustern der Patienten steht. Wird bei der Rhythmic Auditory Stimulation versucht, insbesondere rhythmische Bewegungsmuster durch Klänge anzuregen und somit zeitliche Informationen der Bewegung zu fokussieren, haben Bewegungssonifikationen im Rehabilitationskontext zumeist das Ziel, kinematische und dynamische Informationen von Bewegungen zu erfassen (Effenberg, 2011) und diese mit Hilfe von auditivem Feedback in Form von Sonifikationen darzustellen.

Sonifikation als Unterstützung von Bewegungsrehabilitation nach Schlaganfällen

Ein wichtiger Anwendungsbereich von Bewegungssonifikationen liegt in der Rehabilitation von Schlaganfallpatienten. In einer Studie von Robertson et al. (2009) konnte gezeigt werden, dass auditives Feedback in Form einer Echtzeitsonifikation von Greifbewegungen bei Schlaganfallpatienten mit Schäden in der rechten und linken Hemisphäre (RHD und LHD) unterschiedlich wirkt. Die Bewegungssonifikation – bestehend aus einem Mapping von räumlichen Informationen der Bewegung mit der Lautstärke des Klangs – führte in der LHD-Gruppe zu abfallenden kinematischen Leistungen im Vergleich zu Greifbewegungen ohne Feedback. In der RHD-Gruppe gab es hingegen keinen Effekt des Feedbacks. Robertson et al. betonen, dass die Unterschiede von Reaktionen auf auditive Rückmeldungen zwischen Patienten mit Läsionen in verschiedenen Hemisphären noch nicht ausreichend erforscht wurden und so die Ergebnisse schwierig zu interpretieren sind.

Zudem gibt es weitere Projekte, die verschiedene technische Geräte zur Untersuchung der Wirkung von auditivem Feedback in Form einer Echtzeit-Bewegungssonifikation auf die Bewegungsrehabilitation von Schlaganfallpatienten entwickeln und evaluieren. So gibt es erste Pilotstudien zur Evaluation der Handhabbarkeit, Klang-Ästhetik und Latenz bei Sonifikationen von Armbewegungen, die mit Hilfe von Inertial-Sensor-Systemen (Messung von Beschleunigungen und Rotationen der Bewegung) realisiert werden (Brückner, Theimer & Blume, 2014; Schmitz, Kröger & Effenberg, 2014; Schmitz et al., 2018; Vinken et al., 2013). Ergebnisse einer Evaluation verschiedener zweidimensionaler Parameter-Mappings zeigen, dass insbesondere eine Verknüpfung von vertikalen Bewegungsdaten mit der Tonhöhe eines Klanges für eine Bewegungssonifikation in einem Setting mit Schlaganfallpatienten wirksam sein könnte (Scholz et al., 2014). Curser-Bewegungen auf der x-Achse wurden hier mit Veränderungen der Helligkeit des Klangs und Bewegungen auf der y-Achse mit Tonhöhenveränderungen verknüpft. Chen, Fujii und Schlaug (2016) konnten erste Ergebnisse im Hinblick auf die kurzzeitige Verbesserung der Greifleistung bei Schlaganfallpatienten mit auditivem Feedback vorweisen. Hier wurde für die Bewegungssonifikation ein Algorithmus genutzt, der Fehler der an den Greifbewegungen beteiligten Gelenkstellungen mit einem dissonanten und somit weniger angenehmen Klang rückmeldete.

Der Blick auf die hier dargestellten Methoden und Ergebnisse im Bereich der Schlaganfallrehabilitation zeigt zusammenfassend, dass zumeist durch einfache und intuitive Parameter-Mapping-Sonifikationen (Grond & Berger, 2011) versucht wurde, die Armbeweglichkeit der Teilnehmer zu verbessern bzw. die Wiedererlangung vorheriger Bewegungsfähigkeiten zu unterstützen. Zur Messung der Effekte des auditiven Feedbacks wurden insbesondere Greiftests verwendet. In diesem Bereich gibt es viele Berichte zu Forschungsprojekten, die sich mit der Wirkung auditiven Feedbacks auseinandersetzen (Maulucci & Eckhouse, 2001; Petersen et al., 1996; Wallis et al., 2007), auch in Verbindung mit Roboter-unterstützem Bewegungstraining bei Schlaganfallpatienten (Secoli et al., 2011; für einen Überblick siehe Rosati et al., 2013). Insgesamt gibt es jedoch nicht ausreichende Ergebnisse, die auf Basis randomisiert-kontrollierter Experimente in diesem Bereich erzielt wurden, um die Stärke von Effekten durch eingesetzte Bewegungssonifikationen auf die Bewegungsrehabilitation einschätzen zu können (Rosati et al., 2013).

Bewegungssonifikation als auditives Feedback zur Rehabilitation von Haltungs- und Gleichgewichtsschäden

Im Hinblick auf Gleichgewichtsprobleme von Schlaganfallpatienten konnte gezeigt werden, dass verschiedene Arten auditiven Feedbacks mit unterschiedlichen Sonifikationsstrategien ebenso verschieden von den Studienteilnehmern beurteilt wurden (Lesaffre et al., 2015). Patienten wurden hier in Anwendung einer als Musical Balance Board umfunktionierten Kraftmessplatte verschiedene Arten von Echtzeit-Feedback vorgestellt. Das Ziel bestand jeweils darin, anhand des auditiven Feedbacks das Gleichgewicht auf der Platte zu finden. Dabei präferierten die Teilnehmer eine assoziative Sonifikationsstrategie – d. h. je nach Gleichgewichtsleistung wurden Musikstücke aus den von den Patienten präferierten Genres mehr oder weniger manipuliert – gegenüber explorativen oder antizipatorischen Strategien. Obwohl hier unterschiedliche Strategien von Sonifikationen subjektiv bewertet wurden, gibt es noch keine Hinweise zu Lerneffekten des auditiven Feedbacks auf Basis eines objektiven Tests.

In weiteren Forschungsprojekten wurden Bewegungssonifikationen eingesetzt, um zu untersuchen, ob auditives Feedback dabei helfen kann, Haltungsschäden oder Gleichgewichtsprobleme zu mindern. Eine Sonifikation von Positionsdaten der Bewegungen gesunder Teilnehmer und solcher mit bilateraler Vestibulopathie (beidseitiger Ausfall der Gleichgewichtsorgane) führte eher zu einer Verbesserung des Gleichgewichts als ein auditives Feedback auf Basis von Geschwindigkeitsdaten (Hegeman et al., 2005).

Dozza und Kollegen fanden in mehreren Studien heraus, dass eine mehrdimensionale Bewegungssonifikation in Form eines Audio-Biofeedback-Systems (ABF) von kinematischen Bewegungsdaten das Gleichgewicht gesunder Patienten verbessert (Chiari et al., 2005), und diese Verbesserungen durch auditives Feedback nicht auf erhöhter Muskelaktivität, sondern eher auf neuronalen Prozessen beruhen (Dozza et al., 2005). Dies vermuten die Autoren auf Basis der Analyse gemessener Elektromyografie-Daten, da diese sich im Vergleich zur Bedingung ohne Feedback nicht veränderten. Des Weiteren zeigen Ergebnisse, dass auditives und visuelles Feedback erfolgreich das Erreichen der Gleichgewichtsstabilität bei gesunden Teilnehmern unterstützen (Dozza et al., 2006), jedoch in unterschiedlicher Abhängigkeit zur Aktivität einzelner Sinnesbereiche. ABF bewirkt hier eine Reduzierung der Fehlstellung des Druckmittelpunkts. Giansanti et al. (2009) konnten feststellen, dass das von der Gruppe verwendete ABF bei gesunden Teilnehmern in verschiedenen Tests zu einer Reduktion der verwendeten mechanischen Energie führt. Dozza et al. (2011) schlussfolgern auf Basis kontrollierter Tests mit unterschiedlichen Feedbackbedingungen: Je größer die Anzahl kinematischer Informationen ist, die anhand der Bewegungssonifikation des ABF-Systems gesunden Teilnehmern beim Gleichgewichtstraining rückgemeldet werden, desto besser der Effekt.

Insgesamt berichten die Autoren hier von starken – jedoch zumeist nur kurzfristigen – Verbesserungen der Haltungsstabilität und des Gleichgewichts durch den Einsatz auditiven Feedbacks, da randomisiert-kontrollierte Langzeitstudien sehr selten sind. Dennoch kann festgehalten werden, dass einige der erwähnten Ansätze bzw. technischen Geräte bereits in mehreren Studien evaluiert und deren Wirkung für die praktische Anwendung im Gleichgewichts-Trainingsprogrammen oder zur Reduzierung von Haltungsschäden erprobt ist (z. B. Dozza et al., 2011). Dabei wird zusammenfassend deutlich, dass ein auditives Feedback besonders im Hinblick auf einzelne relevante Teilelemente von Bewegungen zur Haltungsstabilität effektiv war, jedoch bei anderen nicht. Dies sollte bei zukünftigen Studien berücksichtigt werden.

Zusätzlich wird der Nutzen von Bewegungssonifikationen im Rehabilitationsbereich hinsichtlich einer verbesserten medizinischen Diagnostik überprüft, beispielsweise durch Sonifikationen von EEG-Daten (z. B. Hermann et al., 2002; Hermann, Baier et al., 2006; für einen Überblick siehe Väljamäe et al., 2013) oder EMG-Daten (z. B. Pauletto & Hunt, 2006; Matsubara et al., 2012). Dabei kann geschultes medizinisches Personal mittels Sonifikation Informationen über physiologische Variablen erlangen, die bei rein visuellen Darstellungen unerkannt bleiben würden. Zudem könnten Sonifikationen die Diagnostik dahingehend unterstützen, den visuellen Sinn zur Nutzung für andere diagnostische Anwendungen nicht zu blockieren (Hunt & Pauletto, 2011; Vickers, 2011). Pauletto und Hunt (2006) konnten im Rahmen eines Experimentes zeigen, dass eine erhöhte „Rauheit“ des Klanges der von den Autoren verwendeten Sonifikationen von Muskelbewegungen positiv mit dem Alter der Patienten korreliert und eine Mehrheit der befragten Teilnehmer den Klang zur Darstellung der EMG-Daten angemessen fand.

Bewegungssonifikation im Sport

In den letzten zwei Jahrzehnten gibt es innerhalb des sport- und bewegungswissenschaftlichen Diskurses vermehrte Bestrebungen, die Effizienz des Trainings mit Bewegungssonifikationen in Zusammenhang mit grundlegenden Wahrnehmungs- und Lernprozessen des motorischen Verhaltens zu untersuchen (Effenberg, 2005; 2011). Dabei sind speziell die Effekte des auditiven Feedbacks auf das Bewegungslernen in verschiedenen sportart-spezifischen Anwendungen von Interesse.

Sonifikationen grundlegender und sportart-spezifischer Bewegungen

In einigen Untersuchungen wurde die Wirkung von Bewegungssonifikationen auf die Lernleistung kontrollierter Bewegungsaufgaben überprüft. So konnten Oscari et al. (2012) zeigen, dass ein ergänztes auditives Echtzeit-Feedback in Form eines lautstärke-veränderten und räumlich unterschiedlich wahrgenommenen Rauschens zu einem ähnlichen Trainingseffekt führt, wie ein visuelles Feedback. Dabei war das auditive Feedback abhängig von der Stärke des Bewegungsfehlers beim Erreichen eines visuell dargestellten Ziels mit einem Roboter-Joystick. In einer weiteren Studie konnte festgestellt werden, dass ein aufgabenbezogenes auditives Feedback die Performance in einem ähnlichen Test im Vergleich zum rein visuellen Feedback verbessert, ein fehlerbezogenes Feedback (siehe Oscari et al., 2012) jedoch nicht (Rosati et al., 2012). Interessanterweise zeigten Ergebnisse eines zweiten Versuchs, dass eine Bewegungssonifikation der externen, visuell dargestellten Joystickbewegungen auf einem Monitor größere Lerneffekte erzielte, als eine Sonifikation der Armbewegungen beim Erreichen des Ziels. Diese Erkenntnisse sind insbesondere im Rahmen des Diskurses zur Wirkung eines externen und internen Fokus beim Bewegungslernen von Bedeutung und werden durch andere Studien in diesem Bereich bestätigt (für einen Überblick siehe Wulf, 2013).

Weitere Ergebnisse geben zudem Aufschluss darüber, ob Bewegungssonifikationen auch beim Erlernen einer beidhändigen Zeitverhältnisaufgabe positiv wirken, in deren Rahmen die Teilnehmer mit einer Hand ein Quadrat und mit der anderen ein Dreieck (4:3) formen sollten. Die Teilnehmer mit auditivem Feedbacktraining zeigten hier auch bei einem Retentionstest ohne Feedback bessere Leistungen als Gruppen mit rein visuellem Feedbacktraining (Dyer, Stapleton & Rodger, 2017).

In weiteren Untersuchungen wurden Bewegungssonifikationen sogenannter Counter Movement Jumps genutzt, um grundlegende Wahrnehmungs- und Lerneffekte durch auditive Bewegungsdarstellungen zu erforschen. Hier konnte Effenberg (2004) zeigen, dass Teilnehmer in einer audiovisuellen Bedingung die Höhe eines dargestellten Modell-Sprunges präziser einschätzen und besser reproduzieren konnten, als in rein auditiven oder visuellen Wahrnehmungsbedingungen. Die dabei eingesetzte ergänzende Bewegungssonifikation bestand aus einem Klang, dessen Tonhöhe sich in Abhängigkeit der Krafteinwirkung des Sprunges veränderte.

Positive Effekte von auditivem Feedback auf Bewegungs- und Wahrnehmungsleistungen konnten zudem im Hammerwerfen (Agostini et al., 2004), Basketball (Helmer et al., 2010), Sportschießen (Konttinen et al., 2004), Weitsprung (Justen et al., 2014), Gymnastikturnen (Baudry et al., 2006) oder beim Fußball (Sors et al., 2017) gezeigt werden. In weiteren Projekten wurden Sonifikationsdesigns zur Anwendung im Golf (Jakus et al., 2017; Kleimann-Weiner & Berger, 2006), Karate (Takahata et al., 2004), Goalball (Höner & Hermann, 2006), Blindminton (neu entwickeltes Spiel auf Basis auditiver Bewegungsinformationen für Sehgeschädigte; Hermann, Höner & Ritter, 2006), Skifahren (Hasegawa et al., 2012) oder beim Handball (Höner, Hermann & Grunow, 2004) entwickelt. Für die Untersuchung der Wirkung von Bewegungssonifikationen sind sowohl grundlegende Forschung mit kontrollierten Bewegungstests wichtig, als auch die Nutzung der dabei gewonnenen Erkenntnisse für das Design anwendungsbezogener Studien.

Effekte auditiven Feedbacks auf die Wahrnehmung und das Lernen zyklischer Bewegungen

Aus rein technischer Perspektive steht der Realisierung einer Sonifikation von Bewegungen in einer Vielzahl unterschiedlicher Sportarten nichts im Wege. Die Daten verschiedener Geräte zur Bewegungserfassung wie Motion-Capture-Systeme (Effenberg et al., 2005; Jakus et al., 2017; Vogt et al., 2010), mobile Beschleunigungssensoren (Eriksson, Halvorsen & Gullstrand, 2011; Schmitz et al., 2018; Vinken et al., 2013) oder Kraftmessplatten (Effenberg, 2004; Scheef et al., 2009) können mit Hilfe von entsprechenden Software- und Programmierlösungen sowie Soundmodulen in Klänge transformiert werden. Dennoch erscheinen einige Bewegungen im Sportartenspektrum zur Anwendung von Bewegungssonifikationen aufgrund der unterschiedlich beteiligten psychologischen Wahrnehmungs- und Lernprozesse besser geeignet als andere. So rücken insbesondere Sonifikationen zyklischer Bewegungen (z. B. Laufen, Rudern, Schwimmen) hinsichtlich ihres repetitiven Charakters in den Fokus, um die Effekte auditiven Feedbacks auf das Bewegungslernen zu untersuchen.

In einer der ersten empirischen Studien zur Wahrnehmung von sonifizierten Schwimmbewegungen konnte Effenberg (2000) zeigen, dass komplexere auditive Darstellungen einer Schwimmbewegung eher mit der Bewegungsempfindung schwimm- und turnerfahrener Teilnehmer korrespondiert, als einfache Bewegungssonifikationen. Zudem scheinen zu einer visuellen Darstellung kongruente Bewegungssonifikationen zu helfen, Geschwindigkeiten einer dargestellten Schwimmbewegung in einem multimodalen Wahrnehmungsparadigma besser voneinander zu unterscheiden (Schmitz et al., 2013). Effenberg und Schmitz (2018) stellten außerdem fest, dass insbesondere die Veränderung der Tonhöhe einer Sonifikation zu einer Beeinflussung der Geschwindigkeitseinschätzung der Schwimmbewegung führt.

Des Weiteren konnten verschiedene Studien der letzten Jahre belegen, inwiefern Bewegungssonifikationen als auditives Feedback im Rudersport sowohl auf Wahrnehmungsprozesse von Sportlern und Laien, als auch auf deren Verbesserungen im Bewegungslernen wirken. In einem der Forschungsprojekte untersuchten Schaffert et al. (2008) vorerst die Anpassungsfähigkeiten von Ruderern auf die zusätzliche auditive Information in Form einer Bewegungssonifikation mit bewegungsabhängigen Tonhöhen- und Lautstärkeveränderungen. Die positiven Ergebnisse wurden anhand von Evaluationen unterschiedlicher Sonifikationsvarianten durch Rudertrainer und Sportler gestützt, welche die Sonifikationen der Bootsbeschleunigung positiv bewerteten (Schaffert, Mattes, Barrass & Effenberg, 2009; Schaffert, Mattes & Effenberg, 2009). Weitere experimentelle Tests zeigten, dass die Bootsbeschleunigung beim Rennrudern im Feld mit auditivem Feedback im Vergleich zu Durchläufen ohne Sonifikationen verbessert werden konnte (Schaffert, 2011; Schaffert, Mattes & Effenberg, 2011).

Während und nach einem mehrmaligen Rudertraining auf einem Ruder-Ergometer mit audiovisuellen Feedbacks und einer vierkanaligen Sonifikation (u. a. Tonhöhe und Lautstärke) konnten Laien ihre Rudertechnik besser an die Technik eines Modellathleten anpassen, als solche Teilnehmer, die mit visuellem und natürlichem auditivem Feedback (Klänge des Ruder-Ergometers) oder lediglich mit visuellem Feedback trainierten (Effenberg, Fehse & Weber, 2011; Effenberg et al., 2016). Die positiven Effekte des auditiven Feedbacks mit dieser Sonifikationsstrategie spiegeln sich auch auf der Ebene beteiligter Wahrnehmungsprozesse ab. So konnten Schmitz und Effenberg (2012) in einem weiteren Experiment zeigen, dass Ruderexperten in der Lage waren, ihre eigenen Ruderbewegungen im Rahmen eines Selbst-Fremd-Wahrnehmungstests lediglich anhand ihrer auditiven Darstellung überzufällig wiederzuerkennen.

Eriksson, Halvorsen und Gullstrand (2011) transformierten in einer Studie zum Laufen die mechanischen Differenzen von individuellen Lauftechniken und einer Modelltechnik in verschiedene verbal geäußerte Trainingskommentare, die in Form eines auditiven Feedbacks zu hören waren. Ergebnisse zeigten, dass Läufer sowohl mit visuellem, als auch auditivem Feedback die Anpassungsleistung verbesserten.

In diesem Zusammenhang zeigen andere Studien jedoch Effekte von natürlichem auditiven Feedback beispielsweise auf die Wahrnehmungs- und Laufleistungen von Hürdenläufern. Dabei stellt sich die Frage, welche Form des auditiven Feedbacks effizienter ist. So fanden Kennel, Hohmann und Raab (2014) heraus, dass Hürdenläufer in der Lage sind, zwischen den natürlichen Klängen eigener Läufe und der Läufe anderer Teilnehmer zu unterscheiden. Im Hinblick auf die Laufleistung mit Hilfe dreier unterschiedlicher Echtzeit-Feedbacks (natürlicher Laufklang, weißes Rauschen, verspäteter natürlicher Laufklang) wurde geschlussfolgert, dass natürliches Feedback am effektivsten die Laufzeit verringert und daher entscheidend für die Wahrnehmungs-Handlungs-Kopplung bei dieser Bewegungsaufgabe ist (Kennel et al., 2015). Ergebnisse einer Studie von Murgia et al. (2016), in der die unterschiedliche Wirkung von künstlichem und natürlichem auditivem Atemfeedback untersucht wurde, bestätigen diese Befunde. Andere Studien hingegen zeigen verbesserte Lern- und Wahrnehmungsleistungen durch künstlich erzeugte Bewegungssonifikationen (Effenberg, Fehse & Weber, 2011; Effenberg et al., 2015; Effenberg et al., 2016). Die unterschiedlichen Ergebnisse verdeutlichen, wie wichtig die Auswahl des auditiven Feedbacks auch künftig für Studien ist, und dass das Feedback auch zukünftig im Forschungsdiskurs hinterfragt und evaluiert werden sollte (Dubus & Bresin, 2013).

Bewegungssonifikationen im Kontext musikpsychologischer und tanzpädagogischer Forschung

Die Sonifikation von Bewegungsdaten spielt auch im Rahmen von musikalischen Performances eine immer stärkere Rolle. Bei Entwicklungen interaktiver Echtzeitlösungen wird zumeist auf Grundlagen der Interactive Sonification (Hunt & Hermann, 2011), des Sonic Interaction Design (Serafin et al., 2011) oder allgemeiner der Human-Computer-Interaction (Hewett et al., 1992) verwiesen. Zudem haben Controller-basierte Performances (für einen Überblick siehe Pysiewicz & Weinzierl, 2017; Wöllner, 2019) und augmentierte Musikinstrumente (Miranda & Wanderley, 2006) eine große Bedeutung, d. h. Aufführungen, in denen durch Erweiterungen digitaler oder elektronischer Instrumente eine Echtzeit-Steuerung von Klang ermöglicht wird.

Beliebte technische Lösungen zur Erfassung von Bewegungsdaten und der Entwicklung eines Gesten-kontrollierten und interaktiven musikalischen Performance-Systems sind die Anwendung von Motion-Capture-Systemen (Diniz et al., 2012; Dobrian & Bevilacqua, 2003; Kapur et al., 2005; Renaud et al., 2014; Skogstad et al., 2010; Winters et al., 2012) oder verschiedener Typen von Beschleunigungssensoren (Caramiaux et al., 2011; Fabiani, Dubus & Bresin, 2010). Obwohl die Umsetzungen technisch unterschiedlich realisiert werden, gleichen sich die Funktionen der Plattformen. So werden künstlerische Bewegungen sensorisch oder optisch erfasst, die aufgenommenen Daten über einen Algorithmus in Klänge übertragen und diese als auditives Feedback (in multimodalen Performance-Konzepten auch oft als visuelles Feedback) wieder an den Performer und eventuell an das Publikum zurückgegeben. Dabei wird Interaktion vor allem durch eine möglichst geringe zeitliche Latenz bei der Datenübertragung erlebt, also durch eine Realisierung in Echtzeit und eine interaktive Manipulation der Transformation von Daten in Klang (Hunt & Hermann, 2011; Wöllner, 2019).

Augmentierte Instrumente: Sonifikationen von Musizierbewegungen

In der musikpsychologischen Forschung stellt die Analyse von Bewegungen musikalischer Gesten, insbesondere von Musizierbewegungen und deren Wahrnehmung einen wichtigen Bereich dar. Sonifikationen von Musizierbewegungen wurden in den letzten Jahren vermehrt untersucht, um herauszufinden, ob ein zusätzliches auditives Feedback beim Üben hilft, wenn es unmittelbar korrekte oder fehlerhafte Bewegungen beim Musizieren an den Ausführenden rückmeldet.

In diesem Zusammenhang rückt vor allem die Sonifikation von Bewegungen beim Violinspiel in den Fokus der Forscher. Bevilacqua et al. (2006) stellten ein Projekt vor, bei dem ein Accelerometer an einem Violinbogen befestigt wurde, um so einerseits die Bogenbewegungen im Hinblick auf die Klangproduktion zu analysieren und andererseits die Bewegungsdaten im Rahmen einer eigens konzipierten elektro-akustischen Komposition zu implementieren. Andere Projekte realisierten ebenfalls eine Sonifikation von Bogenbewegungen beim Violinspiel, beispielsweise mit dem Ziel, Musikstudierenden durch einen „3D Augmented Mirror“ ein audiovisuelles Feedback zu ihren Musizierbewegungen zu geben (Larkin et al., 2008). Hier wurde ein Motion-Capture-System eingesetzt, um die Daten der Spielbewegungen zu erfassen und diese mit Hilfe verschiedener Konzepte einer Echtzeit-Sonifikation in Klang zu transformieren (diskret: Alarmglocken bei fehlerhaftem Winkel; kontinuierlich: Tonhöhenveränderung abhängig vom Abweichungsgrad des Bogenwinkels; siehe auch Ng et al., 2007). Weitere Entwickler nutzen zusätzlich zu Accelerometern Druck-Sensoren, um Musikern die Möglichkeit zu geben, den Violinklang zu kontrollieren (Demoucron & René, 2007).

Im Hinblick auf die Sonifikation musikalischer Gesten beim Klarinettenspiel entwickelten Verfaille, Quek und Wanderley (2006) ein System, das Bewegungen mit einem Motion-Capture-System erfasst und verschiedene spieltypische Bewegungseigenschaften auf unterschiedliche Weise sonifiziert. So wurden Kreisbewegungen des Klarinettenbechers mit Tonhöhenveränderungen gemappt und Gewichtsverlagerungen des Körpers mit unterschiedlicher Tremolo-Häufigkeit. Grond et al. (2010) hingegen ließen unterschiedliche Bewegungssonifikationen, basierend auf Geschwindigkeitsdaten der Klarinetten-Spielbewegungen und einer Faktorenanalyse (Principal Component Analysis; PCA) der entscheidenden Spielbewegungen, in einem multimodalen Testparadigma bewerten. Die Ergebnisse zeigen, dass die Sonifikation der Geschwindigkeitsdaten effektiver war als die PCA-Sonifikation, wenn es um die Bestimmung einzelner Spielsequenzen ging. Andere Projekte beschäftigen sich mit Klangkontrolle und Gestenübertragung bei einer elektrischen Gitarre (Visi et al., 2014), der Sonifikation von Dirigierbewegungen (Bradshaw & Ng, 2008) oder einer Bewegungssonifikation beim Klavierspiel (Hadjakos, Aitenbichler & Mühlhäuser, 2008). Die Berichte enthalten jedoch mit Ausnahme der Ausführungen von Hadjakos, Aitenbichler und Mühlhäuser (2008) lediglich Beschreibungen der Sonifikationssysteme. Hadjakos, Aitenbichler und Mühlhäuser hingegen präsentieren Ergebnisse einer kleinen empirischen Evaluation zur klavierpädagogischen Wirkung, die zeigen, dass Musikstudierende die Klangkontrolle durch die Spielbewegungen zwar als gut, den potentiellen Nutzen für den Unterricht jedoch als gering einschätzten.

Insgesamt gibt es viele Ansätze, durch Sonifikationen von Musizierbewegungen das Instrumentalspiel zu verbessern, mit Ausnahme der genannten Studie von Grond et al. (2010) jedoch ohne systematisch verschiedene Sonifikationsstrategien zu evaluieren oder deren Wirkung auf Lerneffekte beim Instrumentalspiel experimentell zu untersuchen.

Sonifikation musikalischer Gesten und tänzerischer Bewegungen

Neben Sonifikationen von Musizierbewegungen beim Instrumentalspiel gibt es verschiedene Projekte, musikbezogene Gesten tänzerischen Charakters zu sonifizieren und so interaktive Tanzräume zu schaffen oder Tanzperformances zu untersuchen. Hierbei geht es den Forschern insbesondere um musik- oder tanzpädagogische Effekte durch ein zusätzliches auditives Feedback in Form von Bewegungssonifikationen. Tanzbewegungen unterscheiden sich aufgrund ihres primär körperlich-visuellen Fokus von Musizierbewegungen, die eher auf auditive Funktionen abzielen (Bahn, Hahn & Trueman, 2001). Aylward und Paradiso (2006) stellten ein kabelloses Sensorensystem vor, welches auf Basis von Accelerometerdaten die Synchronisierung mehrerer Tänzer in einem Raum analysierte und zudem – durch Transformation der Daten in Klänge – das Tanzensemble gemeinsam die erklingende Musik kontrollieren lassen konnte.

Andere Studien untersuchen pädagogische Effekte von interaktiven Sonifikationen beim Tanz. So entwickelten Francoise et al. (2014) ein System, welches Tanzbewegungen mit zuvor aufgenommenen verbalen tanzpädagogischen Expertenkommentaren auf Basis der Laban Movement Analysis und den darin enthaltenen Effektfaktoren (Laban & Lawrence, 1947) in Echtzeit verknüpft, um Tänzern so ein verbal auditives Feedback während ihrer Performance zu geben. Explorative Befragungen im Rahmen eines Workshops zeigen, dass Tänzer positive Erfahrungen mit dieser Art des Feedbacks verbinden.

Landry, Ryan und Jeon (2014) berichten hingegen, dass sich Tänzer in Interviews eher zurückhaltend zeigten hinsichtlich der Möglichkeit, musikalische Parameter im Rahmen einer Echtzeit-Bewegungssonifikation kontrollieren zu können, da für sie der Fokus mehr auf den visuellen Aspekten des Tanzes liegen würde. Das verwendete Tanz-Sonifikationssystem iISoP (immersive Interactive Sonification Platform) soll eine Übertragung von kinematischen und dynamischen Körper-Bewegungsinformationen zu einem Affekt-Klassifikations-System ermöglichen (Landry, 2015). So entsprechen Körpergrößenverhältnisse einer hohen oder niedrigen Valenz und die Beschleunigungsinformationen einer hohen oder niedrigen Erregung. Nach einer weiteren Evaluation verschiedener Sonifikationsszenarien im Rahmen des iISoP-Projektes kommen Landry und Jeon (2017) zu der Schlussfolgerung, dass komplexe Sonifikationen und die Vertonung vieler Bewegungseigenschaften nicht unbedingt zu einer höheren Interaktivität führen. Sie betonen, dass eine auditive Darstellung sich daher immer im Spannungsfeld zwischen Nutzerkontrolle und einem automatischen System bewegt, das einen für die Nutzer angenehmen Klang produziert. Diese Aussage bezieht sich auf eine entscheidende Frage im Hinblick auf die Relevanz verschiedener Kriterien bei der Entwicklung von Sonifikationen in Abhängigkeit ihrer Anwendungsziele.

Eine weitere Studie beschäftigt sich mit der Bedeutung von Flüssigkeit („fluidity“) als einer wichtigen Bewegungsqualität im Tanz (Alborno et al., 2016; Kolykhalova et al., 2016). Die Autoren führten einen experimentellen Test mit verschiedenen Sonifikationen auf Basis der Flüssigkeit von Tanzbewegungen durch. Ergebnisse zeigen, dass Studienteilnehmer zu denjenigen Sonifikationen besser tanzen konnten, die eine hohe spektrale Glätte sowie keine hörbaren Schnitte enthielten, da diese die Flüssigkeit von Bewegungen mit geringen Zuckungen gut auditiv darstellen. Naveda und Leman (2008) sonifizierten rhythmische Strukturen von Bewegungen im Sambatanz und konnten feststellen, dass bestimmte Tanzmuster musikalische Rhythmen verkörpern. In dieser Studie wurden Bewegungsparameter einer Samba-Tanzperformance im Hinblick auf rhythmische Muster analysiert und anschließend mit Samba-typischen Perkussionsinstrumenten verklanglicht. Die Autoren schlussfolgern auf Basis einer subjektiven Evaluation, dass der „Samba Style“ in der Sonifikation wiederzuerkennen war.

Im Rahmen eines der wenigen Forschungsprojekte in diesem Bereich mit konsekutiv durchgeführten Experimenten konnten Kinder drei unterschiedliche interaktive Bewegungssonifikationen mit freien Tanzbewegungen ausprobieren (Frid et al., 2016). Bewegungsanalysen zeigten trotz hoher intersubjektiver Unterschiede in den Bewegungen kleine Effekte der unterschiedlichen Sonifikationsstrategien auf die Bewegungsenergie. Das heißt, dass diejenigen Tanzbewegungen, die mit Hilfe der zweiten von drei Sonifikationsstrategien (S1-S3) ausgeführt worden sind, die größte Bewegungsenergie aufwiesen. S2 bestand aus einem gefilterten weißen Rauschen mit eher abrupt unterbrochenen Amplitudenhüllkurven. In einem multimodalen Wahrnehmungsexperiment wurden daraufhin Teilnehmern Bewegungsaufnahmen der Interaktionen mit unterschiedlichen Sonifikationsstrategien zur Bewertung präsentiert. Hierbei fanden Frid et al., dass die Sonifikationsstrategie S1 (sanfter windartiger Klang) im Vergleich zu anderen Sonifikationsstrategien zu höheren Bewertungen der Bewegungseigenschaften Expressivität und Flüssigkeit („fluidity“) über alle Modalitäten hinweg führte. Ergebnisse einer dritten Teilstudie zeigen, dass Zeichnungen der Kinder während des Hörens der S1 von einer großen Anzahl von Teilnehmern (64%, N = 146) korrekt zum Klang von S1 zugeordnet werden konnten. Interessant ist hier, dass die Wahl der Klangeigenschaften sowohl die Performance mit interaktiven Bewegungssonifikationen, als auch die Wahrnehmung dieser hinsichtlich verschiedener Bewegungsqualitäten unterschiedlich beeinflusst.

Insgesamt stellt sich die Erforschung körperbezogener tänzerischer Gesten als vielversprechendes Untersuchungsfeld dar, um die Wirkung von Bewegungssonifikationen auf Handlungs- und Wahrnehmungsmechanismen zu untersuchen. Adäquat zu den dargestellten Erkenntnissen im Rehabilitations- und Sportbereich ist die Quantität der technischen Entwicklungen und explorativen Forschungsansätze sehr hoch, benötigt werden allerdings verstärkt systematische Evaluationen und kontrollierte experimentelle Studien, um aussagekräftige Effekte auf Prozesse des Bewegungslernen in allen hier aufgeführten Anwendungsbereichen (Rehabilitation, Sport, Musik, Tanz) zu belegen.

Evaluation von Bewegungssonifikationen

Aufgrund der Fülle an empirischen Untersuchungen, in denen Bewegungssonifikationen in diversen Anwendungsbereichen mit zum Teil sehr unterschiedlichen Forschungszielen eingesetzt wurden, ist die Herausforderung groß, die Effektivität von Sonifikation als wissenschaftliche Methode domänenübergreifend zu bestimmen. Dennoch besteht die Notwendigkeit systematischer Evaluationen verschiedener Sonifikationsansätze in unterschiedlichen Forschungssettings (Dubus & Bresin, 2013; Vogt, 2011), um zumindest aufgabenspezifisch Ergebnisse zur Wirkung von Bewegungssonifikationen zusammenfassend interpretieren und so generalisierende Erkenntnisse für einzelne Forschungsbereiche gewinnen zu können.

In einem umfangreichen systematischen Überblicksartikel stellten sich Dubus und Bresin (2013) der Aufgabe, verschiedene Mapping-Strategien von Sonifikationen im Hinblick auf die Häufigkeiten der sonifizierten physikalischen Parameter, der verwendeten auditiven Parameter und der Mapping-Paare beider Dimensionen in 60 Forschungsprojekten zu analysieren. Dabei konnten sie zeigen, dass Tonhöhe ungeachtet der physikalischen Parameter signifikant am häufigsten im Rahmen einer Sonifikation verwendet wurde (gefolgt von Laustärke und Dauer). Hingegen wurden a) Positionsdaten und räumliche Klangeigenschaften (Spatialization) sowie b) Positionsdaten und Tonhöhe als die am häufigsten eingesetzten Mapping-Paare ausgemacht. Hinsichtlich signifikant mehr oder weniger effektiveren Mapping-Strategien, die innerhalb ein und desselben Forschungsprojektes getestet wurden, fanden die Autoren nur sehr wenige Studien mit diesbezüglichen Angaben (6,1% aller einbezogenen Veröffentlichungen): „We have found that only a marginal proportion of mapping occurrences have been assessed, highlighting the lack of evaluation in sonification design“ (Dubus & Bresin, 2013, S. 23).

Bisherige Ansätze zur Evaluation von Sonifikationsstrategien

Nur wenige der hier bereits erwähnten Forschungsprojekte versuchten, verschiedene Varianten von Sonifikationen oder auditivem Feedback auf deren Wirkungen hinsichtlich ästhetischer Beurteilungen, Lern- oder Rehabilitationseffekten zu evaluieren (z. B. Dozza et al., 2011; Effenberg & Schmitz, 2018; Frid et al., 2016; Ng et al., 2007; Schaffert, Mattes, Barrass & Effenberg, 2009; Schmitz et al., 2013; Scholz et al., 2014). Dabei zielt die Evaluation jedoch nicht ausschließlich darauf ab, verschiedene Mapping-Strategien der Bewegungsparameter und auditiven Parameter zu vergleichen, sondern beispielsweise auch die Unterschiede zwischen natürlichem und nicht-natürlichem auditiven Feedback (Effenberg et al., 2016; Kennel et al., 2015; Murgia et al., 2012), zwischen lösungs- und fehler-orientierten Sonifikationen (Rosati et al., 2012) oder zwischen vielen verschiedenen Typen auditiven Feedbacks (Hermann et al., 2012; Lesaffre et al., 2015; Vinken et al., 2013) zu erforschen.

Barrass, Schaffert und Barrass (2010) führten ein Experiment zur Testung eines mobilen Echtzeit-Sonifikationsgerätes (basierend auf einem am Unterarm angebrachten Beschleunigungssensor) durch, in dem Teilnehmer freie Bewegungen durchführen konnten, die jeweils auf sechs unterschiedliche Weisen sonifiziert wurden. Ergebnisse zeigen, dass bei einer freien Auswahl die algorithmische Sonifikation bestehend aus einem Mapping von Beschleunigungsdaten und verschiedenen elektronischen Instrumenten sowohl am längsten angehört, als auch als am angenehmsten bewertet wurde. In anderen Worten: wenn Versuchsteilnehmer vorher selbst entscheiden konnten, welche Sonifikation sie hören, dann fiel die Wahl auf eine Parameter-Mapping Sonifikation auf Basis von Beschleunigungsdaten der Bewegung.

Degara, Hermann und Nagel (2013) weisen ebenfalls auf das Fehlen systematischer Evaluationsansätze im Sonifikationsbereich hin. Diesem Bedarf entsprechend konzipierten sie ein Rahmenmodell namens SonEX (Sonification Evaluation eXchange) als Orientierungsplattform mit Richtlinien für die Sonifikationsforschung. Sie beschreiben im Kontext dieses Rahmens die optimalen Arbeitsweisen, aber auch Herausforderungen bei der Evaluation von Sonifikationen. Die Idee von SonEX ist hierbei, dass ein Forscher seine Sonifikationsaufgabe mit anderen Wissenschaftlern teilt und damit Sonifikationsansätze verschiedener Forscher in das Forschungsdesign implementiert und zugleich reproduziert werden können. Anhand der Beschreibung eines konkreten Forschungsbeispiels wird zusätzlich die hypothetische Arbeitsstruktur unter dem SonEX-Rahmen erläutert. Eine den Vorgaben entsprechende Umsetzung des Programms ist unseres Wissens nicht erfolgt, allerdings gibt es einige Arbeiten, die ihr Projekt im SonEX-Rahmen verorten oder sich auf die Richtlinien beziehen (Degara, Kuppanda & Nagel, 2013; Kuppanda et al., 2015; Nagel et al., 2014; Radecki et al., 2016).

Dementsprechend besteht weiterhin Bedarf zur experimentellen Untersuchung der Wirkung von verschiedenen Bewegungssonifikationen und deren Mapping-Strategien auf die gleichen Bewegungsaufgaben, sei es in Bezug auf domänenübergreifende Bewegungstests oder domänenspezifische Forschung in den bereits hier skizzierten Forschungsbereichen.

Zwei experimentelle musikpsychologische Studien zur Evaluation von Bewegungssonifikationen musikalischer Gesten

Vor diesem Hintergrund führten wir zwei musikpsychologische Studien durch, um die Wirkung von drei verschiedenen Bewegungssonifikationen musikalischer Gesten auf Wahrnehmungsprozesse der Selbst-Fremd-Erkennung (Hohagen, in Vorb.) und Urteile zur Ästhetik und Korrespondenz (Hohagen & Wöllner, 2017; Hohagen, Wöllner & Hermann, 2017) zu überprüfen.

Vor der Durchführung von Bewegungsaufnahmen mit Hilfe eines Motion-Capture-Systems (Optitrack) wurden Teilnehmern reflektierende Marker am Körper befestigt (siehe Abbildung 1). Diese sollten fünf verschiedene Bewegungsaufgaben – sogenannte verbal-instruierte, metaphorische Gesten – ausführen, d. h. die Teilnehmer stellten sich zuerst Armbewegungen in einer Bühnensituation vor und führten diese Gesten anschließend aus. Währenddessen wurden dreidimensionale Positionsdaten der Bewegungen durch das Motion-Capture-System erfasst. Anschließend wurden die Daten der Handbewegungen mit Hilfe dreier verschiedener Mapping-Strategien sonifiziert und Licht-Punkt-Filme der Gestenbewegungen erstellt (siehe Abbildung 1).

Abbildung 1

Teilnehmer während der Gestenausführung und Standbild eines Licht-Punkt-Films des Oberkörpermodells (Studie 2).

Die drei Sonifikationen unterschieden sich durch verschiedene Mapping-Strategien. In einer „kinetischen“ Sonifikation (kinSon) wurden vertikale Positionsdaten der Bewegungen des relevanten Markers (grüner Marker im Standbild eines Licht-Punkt-Films, Abbildung 1, rechts) mit der Tonhöhe sowie horizontale Bewegungsdaten mit einem Stereo-Panning eines gefilterten weißen Rauschens mit windartigem Klang verknüpft. Sagittale Positionsdaten wurden mit der Impulsrate eines Geigerzähler-ähnlichen Signals verknüpft. Die „energetische“ Sonifikation (enSon) bestand zusätzlich zu den Mappings der kinSon aus einer Verknüpfung von Geschwindigkeitsdaten der Bewegungen mit Lautstärkeveränderungen des Klanges. Abbildung 2 stellt zur Veranschaulichung des Mappings das Geschwindigkeitsprofil einer beispielhaften Bewegung und die Wellenform des entsprechenden Sonifikationsklanges dar. In der „dynamischen“ Sonifikation (dynSon) wurde zusätzlich zu den beschriebenen Mappings (kinSon und enSon) die absolute Beschleunigung der Bewegung mit einer Amplitudenmodulation der Klangfrequenz und Klangintensität („Rauheit“) verknüpft.

Abbildung 2

Geschwindigkeitsprofil einer Markerbewegung und Oszillogramm ihrer energetischen Sonifikation (enSon).

Im Rahmen einer ersten Studie sollte anhand eines multimodalen Selbst-Fremd-Erkennungsparadigmas (Schmitz & Effenberg, 2012, Sevdalis & Keller, 2010; Wöllner, 2012) getestet werden, ob darin implementierte Bewegungssonifikationen Prozesse der Wahrnehmungs-Handlungs-Kopplung, multimodaler Integration und erlebten Urheberschaft (Agency) beeinflussen. Neun Monate nach der Aufnahme der Bewegungsdaten konnten 27 Teilnehmer der ursprünglichen Stichprobe für ein Online-Experiment mit einem zweifaktoriellen (Modalität x Sonifikation) Messwiederholungs-Design gewonnen werden, in dessen Rahmen sie die Aufgabe hatten, jeweils nach den visuellen (Licht-Punkt-Film), auditiven (Sonifikationen) und audiovisuellen Darstellungen eigener und fremder Bewegungen ihre eigenen Handlungen zu identifizieren.

Die Ergebnisse zeigen, dass entgegen unseren Vermutungen die Selbsterkennung nur in vier der elf Bedingungen erfolgreich war (d’-prime Werte als abhängige Variablen; Signal Detection Theory, Green & Swets, 1966; siehe auch Wöllner, 2012). Die Teilnehmer erkannten sich signifikant überzufällig in der audiovisuellen, freien Bedingung mit dynamischer Sonifikation und anhand der audiovisuell dargestellten, stark instruierten Bewegungen mit Hilfe der dynamischen und energetischen Sonifikationen. Trotz der Trainingsphase konnten die Teilnehmer sich nicht allein anhand der rein auditiv dargestellten Bewegungsinformationen identifizieren (siehe auch Hohagen & Wöllner, 2016; andere Ergebnisse erzielten Schmitz & Effenberg, 2012). Weitere Ergebnisse einer Messwiederholungs-ANOVA bestätigten jedoch unsere Hypothese, dass die Selbsterkennung in den audiovisuellen Darstellungen und mit Hilfe der energetischen und dynamischen Sonifikationen besser gelingt als in der kinetischen Sonifikation. Die Teilnehmer waren also bei der Wahrnehmung in der Lage, die Übertragungen von dynamischen Bewegungsinformationen (Geschwindigkeits- und Beschleunigungsdaten) in Verklanglichungen ihrer Bewegungen multimodal zu integrieren und so die Erkennungsleistung durch die umfassendere Sonifikation zu steigern.

Die zweite Studie bestand aus einem Online-Experiment zur ästhetischen Beurteilung von vier verschiedenen musikalischen Gesten, die aus den bereits beschriebenen Bewegungsaufnahmen ausgewählt wurden, und der drei verschiedenen Sonifikationen (kinSon, enSon, dynSon). Hier bewerteten 54 Teilnehmer 7s-Ausschnitte von multimodalen Darstellungen der Gesten im Rahmen eines Evaluationsparadigmas hinsichtlich des Gefallens und der Korrespondenz zwischen Bewegung und Sonifikation (immer audiovisuell), d. h. sie sollten angeben, wie gut der gehörte Klang mit der gesehenen Bewegung zusammenpasst. Die visuellen Darstellungen bestanden aus Licht-Punkt-Filmen eines modifizierten Oberkörpermodells (11-Marker; Kopf, Rumpf, rechter Arm, siehe Abb. 1), um den Fokus auf die Gesten des rechten Armes zu legen.

Die Ergebnisse zeigen, dass die enSon signifikant besser gefiel, als die anderen Mapping-Strategien. Eine Erklärung, warum die dynSon weniger gut bewertet wurde, liegt eventuell in einem Nicht-Gefallen der im Rahmen dieser Mapping-Strategie ergänzten Rauheit des Klanges. Insgesamt gefielen die audiovisuellen Darstellungen wie angenommen signifikant besser als die rein auditiven Bewegungspräsentationen. Im Hinblick auf die Korrespondenzurteile zeigen die Ergebnisse außerdem, dass die dynamischen Sonifikationen (enSon und dynSon) signifikant besser zu den zusätzlich visuell dargestellten Bewegungen passten als die kinSon allein.

Zusammenfassend geben die Ergebnisse Hinweise auf psychologische Prozesse bei der Wahrnehmung verschiedener Sonifikationsstrategien. So konnten wir zeigen, dass Mapping-Strategien mit zusätzlichen dynamischen Bewegungsinformationen in einem Selbst-Fremd-Erkennungstest dazu führen, die eigenen Handlungen besser zu erkennen (Hohagen, in Vorb.). Diese Befunde spiegeln sich auch in den Ergebnissen zu den ästhetischen Bewertungen und Korrespondenzurteilen wider. Hier zeigen die Analysen größeres Gefallen und stärkere Korrespondenz für Sonifikationen, welche dynamische Bewegungsinformationen verklanglichen. Dies könnte ein weiteres Indiz dafür sein, dass ästhetische Beurteilungen bei Prozessen der multimodalen Integration und Wahrnehmungs-Handlungs-Kopplung eine wichtige Rolle spielen und demnach auch bei Experimenten zum Bewegungslernen durch auditives Feedback verstärkt berücksichtigt werden sollten.

Schlussfolgerungen

Dieser Artikel beschäftigte sich mit definitorischen Konzepten, psychologischen Grundlagen und Anwendungsbereichen von Bewegungssonifikationen. Im Fokus dieses systematischen Überblicks steht die Umsetzung von Sonifikation in den etablierten Anwendungsbereichen Rehabilitation, Sport, Musik und Tanz sowie Möglichkeiten ihrer Evaluation.

Methoden aus den hier vorgestellten Studien zeigen, wie sich der Zweck des Einsatzes von Bewegungssonifikationen in den Anwendungsbereichen unterscheidet. Ergebnisse aus experimentellen Untersuchungen im Rehabilitationsbereich deuten darauf hin, dass augmentiertes auditives Feedback in Form einer Bewegungssonifikation zum Beispiel Schlaganfallpatienten hilft, Armbewegungen präziser auszuführen (Secoli et al., 2011). Bewegungssonifikationen können als Mittel für die Rehabilitation von Haltungs- und Gleichgewichtsstörungen erfolgreich eingesetzt werden (Dozza et al., 2011). Anhand von Retentionstests gemessene Lerneffekte bei der Lösung bestimmter Bewegungsaufgaben sind stärker mit auditivem Feedback im Vergleich zu visuellen Rückmeldungen (Dyer et al., 2017).

Zudem ist eine Sonifikation von externen, auch visuell wahrnehmbaren Bewegungsdaten erfolgreicher als die direkte „interne“ Verklanglichung von Körperbewegungen (Rosati et al., 2012). Dies weist darauf hin, dass beim Bewegungslernen mit Hilfe von auditivem bzw. audiovisuellem Feedback ähnliche Prozesse eine Rolle spielen, wie bei Tests zur Unterscheidung zwischen internem und externem Aufmerksamkeitsfokus mit visuellem oder verbalem Feedback und deren Erfolg hinsichtlich der Bewegungsaufgabe. Viele Ergebnisse zeigen in diesem Zusammenhang einen Vorteil durch externe Aufmerksamkeitsfokussierung (Wulf, 2013). Positive Effekte von Bewegungssonifikationen auf sportliche Leistungen sind hinsichtlich der Ergebnisse aus verschiedenen Tests zur Bewegungswahrnehmung naheliegend, allerdings lediglich im Hinblick auf Performance- und Wahrnehmungsleistungen im Schwimmen (Effenberg et al., 2016) und Rudern (Schaffert, 2011; Schmitz & Effenberg, 2012) hinreichend erforscht. Eine positive Wirkung von natürlichem auditiven Feedback auf relevante Wahrnehmungsprozesse spezieller Laufbewegungen ist ebenfalls festzustellen (Kennel et al., 2015).

Im Musik- und Tanzbereich gibt es nur wenige experimentelle Studien zur Überprüfung der vermuteten positiven Wirkungen von Bewegungssonifikationen auf die Instrumentalpädagogik oder das Tanztraining. Frid et al. (2016) zeigten, dass verschiedene interaktive Sonifikationsstrategien sowohl Bewegungsausführungen als auch Wahrnehmungsvorgänge von Kindern beim Tanzen entsprechend beeinflussen können. Genau diese systematischen Evaluationsansätze sind notwendig, um aussagekräftige Ergebnisse zu sammeln und so die Wirkung von Bewegungssonifikationen besser einschätzen zu können (Dubus & Bresin, 2013). Mit einem systematischen Ansatz konnten wir Hinweise geben, dass Bewegungssonifikationen musikalischer Gesten, die aus einer Verklanglichung dynamischer Bewegungsinformationen bestehen, sowohl zu erfolgreicherer Selbsterkennung (Hohagen, in Vorb.) als auch zu höheren Gefallensurteilen der Gesten führen (Hohagen & Wöllner, 2017).

Im Rahmen dieses Artikels erscheint die Beschreibung der oft betonten Sonifikationsstrategie, das heißt die Wahl der Sonifikationstechnik (siehe Tabelle 1) oder des auditiven Feedbacks, und der Mapping-Strategie von großer Relevanz. Diese Beschreibungen geben Auskunft über die Ideen der Forscher, welches Ziel die Sonifikation in der jeweiligen Anwendung hat und sollten demnach obligatorisch für Forschungsberichte sein (Hermann, 2008). Leider sind die Ausführungen zu den Eigenschaften der Klänge, die im Rahmen von Bewegungssonifikationen verwendet bzw. generiert werden, oft sehr kurz oder gar nicht vorhanden. Dies stellt eine Herausforderung für die musikpsychologische Erforschung von Bewegungssonifikationen dar, vor allem da Erfahrungen, Vergleiche und Repräsentationen aus alltäglichen und wissenschaftlichen Bereichen fehlen, die eine musikpsychologische Analyse musikalischer Stimuli sonst vereinfachen oder überhaupt erst ermöglichen würden. Dem entsprechend gilt es, Bewegungssonifikationen in Zukunft nicht nur im Hinblick auf die soeben genannten Effekte, sondern auch bezüglich der ästhetischen Qualität des Klanges systematisch zu evaluieren. Erforderlich ist dies nicht nur innerhalb eines Forschungsdesigns zur Überprüfung von Wirkungshypothesen, sondern auch in gezielt breit angelegten und domänenübergreifenden Evaluationsprojekten, deren Ergebnisse Grundlagen für weiterführende und anwendungsbezogene experimentelle Forschung schaffen.

Unbekannt ist bis hierhin das Ausmaß emotionaler Reaktion auf Bewegungssonifikationen. Studien zeigen zwar, dass Sonifikationen ähnlich zu Musik Emotionen kommunizieren können (DeWitt & Bresin, 2007; Tajadura-Jiménez et al., 2015; Winters & Wanderley, 2014). Welchen Einfluss hat aber die emotionale Verarbeitung auf die Wirkung von Sonifikationen im Bereich des Bewegungslernens? Des Weiteren stellt sich die Frage, welchen Einfluss Anwendungen von Bewegungssonifikationen auf die frühe musikalische Entwicklung haben, die sehr stark mit der motorischen Entwicklung zusammenhängt. Aus musikpsychologischer Perspektive sind dies interessante Fragestellungen, die es lohnt in Zukunft genauer zu betrachten und so einen Beitrag aus neuen Perspektiven (Emotionspsychologie, Entwicklungspsychologie) zum interdisziplinären Forschungsbereich Bewegungssonifikation zu leisten.

Bewegungssonifikationen können aufgrund ihrer Eigenschaft, eine Vielzahl von Elementen menschlicher Handlungen je nach Konzept und Strategie unterschiedlich auditiv darzustellen, besondere und ganzheitliche auditive Wahrnehmungsvorgänge begünstigen. Allerdings stellt die oft betonte „intuitive“ Anwendung von Bewegungssonifikationen allein noch keinen Beweis für ihre Wirkung in verschiedenen Settings dar. Die Möglichkeit, körperliche Bewegungsmuster in Zeit und Raum lediglich auditiv zu empfinden, zu vermitteln und wahrzunehmen, stellt tradierte visuell-orientierte Theorien und Praxen motorischen Lernens auf die Probe und bietet vielversprechende Entwicklungen in Forschung und Alltag. Profitieren könnten davon zukünftig Menschen in Lernkontexten auch über die hier behandelten Bereiche hinaus.

Finanzierung

Die Autoren haben keine Finanzierung zu berichten.

Interessenkonflikte

Die Autoren erklären, dass keine konkurrierenden Interessen bestehen.

Danksagung

Die Autoren haben keine Unterstützung zu berichten.

Ethikerklärung

Die eingereichte Arbeit ist ein Überblicksreferat, daher wurde keine Ethikerklärung eingeholt.

Datenverfügbarkeit

Die eingereichte Arbeit ist ein Überblicksreferat, daher werden keine zugehörigen Daten zur Verfügung gestellt.

Literatur

  • Alborno, P., Cera, A., Piana, S., Mancini, M., Niewiadomski, R. & Canepa, C. … Camurri, A. (2016). Interactive sonification of movement qualities – a case study on fluidity. Proceedings of the 5th Interactive Sonification Workshop (ISon) 2016 (S. 28-33), Bielefeld, Deutschland.

  • Agostini, T., Righi, G., Galmonte, A. & Bruno, P. (2004). The relevance of auditory information in optimizing hammer throwers performance. In P. B. Pascolo (Hrsg.), Biomechanics and sports. CISM courses and lectures, vol 473 (S. 67-74). Wien, Österreich: Springer.

  • Aylward, R. & Paradiso, J. A. (2006). Sensemble: A wireless, compact, multi-user sensor system for interactive dance. In A. R. Jensenius & M. J. Lyons (Hrsg.), A NIME reader. Fifteen years of new interfaces for musical expression (S. 253-265). Berlin, Deutschland: Springer.

  • Bahn, C., Hahn, T. & Trueman, D. (2001). Physicality and feedback: A focus on the body in the performance of electronic music. Proceedings of the International Computer Music Conference (ICMC) 2011 (S. 44-51), Havanna, Kuba.

  • Barrass, S., Schaffert, N. & Barrass, T. (2010). Probing preferences between six designs of interactive sonifications for recreational sports, health and fitness. In R. Bresin, T. Hermann & A. Hunt (Hrsg.), Proceedings of ISon 2010, 3rd Interactive Sonification Workshop (S. 23-29). Stockholm, Schweden: KTH Royal Institute of Technology.

  • Barrass, S. & Vickers, P. (2011). Sonification design and aesthetics. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 145-171). Berlin, Deutschland: Logos.

  • Baudry, L., Leroy, D., Thouvarecq, R., & Chollet, D. (2006). Auditory concurrent feedback benefits on the circle performed in gymnastics. Journal of Sports Sciences, 24(2), 149-156. https://doi.org/ 10.1080/02640410500130979

  • Bevilacqua, F., Rasamimanana, N., Fléty, E., Lemouton, S. & Baschet, F. (2006). The augmented violin project: research, composition and performance report. Proceeding of the 2006 International Conference on New Interfaces for Musical Expression (NIME) 2006, Paris, Frankreich.

  • Blattner, M. M., Sumikawa, D. A., & Greenberg, R. M. (1989). Earcons and icons: Their structure and common design principles. Human-Computer Interaction, 4(1), 11-44. https://doi.org/ 10.1207/s15327051hci0401_1

  • Bradshaw, D. & Ng, K. (2008). Analyzing a conductors gestures with the wiimote. Proceedings of the Electronic Visualisation and the Arts Conference (EVA) 2008 (S. 35-42), London, Vereinigtes Königreich.

  • Brazil, E. & Fernström, M. (2011). Auditory icons. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 325-338). Berlin, Deutschland: Logos.

  • Brückner, H.-P., Theimer, W. & Blume, H. (2014). Real-time low latency movement sonification in stroke rehabilitation based on a mobile platform. Proceedings of the IEEE Conference on Consumer Electronics (ICCE) 2014 (S. 264-265), Las Vegas, NV, USA.

  • Camurri, A. & Volpe, G. (Eds.). (2004). Gesture-based communication in human-computer interaction. 5th International Gesture Workshop, GW 2003. Berlin, Deutschland: Springer.

  • Caramiaux, B., Alaoui, S. F., Bouchara, T., Parseihian, G. & Rébillat, M. (2011) Gestural auditory and visual interactive platform. Proceedings of the 14th International Conference on Digital Audio Effects (DAFx-11) 2011 (S. 69-72), Paris, Frankreich.

  • Chen, J. L., Fujii, S., & Schlaug, G. (2016). The use of augmented auditory feedback to improve arm reaching in stroke: a case series. Disability and Rehabilitation, 38(11), 1115-1124. https://doi.org/ 10.3109/09638288.2015.1076530

  • Chiari, L., Dozza, M., Cappello, A., Horak, F. B., Macellari, V., & Giansanti, D. (2005). Audio-biofeedback for balance improvement: An accelerometry-based system. IEEE Transactions on Biomedical Engineering, 52(12), 2108-2111. https://doi.org/ 10.1109/TBME.2005.857673

  • Chion, M. (1983). Guide des objets sonores: Pierre Schaeffer et la recherche musicale. Paris, Frankreich: Buchet/Chastel.

  • Degara, N., Hermann, T. & Nagel, F. (2013). SonEX: An evaluation exchange framework for reproducible sonification. Proceedings of the International Conference on Auditory Display (ICAD) 2013 (S. 167-174), Lodz, Polen.

  • Degara, N., Kuppanda, T. & Nagel, F. (2013). The walking game: A framework for evaluating sonification methods in blind navigation. Proceedings of the 4th Interactive Sonification Workshop (ISon) 2013 (S. 52-57), Erlangen, Deutschland.

  • Demoucron, M. & René, C. (2007). Sound synthesis of bowed string instruments using a gesture based control of a physical model. Proceedings of the International Symposium on Musical Acoustics 2007, Barcelona, Spanien.

  • DeWitt, A. & Bresin, R. (2007). Sound design for affective interaction. In C. R. Ana, R. Paiva, R. Prada & W. Picard (Hrsg.), Affective Computing and Intelligent Interaction. Second International Conference, ACII 2007 (S. 523-533). Berlin, Deutschland: Springer.

  • Diniz, N., Coussement, P., Deweppe, A., Demey, M., & Leman, M. (2012). An embodied music cognition approach to multilevel interactive sonification. Journal on Multimodal User Interfaces, 5, 211-219. https://doi.org/ 10.1007/s12193-011-0084-2

  • Dobrian, C. & Bevilacqua, F. (2003). Gestural control of music using the Vicon 8 motion capture system. Proceedings of the 2003 Conference on New Interfaces for Musical Expression (NIME) 2003 (S. 161-163), Montreal, Kanada.

  • Dombois, F. & Eckel, G. (2011). Audification. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 301-324). Berlin, Deutschland: Logos.

  • Dozza, M., Chiari, L., Chan, B., Rocchi, L., Horak, F. B., & Cappello, A. (2005). Influence of a portable audio-biofeedback device on structural properties of postural sway. Journal of Neuroengineering and Rehabilitation, 2, Article 13. https://doi.org/ 10.1186/1743-0003-2-13

  • Dozza, M., Chiari, L., Hlavacka, F., Cappello, A., & Horak, F. B. (2006). Effects of linear versus sigmoid coding of visual or audio biofeedback for the control of upright stance. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 14(4), 505-512. https://doi.org/ 10.1109/TNSRE.2006.886732

  • Dozza, M., Chiari, L., Peterka, R. J., Wall, C., & Horak, F. B. (2011). What is the most effective type of audio-biofeedback for postural motor learning? Gait & Posture, 34, 313-319. https://doi.org/ 10.1016/j.gaitpost.2011.05.016

  • Dubus, G. & Bresin, R. (2010). Sonification of sculler movements, development of preliminary methods. In R. Bresin, T. Hermann & A. Hunt (Hrsg.), Proceedings of ISon 2010, 3rd Interactive Sonification Workshop (S. 39-43). Stockholm, Schweden: KTH Royal Institute of Technology.

  • Dubus, G., & Bresin, R. (2013). A systematic review of mapping strategies for the sonification of physical quantities. PLoS One, 8(12), Article e82491. https://doi.org/ 10.1371/journal.pone.0082491

  • Dyer, J., Stapleton, P., & Rodger, M. (2017). Transposing musical skill: Sonification of movement as concurrent augmented feedback enhances learning in a bimanual task. Psychological Research, 81, 850-862. https://doi.org/ 10.1007/s00426-016-0775-0

  • Effenberg, A. O. (2000). Zum Potential komplexer akustischer Bewegungsinformationen für die Technikansteuerung. Leistungssport, 5, 19-25.

  • Effenberg, A. O. (2004). Using sonification to enhance perception and reproduction accuracy of human movement patterns. In T. Hermann & A. Hunt (Hrsg.), Proceedings of the International Workshop on Interactive Sonification (ISon) 2004, Bielefeld, Deutschland.

  • Effenberg, A. O. (2005). Movement sonification: Effects on perception and action. IEEE MultiMedia, 12(2), 53-59. https://doi.org/ 10.1109/MMUL.2005.31

  • Effenberg, A. O. (2011). Enhancing motor control and learning by additional movement sonification. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 547-551). Berlin, Deutschland: Logos.

  • Effenberg, A. O., Fehse, U., Schmitz, G., Krueger, B., & Mechling, H. (2016). Movement sonification: Effects on motor learning beyond rhythmic adjustments. Frontiers in Neuroscience, 10, Articles 219. https://doi.org/ 10.3389/fnins.2016.00219

  • Effenberg, A. O., Fehse, U., & Weber, A. (2011). Movement sonification: Audiovisual benefits on motor learning. BIO Web Conference, 1, Article 00022.

  • Effenberg, A. O., Melzer, J., Weber, A. & Zinke, A. (2005). MotionLab Sonify: A framework for the sonification of human motion data. Proceedings of the Ninth International Conference on Information Visualisation (IV) 2005, London, Vereinigtes Königreich.

  • Effenberg, A. O., & Schmitz, G. (2018). Acceleration and deceleration at constant speed: Systematic modulation of motion perception by kinematic sonification. Annals of the New York Academy of Sciences, 1425, 52-69. https://doi.org/ 10.1111/nyas.13693

  • Effenberg, A. O., Schmitz, G., Baumann, F., Rosenhahn, B., & Kröger, D. (2015). SoundScript – Supporting the acquisition of character writing by multisensory integration. The Open Psychology Journal, 8, 230-237. https://doi.org/ 10.2174/1874350101508010230

  • Eriksson, M. & Bresin, R. (2010). Improving running mechanics by use of interactive sonification. In R. Bresin, T. Hermann & A. Hunt (Hrsg), Proceedings of ISon 2010, 3rd Interactive Sonification Workshop (S. 95-98). Stockholm, Schweden: KTH Royal Institute of Technology.

  • Eriksson, M., Halvorsen, K. A., & Gullstrand, L. (2011). Immediate effect of visual and auditory feedback to control the running mechanics of well-trained athletes. Journal of Sports Sciences, 29(3), 253-262. https://doi.org/ 10.1080/02640414.2010.523088

  • Fabiani, M., Dubus, G. & Bresin, R. (2010). Interactive sonification of emotionally expressive gestures by means of music performance. In R. Bresin, T. Hermann & A. Hunt (Hrsg.), Proceedings of ISon 2010, 3rd Interactive Sonification Workshop (S. 113-116). Stockholm, Schweden: KTH Royal Institute of Technology.

  • Fels, S. S., Gadd, A., & Mulder, A. (2002). Mapping transparency through metaphor: Towards more expressive musical instruments. Organised Sound, 7(2), 109-126. https://doi.org/ 10.1017/S1355771802002042

  • Fitch, W. T. & Kramer, G. (1994). Sonifying the body electric: Superiority of an auditory over a visual display in a complex, multivariate system. In G. Kramer (Hrsg.), Auditory display: Sonification, audification, and auditory interfaces. Proceedings of the First International Conference on Auditory Display (ICAD) 1992 (S. 307-326). Reading, MA, USA: Addison-Wesley.

  • Francoise, J., Alaoui, S.-F., Schiphorst, T. & Bevilacqua, F. (2014). Vocalizing dance movement for interactive sonification of Laban effort factors. Proceedings of the Conference on Designing Interactive Systems (DIS) 2014 (S. 1079-1082), Vancouver, Kanada.

  • Frid, E., Bresin, R., Alborno, P., & Elblaus, L. (2016). Interactive sonification of spontaneous movement of children – Cross-modal mapping and the perception of body movement qualities through sound. Frontiers in Neuroscience, 10, Article 521. https://doi.org/ 10.3389/fnins.2016.00521

  • Gaver, W. W. (1994). Using and creating auditory icons. In G. Kramer (Hrsg.), Auditory display: Sonification, audification, and auditory interfaces (S. 417-446). Reading, MA, USA: Addison-Wesley.

  • Ghai, S., Ghai, I., Schmitz, G., & Effenberg, A. O. (2018). Effect of rhythmic auditory cueing on parkinsonian gait: A systematic review and meta-analysis. Scientific Reports, 8, Article 506. https://doi.org/ 10.1038/s41598-017-16232-5

  • Giansanti, D., Dozza, M., Chiari, L., Maccioni, G., & Cappello, A. (2009). Energetic assessment of trunk postural modifications induced by a wearable audio-biofeedback system. Medical Engineering & Physics, 31, 48-54. https://doi.org/ 10.1016/j.medengphy.2008.04.004

  • Godøy, R. I. & Leman, M. (Eds.). (2010). Musical gestures: Sound, movement and meaning. New York, NY, USA: Routledge.

  • Green, D. M. & Swets, J. A. (1966). Signal detection theory and psychophysics. New York, NY, USA: Wiley.

  • Grond, F. (2012). Safety certificate: An audification performance of high-speed trains. AI & Society: Knowledge. Culture and Communication, 27(2), 293-295.

  • Grond, F. & Berger, J. (2011). Parameter mapping sonification. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 363-397). Berlin, Deutschland: Logos.

  • Grond, F., & Hermann, T. (2012). Aesthetic strategies in sonification. AI & Society: Knowledge. Culture and Communication, 27(2), 213-222.

  • Grond, F., Hermann, T., Verfaille, V. & Wanderley, M. M. (2010). Methods for effective sonification of clarinetists’ ancillary gestures. In S. Kopp & I. Wachsmuth (Hrsg.), Gesture in embodied cognition and human-computer-interaction. 8th International Gesture Workshop, GW 2009 (S. 171-181). Berlin, Deutschland: Springer.

  • Hadjakos, A., Aitenbichler, E. & Mühlhäuser, M. (2008). The elbow piano: Sonification of piano playing movements. In A. Camurri, S. Serafin & G. Volpe (Hrsg.), Proceedings of the 8th International Conference on New Interfaces for Musical Expression (NIME) 2008 (S. 285-288). Genua, Italien.

  • Hasegawa, S., Ishijima, S., Kato, F., Mitake, H. & Sato, M. (2012). Realtime sonification of the center of gravity for skiing. Proceedings of the 3rd Augmented Human International Conference (AH) 2012, Megève, Frankreich.

  • Hegeman, J., Honegger, F., Kupper, M., & Allum, J. H. J. (2005). The balance control of bilateral peripheral vestibular loss subjects and its improvement with auditory prosthetic feedback. Journal of Vestibular Research, 15, 109-117.

  • Helmer, R., Farrow, D., Lucas, S., Higgerson, G., & Blanchonette, I. (2010). Can interactive textiles influence a novice’s throwing technique? Procedia Engineering, 2(2), 2985-2990. https://doi.org/ 10.1016/j.proeng.2010.04.099

  • Hermann, T. (2002). Sonification for exploratory data analysis. Bielefeld, Deutschland: Universität Bielefeld.

  • Hermann, T. (2008). Taxonomy and definitions for sonification and auditory display. Proceedings of the 14th International Conference on Auditory Display (ICAD) 2008, Paris, Frankreich.

  • Hermann, T. (2010). Sonification - A definition. Abgerufen unter http://sonification.de/son/definition.

  • Hermann, T. (2011). Model-based sonification. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 399-427). Berlin, Deutschland: Logos.

  • Hermann, T., Baier, G., Stephani, U. & Ritter, H. (2006). Vocal sonification of pathologic EEG features. In T. Stockman (Hrsg.), Proceedings of the International Conference on Auditory Display (ICAD) 2006 (S. 158-163), London, Vereinigtes Königreich.

  • Hermann, T., Henning, T. & Ritter, H. (2004). Gesture desk – An integrated multi-modal gestural workplace for sonification. In A. Camurri & G. Volpe (Hrsg.), Gesture-based communication in human-computer interaction. 5th International Gesture Workshop, GW 2003 (S. 369-379). Berlin, Deutschland: Springer.

  • Hermann, T., Höner, O. & Ritter, H. (2006). AcouMotion – An interactive sonification system for acoustic motion control. In S. Gibet, N. Courty & J.-F. Kamp (Hrsg.), Gesture in human-computer-interaction. 6th International Gesture Workshop (GW) 2005 (S. 312-323). Berlin, Deutschland: Springer.

  • Hermann, T., Hunt, A. & Neuhoff, J. G. (2011). Introduction. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 1-6). Berlin, Deutschland: Logos.

  • Hermann, T., Meinicke, P., Bekel, H., Ritter, H., Müller, H. M. & Weiss, S. (2002) Sonification for EEG data analysis. In R. Nakatsu & H. Kawahara (Hrsg.), Proceedings of the International Conference on Auditory Display (ICAD) 2002 (S. 37-41), Kyoto, Japan.

  • Hermann, T. & Ritter, H. (1999). Listen to your data: Model-based sonification for data analysis. In G. E. Lasker & M. R. Syed (Hrsg.), Advances in intelligent computing and multimedia systems (S. 189-194). Windsor, Kanada: International Institute for Advanced Studies in System research and cybercinetics.

  • Hermann, T., Ungerechts, B., Toussaint, H. & Grote, M. (2012). Sonification of pressure changes in swimming for analysis and optimization. Proceedings of the International Conference on Auditory Display (ICAD) 2012 (S. 60-67), Atlanta, GA, USA.

  • Hewett, T. T., Baecker, R., Card, S., Carey, T., Gasen, J., Mantei, M., . . . Verplank, W. (Eds.). (1992). ACM SIGGHI Curricula for Human-Computer Interaction. New York, NY, USA: The Association for Computing Machinery.

  • Höner, O. (2011). Multidisciplinary applications of sonification in the field of “exercise, play and sport“. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 525-527). Berlin, Deutschland: Logos.

  • Höner, O., & Hermann, T. (2006). Entwicklung und Evaluation eines sonifikationsbasierten Gerätes zur Leistungsdiagnostik und Trainingssteuerung für den Sehgeschädigten-Leistungssport. BISp-Jahrbuch, 2006(07), 163-168.

  • Höner, O., Hermann, T. & Grunow, C. (2004). Sonification of group behavior for analysis and training of sports tactics. Proceedings of the International Workshop on Interactive Sonification (ISon) 2004, Bielefeld, Deutschand.

  • Hohagen, J. (in Vorb.). Bewegungssonifikation musikalischer Gesten: Experimentelle Studien zur Wahrnehmung musikalischer Bewegungen und Evaluation von Sonifikationsstrategien. Dissertation an der Universität Hamburg, Hamburg, Deutschland.

  • Hohagen, J. & Wöllner, C. (2016). Movement sonification of musical gestures: Investigating perceptual processes underlying musical performance movements. In R. Großmann & G. Hajdu (Hrsg.), Proceedings of the 13th Sound & Music Computing Conference (SMC) 2016 (S. 222-226). Hamburg, Deutschland: ZM4.

  • Hohagen, J. & Wöllner, C. (2017). Evaluation von Bewegungssonifikationen musikalischer Gesten. Tagungsband der Jahrestagung der Deutschen Gesellschaft für Musikpsychologie „Musik und Bewegung“ (DGM) 2017 (S. 12-13), Hamburg, Deutschland.

  • Hohagen, J., Wöllner, C. & Hermann, T. (2017). Evaluation of movement sonification: Perception of auditory and visual displays of musical performance gestures. In E. Van Dyck (Hrsg.), Book of abstracts. 25th Anniversary Conference of the European Society for the Cognitive Sciences of Music (ESCOM) 2017 (S. 210-212), Ghent, Belgien.

  • Hunt, A. & Hermann, T. (2004). The importance of interaction in sonification. In S. Barrass & P. Vickers (Hrsg.), Proceedings of the International Conference on Auditory Display (ICAD) 2004 (S. 1-8). Sydney, Australien: ICAD.

  • Hunt, A. & Hermann, T. (2011). Interactive sonification. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 273-298). Berlin, Deutschland: Logos.

  • Hunt, A. & Pauletto, S. (2011). Use of sound for physiotherapy analysis and feedback. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 528-531). Berlin, Deutschland: Logos.

  • Jakus, G., Stojmenova, K., Tomazic, S., & Sodnik, J. (2017). A system for efficient motor learning using multimodal augmented feedback. Multimedia Tools and Applications, 76(20), 20409-20421. https://doi.org/ 10.1007/s11042-016-3774-7

  • Jeannerod, M. (2003). The mechanism of self-recognition in humans. Behavioural Brain Research, 142, 1-15. https://doi.org/ 10.1016/S0166-4328(02)00384-4

  • Justen, C., Herbert, C., Werner, K., & Raab, M. (2014). Self vs. other: Neural correlates underlying agent identification based on unimodal auditory information as revealed by electrotomography (sLORETA). Neuroscience, 259, 25-34. https://doi.org/ 10.1016/j.neuroscience.2013.11.042

  • Kapur, A., Tzanetakis, G., Virji-Babul, N., Wang, G. & Cook, P. R. (2005). A framework for sonification of vicon motion capture data. Proceedings of the 8th International Conference on Digital Audio Effects (DAFx-05), Madrid, Spanien.

  • Keller, P. E., Knoblich, G., & Repp, B. H. (2007). Pianists duet better when they play with themselves: On the possible role of action simulation in synchronization. Consciousness and Cognition, 16(1), 102-111. https://doi.org/ 10.1016/j.concog.2005.12.004

  • Kennel, C., Hohmann, T., & Raab, M. (2014). Action perception via auditory information: Agent identification and discrimination with complex movement sounds. Journal of Cognitive Psychology, 26(2), 157-165. https://doi.org/ 10.1080/20445911.2013.869226

  • Kennel, C. & Pizzera, A. (2015). Auditory action perception. In M. Raab, B. Lobinger, S. Hoffmann, A. Pizzera & S. Laborde (Hrsg.), Performance psychology: Perception, action, cognition and emotion (S. 235-253). Amsterdam, Niederlande: Elsevier.

  • Kennel, C., Streese, L., Pizzera, A., Justen, C., Hohmann, T., & Raab, M. (2015). Auditory reafferences: the influence of real-time feedback on movement control. Frontiers in Psychology, 6, Article 69. https://doi.org/ 10.3389/fpsyg.2015.00069

  • Kleimann-Weiner, M. & Berger, J. (2006). The sound of one arm swinging: A model for multidimensional auditory display of physical motion. Proceedings of the 12th International Conference on Auditory Display (ICAD) 2006 (S. 278-280), London, Vereinigtes Königreich.

  • Knoblich, G., & Prinz, W. (2001). Recognition of self-generated actions from kinematic displays of drawing. Journal of Experimental Psychology. Human Perception and Performance, 27(2), 456-465. https://doi.org/ 10.1037/0096-1523.27.2.456

  • Knoblich, G., & Repp, B. H. (2009). Inferring agency from sound. Cognition, 111, 248-262. https://doi.org/ 10.1016/j.cognition.2009.02.007

  • Koelewijn, T., Bronkhorst, A., & Theeuwes, J. (2010). Attention and the multiple stages of multisensory integration: A review of audiovisual studies. Acta Psychologica, 134, 372-384. https://doi.org/ 10.1016/j.actpsy.2010.03.010

  • Kolykhalova, K., Alborno, P., Camurri, A. & Volpe, G. (2016). A serious games platform for validating sonification of human full-body movement qualities. Proceedings of the International Workshop on Movement and Computing (MOCO) 2016, Thessaloniki, Griechenland.

  • Konttinen, N., Mononen, K., Viitasalo, J., & Mets, T. (2004). The effects of augmented auditory feedback on psychomotor skill learning in precision shooting. Journal of Sport & Exercise Psychology, 26(2), 306-316. https://doi.org/ 10.1123/jsep.26.2.306

  • Kramer, G. (Ed.). (1994). Auditory display: Sonification, audification and auditory interfaces. Proceedings of the First International Conference on Auditory Display (ICAD) 1992. Reading, MA, USA: Addison-Wesley.

  • Kramer, G., Walker, B. N., Bonebright, T., Cook, P., Flowers, J., Miner, N., . . . Tipei, S. (1999). The Sonification report: Status of the field and research agenda. Report prepared for the National Science Foundation by members of the International Community for Auditory Display. Santa Fe, NM, USA: International Community for Auditory Display (ICAD).

  • Kuppanda, T., Degara, N., Worrall, D., Thoshkahna, B. & Müller, M. (2015). Virtual reality platform for sonification evaluation. Proceedings of the 21st International Conference on Auditory Display (ICAD) 2015 (S. 117-124), Graz, Österreich.

  • Laban, R. & Lawrence, F. C. (1947). Effort. London, Vereinigtes Königreich: MacDonald and Evans.

  • Landry, S. (2015). Affective interactive dancer sonification. Student Think Tank at the 21st International Conference on Auditory Display (ICAD STT) 2015 (S. 9-10), Graz, Österreich.

  • Landry, S. & Jeon, M. (2017). Participatory design research methodologies: A case study in dancer sonification. Proceedings of the 23rd International Conference on Auditory Display (ICAD) 2017, State College, PA, USA.

  • Landry, S., Ryan, J. D. & Jeon, M. (2014). Design issues and considerations for dance-based sonification. Proceedings of the 20th International Conference on Auditory Display (ICAD) 2014, New York, NY, USA.

  • Larkin, O., Koerselman, T., Ong, B. & Ng, K. (2008). Sonification of bowing features for string instrument training. Proceedings of the 14th International Conference on Auditory Display (ICAD) 2008, Paris, Frankreich.

  • Leman, M. (2008). Embodied music cognition and mediation technology. Cambridge, MA, USA: MIT Press.

  • Lesaffre, M., Maes, P.-J. & Leman, M. (Eds.). (2017). The Routledge Companion to embodied music interaction. New York, NY, USA: Routledge.

  • Lesaffre, M., Vets, T., Moens, B. & Leman, M. (2015). Using auditory feedback for the rehabilitation of symmetrical body-weight distribution after ischemic stroke or brain trauma. In J. Ginsborg, A. Lamont, M. Phillips & S. Bramley (Hrsg.), Proceedings of the Ninth Triennial Conference of the European Society for the Cognitive Sciences of Music (ESCOM) 2015, Manchester, Vereinigtes Königreich.

  • Loula, F., Prasad, S., Harber, K., & Shiffrar, M. (2005). Recognizing people from their movement. Journal of Experimental Psychology. Human Perception and Performance, 31(1), 210-220. https://doi.org/ 10.1037/0096-1523.31.1.210

  • Matsubara, M., Teresawa, H., Kadone, H., Suzuki, K. & Makino, S. (2012). Sonification of muscular activity in human movements using the temporal patterns in EMG. Proceedings of the 2012 Asia Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC) 2012, Hollywood, CA, USA.

  • Maulucci, R. A., & Eckhouse, R. H. (2001). Retraining reaching in chronic stroke with real-time auditory feedback. NeuroRehabilitation, 16, 171-182.

  • McGookin, D. & Brewster, S. (2011). Earcons. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 339-361). Berlin, Deutschland: Logos.

  • McGurk, H., & MacDonald, J. (1976). Hearing lips and seeing voices. Nature, 264, 746-748. https://doi.org/ 10.1038/264746a0

  • Miranda, E. R. & Wanderley, M. M. (2006). New digital musical instruments: Control and interaction beyond the keyboard. Middleton, WI, USA: A-R Editions.

  • Mitchell, T. & Heap, I. (2011). SoundGrasp: A gestural interface for the performance of live music. Proceedings of the International Conference on New Interfaces for Musical Expression (NIME) 2011, Oslo, Norwegen.

  • Murgia, M., Hohmann, T., Galmonte, A., Raab, M., & Agostini, T. (2012). Recognising one’s own motor actions through sound: The role of temporal factors. Perception, 41, 976-987. https://doi.org/ 10.1068/p7227

  • Murgia, M., Santoro, I., Tamburini, G., Prpic, V., Sors, F., Galmonte, A., & Agostini, T. (2016). Ecological sounds affect breath duration more than artificial sounds. Psychological Research, 80, 76-81. https://doi.org/ 10.1007/s00426-015-0647-z

  • Nagel, F., Stöter, F.-R., Degara, N., Balke, S. & Worrall, D. (2014). Fast and accurate guidance - Response times to navigational sounds. Proceedings of the 20th International Conference on Auditory Display (ICAD) 2014, New York, NY, USA.

  • Naveda, L. & Leman, M. (2008). Sonification of Samba dance using periodic pattern analysis. In Á. Barbosa (Hrsg.), Proceedings of the 4th International Conference on Digital Arts (ARTECH) 2008 (S. 16-26). Porto, Portugal: Portuguese Católica University.

  • Ng, K., Weyde, T., Larkin, O., Neubarth, K., Koerselman, T. & Ong, B. (2007). 3D augmented mirror: A multimodal interface for string instrument learning and teaching with gesture support. Proceedings of the 9th international conference on Multimodal interfaces (ICMI) 2007 (S. 339-345), Nagoya, Japan.

  • Novembre, G., & Keller, P. E. (2014). A conceptual review on action-perception coupling in the musicians’ brain: What is it good for? Frontiers in Human Neuroscience, 8, 603. https://doi.org/ 10.3389/fnhum.2014.00603

  • Oscari, F., Secoli, R., Avanzini, F., Rosati, G., & Reinkensmeyer, D. J. (2012). Substituting auditory for visual feedback to adapt to altered dynamic and kinematic environments during reaching. Experimental Brain Research, 221, 33-41. https://doi.org/ 10.1007/s00221-012-3144-2

  • Pauletto, S. & Hunt, A. (2006). The sonification of EMG data. Proceedings of the 12th International Conference on Auditory Display (ICAD) 2006, London, Vereinigtes Königreich.

  • Petersen, H., Magnusson, M., Johansson, R., & Fransson, P. A. (1996). Auditory feedback regulation of perturbed stance in stroke patients. Scandinavian Journal of Rehabilitation Medicine, 28(4), 217-223.

  • Pizzera, A., & Hohmann, T. (2015). Acoustic information during motor control and action perception: A review. The Open Psychology Journal, 8, 183-191. https://doi.org/ 10.2174/1874350101508010183

  • Pizzera, A., Hohmann, T., Streese, L., Habbig, A., & Raab, M. (2017). Long-term effects of acoustic reafference training (ART). European Journal of Sport Science, 17(10), 1279-1288. https://doi.org/ 10.1080/17461391.2017.1381767

  • Prinz, W. (1997). Perception and action planning. The European Journal of Cognitive Psychology, 9(2), 129-154. https://doi.org/ 10.1080/713752551

  • Pysiewicz, A. & Weinzierl, S. (2017). Instruments for spatial sound ontrol in real time music performances. A review. In T. Bovermann, A. de Campo, H. Egermann, S.-I. Hardjowirogo & S. Weinzierl (Hrsg.), Musical instruments in the 21st century: Identities, configurations, practices (S. 273-296). Singapur, Singapur: Springer Nature.

  • Radecki, A., Bujacz, M., Skulimowski, P. & Strumiłło, P. (2016). Interactive sonification of color images on mobile devices for blind persons - Preliminary concepts and first tests. Proceedings of the 5th Interactive Sonification Workshop (ISon) 2016 (S. 68-73), Bielefeld, Deutschland.

  • Rath, M., & Rocchesso, D. (2005). Continuous sonic feedback from a rolling ball. IEEE MultiMedia, 12(2), 60-69. https://doi.org/ 10.1109/MMUL.2005.24

  • Renaud, A., Charballier, C., & Chagué, S. (2014). 3dinmotion – a mocap based interface for real time visualisation and sonification of multi-user interactions. [NIME]. Proceedings of the International Conferences on New Interfaces for Musical Expression, 2014, 495-496.

  • Robertson, J. V. G., Höllinger, T., Lindberg, P., Bensmail, D., Hanneton, S. & Roby-Brami, A. (2009). Effect of auditory feedback differs according to side of hemiparesis: A comparative pilot study. Journal of NeuroEngineering and Rehabilitaion, 6, Article 45 .

  • Rocchesso, D. (2011). Explorations in sonic interaction design. Berlin, Deutschland: Logos.

  • Rocchesso, D., Polotti, P., & Delle Monache, S. (2009). Designing continuous sonic interaction. International Journal of Design, 3(3), 13-25.

  • Rodgers, T. (2010). Pink noises: Women on electronic music and sound. Durham, Vereinigtes Königreich: Duke University Press.

  • Rosati, G., Oscari, F., Spagno, S., Avanzini, F., & Masiero, S. (2012). Effect of task-related continuous auditory feedback during learning of tracking motion exercises. Journal of Neuroengineering and Rehabilitation, 9, Article 79. https://doi.org/ 10.1186/1743-0003-9-79

  • Rosati, G., Rodà, A., Avanzini, F., & Masiero, S. (2013). On the role of auditory feedback in robot-assisted movement training after stroke: Review of the literature. Computational Intelligence and Neuroscience, 2013, Article 586138. https://doi.org/ 10.1155/2013/586138

  • Rovan, J. & Hayward, V. (2000). Typology of tactile sounds and their synthesis in gesture-driven computer music performance. In M. Wanderley & M. Battier (Hrsg.), Trends in gestural control of music (S. 355-368). Paris, Frankreich: IRCAM.

  • Schaffert, N. (2011). Sonifikation des Bootsbeschleunigungs-Zeit-Verlaufs als akustisches Feedback im Rennrudern. Berlin, Deutschland: Logos.

  • Schaffert, N., Gehret, R., Effenberg, A. O. & Mattes, K. (2008). The sonified boat motion as the characteristic rhythm of several stroke rate steps. Book of abstracts of the 8th World Congress of Performance Analysis of Sport (WCPAS VIII) 2008, Magdeburg, Deutschland.

  • Schaffert, N., Mattes, K., Barrass, S. & Effenberg, A. O. (2009). Exploring functions and aesthetics in sonification for elite sports. Proceedings of the Second International Conference on Music Communication Science 2009, Sydney, Australien.

  • Schaffert, N., Mattes, K. & Effenberg, A. O. (2009). A sound design for the purposes of movement optimisation in elite sport (using the example of rowing). Proceedings of the 15th International Conference on Auditory Display (ICAD) 2009, Kopenhagen, Dänemark.

  • Schaffert, N., Mattes, K. & Effenberg, A. O. (2011). Examining effects of acoustic feedback on perception and modification of movement patterns in on-water rowing training. Proceedings of the 6th Audio Mostly Conference: A Conference on Interaction with Sound (AM) 2011 (S. 122-129), Coimbra, Portugal.

  • Scheef, L., Boecker, H., Daamen, M., Fehse, U., Landsberg, M. W., Granath, D.-O., . . . Effenberg, A. O., (2009). Multimodal motion processing in area V5/MT: Evidence from an artificial class of audio-visual events. Brain Research, 1252, 94-104. https://doi.org/ 10.1016/j.brainres.2008.10.067

  • Schmitz, G., Bergmann, J., Effenberg, A. O., Krewer, C., Hwang, T.-H., & Müller, F. (2018). Movement sonification in stroke rehabilitation. Frontiers in Neurology, 9, Article 389. https://doi.org/ 10.3389/fneur.2018.00389

  • Schmitz, G. & Effenberg, A. O. (2012). Perceptual effects of auditory information about own and other movements. Proceedings of the 18th International Conference on Auditory Display (ICAD) 2012 (S. 89-94), Atlanta, GA, USA.

  • Schmitz, G., Kröger, D. & Effenberg, A. O. (2014). A mobile sonification system for stroke rehabilitation. Proceedings of the 20th International Conference on Auditory Display (ICAD) 2014, New York, NY, USA.

  • Schmitz, G., Mohammadi, B., Hammer, A., Heldmann, M., Samii, A., Münte, T. F., & Effenberg, A. O. (2013). Observation of sonified movements engages a basal ganglia frontocortical network. BMC Neuroscience, 14, Article 32. https://doi.org/ 10.1186/1471-2202-14-32

  • Scholz, D. S., Wu, L., Pirzer, J., Schneider, J., Rollnik, J. D., Großbach, M., & Altenmüller, E. (2014). Sonification as a possible stroke rehabilitation strategy. Frontiers in Neuroscience, 8, Article 332. https://doi.org/ 10.3389/fnins.2014.00332

  • Secoli, R., Milot, M.-H., Rosati, G., & Reinckensmeyer, D. J. (2011). Effect of visual distraction and auditory feedback on patient effort during robot-assisted movement training after stroke. Journal of Neuroengineering and Rehabilitation, 8, Article 21. https://doi.org/ 10.1186/1743-0003-8-21

  • Serafin, S., Franinovic, K., Hermann, T., Lemaitre, G., Rinott, M. & Rocchesso, D. (2011). Sonic interaction design. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 87-110). Berlin, Deutschland: Logos.

  • Sevdalis, V., & Keller, P. E. (2010). Cues for self-recognition in point-light displays of actions performed in synchrony with music. Consciousness and Cognition, 19, 617-626. https://doi.org/ 10.1016/j.concog.2010.03.017

  • Sigrist, R., Rauter, G., Riener, R., & Wolf, P. (2013). Augmented visual, auditory, haptic, and multimodal feedback in motor learning: A review. Psychonomic Bulletin & Review, 20, 21-53. https://doi.org/ 10.3758/s13423-012-0333-8

  • Skogstad, S. A., Jensenius, A. R. & Nymoen, K. (2010). Using IR optical marker based motion capture for exploring musical interaction. Proceedings of the International Conference on New Interfaces for Musical Expression (NIME) 2010, Sydney, Australien.

  • Sorkin, R. D., Wightman, F. L., Kistler, D., & Elvers, G. (1989). An exploratory study of the use of movement-correlated cues in an auditory head-up display. Human Factors, 31(2), 161-166. https://doi.org/ 10.1177/001872088903100205

  • Sors, F., Murgia, M., Santoro, I., Prpic, V., Galmonte, A., & Agostini, T. (2017). The contribution of early auditory and visual information to the discrimination of shot power in ball sports. Psychology of Sport and Exercise, 31, 44-51. https://doi.org/ 10.1016/j.psychsport.2017.04.005

  • Tajadura-Jiménez, A., Basia, M., Deroy, O., Fairhurst, M., Marquardt, N. & Bianchi-Berthouze, N. (2015). As light as your footsteps: Altering walking sounds to change perceived body weight, emotional state and gait. Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems (S. 2943-2952), Seoul, Südkorea.

  • Takahata, M., Shiraki, K., Sakane, Y. & Takebayashi, Y. (2004). Sound feedback for powerful karate training. Proceedings of the International Conference on New Interfaces for Musical Expression (NIME) 2004 (S. 13-18), Hamamatsu, Japan.

  • Thaut, M. H., McIntosh, G. C., Rice, R. R., Miller, R. A., Rathbun, J., & Brault, J. M. (1996). Rhythmic auditory stimulation in gait training for Parkinson’s disease patients. Movement Disorders, 11(2), 193-200. https://doi.org/ 10.1002/mds.870110213

  • Thaut, M. H., & Abiru, M. (2010). Ryhthmic auditory stimulation in rehabilitation of movement disorders: A review of current research. Music Perception, 27(4), 263-269. https://doi.org/ 10.1525/mp.2010.27.4.263

  • Theremin, L. S. (1996). The design of a musical instrument based on cathode relays. Leonardo Music Journal, 6, 49-50. https://doi.org/ 10.2307/1513305

  • Väljamäe, A., Steffert, T., Holland, S., Marimon, X., Benitez, R. & Mealla, S., … Jordà, S. (2013). A review of real-time EEG sonification research. Proceedings of the International Conference on Auditory Display (ICAD) 2013 (S. 85-93), Lodz, Polen.

  • Verfaille, V., Quek, O. & Wanderley, M. M. (2006). Sonification of musicians’ ancillary gestures. Proceedings of the 12th International Conference on Auditory Display (ICAD) 2006, London, Vereinigtes Königreich.

  • Vickers, P. (2011). Sonification for process monitoring. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 455-491). Berlin, Deutschland: Logos.

  • Vickers, P., Hogg, B. & Worrall, D. (2017). Aesthetics of sonification: Taking the subject-position. In C. Wöllner (Hrsg.), Body, sound and space in music and beyond: Multimodal explorations (S. 89-109). Abingdon, Vereinigtes Königreich: Routledge.

  • Vinken, P. M., Kröger, D., Fehse, U., Schmitz, G., Brock, H., & Effenberg, A. O. (2013). Auditory coding of human movement kinematics. Multisensory Research, 26, 533-552. https://doi.org/ 10.1163/22134808-00002435

  • Visi, F., Schramm, R. & Miranda, E. R. (2014). Gesture in performance with traditional musical instruments and electronics. Proceedings of the International Workshop on Movement and Computing (MOCO) 2014 (S. 100-105). Paris, Frankreich.

  • Vogt, K. (2011). A quantitative evaluation approach to sonifications. Proceedings of the 17th International Conference on Auditory Display (ICAD) 2011 (S. 20-24), Budapest, Ungarn.

  • Vogt, K., Pirrò, D., Kobenz, I., Höldrich, R. & Eckel, G. (2010). PhysioSonic - Evaluated movement sonification as auditory feedback in physiotherapy. In S. Ystad, M. Aramaki, R. Kronland-Martinet & K. Jensen (Hrsg.), Auditory display. 6th International Symposium, CMMR/ICAD 2009 (S. 18-22). Berlin, Deutschland: Springer.

  • Walker, B. N. & Nees, M. A. (2011). Theory of sonification. In T. Hermann, A. Hunt & J. G. Neuhoff (Hrsg.), The sonification handbook (S. 9-39). Berlin, Deutschland: Logos.

  • Wallis, I., Ingalls, T., Rikakis, T., Olsen, L., Chen, Y., Xu, W. & Sundaram, H. (2007). Real-time sonification of movement for an immersive stroke rehabilitation environment. Proceedings of the 13th International Conference on Auditory Display (ICAD) 2007, Montréal, Kanada.

  • Winters, R. M., Savard, A., Verfaille, V., & Wanderley, M. M. (2012). A sonification tool for the analysis of large databases of expressive gesture. The International Journal of Multimedia & Its Applications, 4(6), 13-26. https://doi.org/ 10.5121/ijma.2012.4602

  • Winters, R. M., & Wanderley, M. M. (2014). Sonification of emotion: Strategies and results from the intersection with music. Organised Sound, 19(1), 60-69. https://doi.org/ 10.1017/S1355771813000411

  • Wöllner, C. (2012). Self-recognition of highly skilled actions: A study of orchestral conductors. Consciousness and Cognition, 21, 1311-1321. https://doi.org/ 10.1016/j.concog.2012.06.006

  • Wöllner, C. (2014). Agency. In W. F. Thompson (Hrsg.), Music in the social and behavioral sciences: An enzyclopedia (S. 30-32). Thousand Oaks, CA, USA: Sage.

  • Wöllner, C. (2019). Anticipated sonic actions and sounds in performance. In M. Grimshaw-Aagaard, M. Walther-Hansen & M. Knakkergaard (Hrsg.), The Oxford handbook of sound and imagination (chapter 2). New York, NY, USA: Oxford University Press.

  • Wöllner, C., Deconick, F. J. A., Parkinson, J., Hove, M. J., & Keller, P. E. (2012). The perception of prototypical motion: Synchronization is enhanced with quantitatively morphed gestures of musical conductors. Journal of Experimental Psychology. Human Perception and Performance, 38(6), 1390-1403. https://doi.org/ 10.1037/a0028130

  • Wolpert, D. M., & Flanagan, J. R. (2001). Motor prediction. Current Biology, 11, R729-R732. https://doi.org/ 10.1016/S0960-9822(01)00432-8

  • Wulf, G. (2013). Attentional focus and motor learning: A review of 15 years. International Review of Sport and Exercise Psychology, 6(1), 77-104. https://doi.org/ 10.1080/1750984X.2012.723728