Journée d'étude : TICs, musique et émotion

Équipe Master TICV
Unité de recherche Signaux et Systèmes (U2S)

École Nationale d'Ingénieurs de Tunis
Samedi 27 janvier 2018

Programme

  • 8:30-9:00 Accueil des participants
  • 9:00-9:15 « TICs, Musique et Emotion : Une introduction implicative »

    par Anas GHRAB, musicologue, enseignant-chercheur à l'Institut Supérieur de Musique de Sousse, chercheur à U2S, ENIT, Tunisie.

    Résumé

    Cette intervention est une introduction aux problématiques liées à la musique et l’émotion. Elle se présente sous la forme d’une expérience qui explore de manière contemporaine, à travers les sons et les outils électroniques, le concept ancien d’influence et l’interaction de la musique et du musicien avec le public; ce concept est connu dans la culture arabe sous la forme du tarab. En visualisant en temp réel les données de capteurs électro-encéphalographiques (EGG) et d'activité électrodermale (EDA), un musicien pourrait adapter les sons qu’il génère en temps réel aux émotions ressenties par au auditeur.

  • 9:15-9:30 Discussion
  • 9:30-10:00 A gentle Introduction to Music Emotion Recognition, or How to Tell a Highway to Hell from a Stairway to Heaven

    par Anna ALJANAKI, chercheur au Computational Perception Lab, Johannes Kepler University, Linz, Austria

    Résumé

    In this presentation I'll give a brief summary of the history of music emotion recognition field, its affinity to affective speech recognition, and describe the state of the art and deep learning methods in MER. Lastly, we'll discuss possible applications.

  • 10:00-10:15 Discussion
  • 10:45-11:15 Modélisation et contrôle perceptif de sons

    par Sølvi YSTAD chercheur au laboratoire PRISM (Perception, Représentation, Image, Son, Musique), Marseille, France.

    Résumé

    Le domaine générique des Sciences du son a pris une ampleur remarquable grâce à l’avènement du traitement du signal numérique et des premières synthèses sonores sur ordinateur. Cinquante années de recherche ont permis la construction de modèles et de méthodes aptes à engendrer des sons réalistes ou inouïs et à en étudier leurs corrélats perceptifs. Si un grand nombre de questions restent encore ouvertes à ce jour, notamment sur la compréhension de phénomènes physiques complexes à l’origine de certaines sources sonores, l’attention de la communauté scientifique s’est récemment focalisée sur les questions relatives à la relation entre le son et l’humain. Cette orientation thématique arrive à un moment clef où les nouvelles technologies interagissent de plus en plus fortement avec l’utilisateur. Le son a souvent été négligé parmi ces interactions et pourtant son influence sur l’humain recèle encore de grandes potentialités.

    Dans cette présentation nous allons décrire une approche de recherche qui vise à identifier des liens entre structures sonores et perception humaine dans le but de développer des modèles de synthèse interactifs qui peuvent être contrôlés d’une façon intuitive. Un nouveau paradigme de synthèse basé sur la théorie écologique de la perception sera présenté, suivi par des exemples d’applications industrielles, sociétales et thérapeutiques.

  • 11:15-11:30 Discussion
  • 11:30-12:00 Trois outils de traitement de la voix émotionnelle et ses effets physiologiques

    par Pablo ARIAS, chercheur à l'IRCAM (Institut de Recherche et Coordination Acoustique et Musique), Paris, France.

    Résumé

    L’homme a une capacité remarquable à extraire une large quantité de traits physiques, sociaux, et émotionnels lors de l’écoute de quelques millisecondes d’une voix. Comment faisons nous? Sur quelles dimensions acoustiques se base notre jugement? Quelles sont les conséquences physiologiques de celles-ci ?

    Je présenterai trois outils de traitement de la voix parlée qui permettent d’explorer ces questions. DAVID, un outil de transformation émotionnelle et temps réel de la voix, ZYGi, un algorithme permettant d’introduire les caractéristiques du sourire dans la voix parlée, et CLEESE, un outil permettant de créer une infinité de variations prosodiques d’une voix originale. Je présenterai leur détails techniques mais surtout leur utilisation dans le cadre des sciences cognitives.

  • 12:00-12:30 Discussion et débat
  • 12:30-15:30 Atelier Déjeuner

    Protocoles expérimentaux sur la plateforme DAVID animé par Pablo ARIAS (IRCAM) et les étudiants du master TICV.


Journée d'étude : TICs, musique et émotion Journée d'étude : TICs, musique et émotion Journée d'étude : TICs, musique et émotion Journée d'étude : TICs, musique et émotion