Vous constatez une erreur ?
35 résultats
Pendant cette présentation, l’équipe abordera les points suivants : Ircamdescriptor~ : cet objet Max permet de calculer un grand nombre de descripteurs audio instantanés sur un flux audio ou à partir d'un buffer audio, tel que des descript
17 novembre 2011 29 min
Abstract: The wealth of tools developed in music information retrieval (MIR) for the description, indexation, and retrieval of music and sound can be easily (ab)used for the creation of new musical material and sound design. Based on automa
2 juin 2012 44 min
Deux aspects de l'application des différentes variantes de la synthèse par corpus à la composition musicale seront traités : obtenir une intonation juste pour la synthese par descripteurs, et gérer la variabilité des solutions dans l'audio
24 octobre 2012 26 min
Tamonontamo est une pièce pour quatuor vocal amplifié, chœur à vingt-quatre voix et électronique en temps réel. Dans cette présentation, nous illustrerons les caractéristiques principales de l’écriture de l’œuvre, avec une attention spéc
7 novembre 2012 56 min
Équipe IMTR de l’Ircam présentera des exemples de nos derniers travaux de recherches sur l’interaction musicale, en particulier l’interaction collective et l’utilisation de mobiles et/ou ipad. Équipe IMTR de l’Ircam présentera le nouvel ob
22 novembre 2013 55 min
Ircam IMTR team will present latest research and development on musical interaction, and especially for collective interaction on mobile and tablet terminals such as iPad. Ircam IMTR team will present the new MotionFollower Max object that
22 novembre 2013 55 min
29 novembre 2006 51 min
14 juin 2007 58 min
14 novembre 2005 01 h 18 min
17 octobre 2004 52 min
19 octobre 2003 43 min
7 novembre 2007 30 min
11 juin 2008 45 min
30 avril 2008 01 h 01 min
12 juin 2007 59 min
19 novembre 2014 29 min
19 novembre 2014 29 min
Séminaire "Geste, instrument de musique, technologie" organisé par Nicolas Donin et Baptiste Bacot, à l'EHESS. La séance du 13 mai 2016, intitulée "Forger son set d'improvisation : entretien avec Arnaud Rivière et Diemo Schwarz", est an
13 mai 2016 01 h 48 min
Création mondiale. [Partita I] initie, pour Philippe Manoury, un nouveau cycle d’oeuvres avec électronique, tout en poursuivant cette recherche de symbiose entre écriture, interprétation et technologie. “Il s’agit d’un projet remontant à
1 mars 2007 44 min
22 septembre 2016 18 min
4 septembre 2017 13 min
5 septembre 2017 10 min
5 septembre 2017 16 min
Organisé dans le cadre du Cursus de composition et d’informatique musicale, année 2018/2019. Cette session propose différents points de vue sur l’improvisation portés par des compositeurs, musiciens improvisateurs et pédagogues.
23 janvier 2018 02 h 24 min
7 mars 2018 27 min
20 septembre 2018 22 min
27 mars 2019 29 min
MuBu: - nouvelles versions et features (integration JavaScript, Machine Learning), - nouvaux exemples de spatialisation granulaire en HOA (ambisonique), (re-)synthèse additive et enregistrement+synthèse circulaire (ringbuffer). MuBu (p
4 mars 2020 46 min
The SkataRT environment is built at the intersection of a research and development work on concatenative corpus-based sound synthesis (CataRT) and a European research project on the issue of voice imitation as a tool for sketching and rapid
17 mars 2021 28 min
17 mars 2021 26 min
We will present new features of the MuBu for Max framework for multimodal analysis of sound and motion, interactive sound synthesis and machine learning, the CataRT and SKataRT corpus-based synthesis tools for Max and Ableton Live, the Gest
19 mars 2024 28 min
La synthèse concaténative audiovisuelle par corpus étend le principe de synthèse concaténative sonore au domaine visuel, où en addition du corpus sonore (une collection de segments de sons enregistrés accompagnés d’une description perceptiv
24 avril 2024 59 min
Nous présentons les résultats du projet UPI RIRIRI (Room Impulse Response Interactive Retrieval and Inspection) pour la description perceptuelle, la représentation et la recherche interactive de réponses impulsionnelles de salles (RIR) à pa
11 septembre 2024 01 h 05 min
We will present new features of the MuBu for Max framework for multimodal analysis of sound and motion, interactive sound synthesis and machine learning, the CataRT and SKataRT corpus-based synthesis tools for Max and Ableton Live, the Gest
26 mars 2025
Tout d'abord, nous présenterons Augmented Trumpet, une trompette audio-augmentée utilisant principalement le son de l'instrument lui-même pour piloter le traitement sonore, à la différence d'instruments augmentés traditionnels basés sur des
4 juin 2025
Vous constatez une erreur ?
1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43
Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche
Hôtel de Ville, Rambuteau, Châtelet, Les Halles
Institut de Recherche et de Coordination Acoustique/Musique
Copyright © 2022 Ircam. All rights reserved.