Retour à l'accueil Sciences et Technologies
de l´Information et
de la Communication pour
l´Éducation et la Formation
version pleine page
version à télécharger (pdf)

Volume 13, 2006
Article de recherche



Contact : infos@sticef.org

Musique Lab Maquette : approche interactive des processus compositionnels pour la pédagogie musicale

 

Jean Bresson, Fabrice Guédy, Gérard Assayag IRCAM, Paris

 

RÉSUMÉ : Cet article présente une application dédiée à l'enseignement de la musique et basée sur des technologies de composition assistée par ordinateur. Différents aspects des processus compositionnels sont abordés dans une optique pédagogique : création et manipulation de matériau et d'objets musicaux, processus de transformation des objets, et organisation à l'intérieur de formes musicales. Ces différents aspects sont groupés sous la notion de document pédagogique, support permettant de reconstituer une démarche complète dans la démonstration de concepts et d'exemples musicaux.

MOTS CLÉS : Pédagogie, Musique, Composition Assistée par Ordinateur.

ABSTRACT : This article presents an application dedicated to music education and based on computer-aided composition technologies. Various aspects of compositional processes are considered from a pedagogical point of view: creation and manipulation of musical material and objects, transformation of these objects, and organization in global musical forms. These different aspects are embedded in a pedagogical document, which provides the support to develop complete and interactive demonstrations of musical concepts and pieces.

KEYWORDS : Education, Music, Computer-Aided Composition.

 

1. Introduction

Musique Lab est un projet mené par l'IRCAM en collaboration avec le Ministère de l'Éducation Nationale et le Ministère de la Culture et de la Communication, dans le cadre du dispositif de soutien aux ressources multimédia piloté par la Direction de la Technologie du Ministère de l'Education Nationale. L'objectif de cette initiative est d'imaginer et de mettre en place des outils destinés aux classes de musique des établissements d'enseignement secondaire et des conservatoires, permettant le développement de nouvelles situations pédagogiques en adéquation avec les outils et méthodes d'analyse et de création actuels.

Musique Lab Maquette (ou ML Maquette) est une application développée dans le cadre de ce projet. Il s'agit d'une extension, adaptée au cas d'utilisation pédagogique, de l'environnement de composition assistée par ordinateur OpenMusic, un langage de programmation visuelle dédié à la composition musicale.

Cet article présente les bases théoriques et l'implémentation de ce travail. Après une présentation du projet (partie 2), nous retracerons le chemin conduisant d'un environnement de composition à la création d'un outil pédagogique (partie 3). Les parties suivantes de ce texte se voudront plus descriptives de l'application (partie 4), et détailleront ses différentes facettes et directions conceptuelles (parties 5, 6, et 7). Finalement nous essaierons de tirer des premières conclusions sur son utilisation (partie 8).

2. À la croisée de la musique, de la pédagogie, et de l'informatique

2.1. Contexte

Les recherches dans le domaine des outils informatiques dédiés à la pédagogie et à l'apprentissage se sont très tôt intéressées aux environnements programmables, avec des réalisations comme le langage Logo. Celui-ci fait partie d'un ensemble de travaux regroupés sous l'appellation de « micromondes », environnements informatiques élémentaires, programmables par une syntaxe simple, permettant l'exploration autonome de domaines spécifiquement ciblés et réduits à leurs principaux éléments. Avec Logo, il s'agissait ainsi de fournir à un utilisateur en situation d'apprentissage les outils pour réaliser des programmes à l'aide d'un support graphique (une tortue évoluant sur une surface en traçant des dessins). Ce type d'environnement a été décliné dans différentes applications, parmi lesquelles certaines sont aujourd'hui encore utilisées pour l'enseignement – par exemple l'environnement Cabri (Capponi et Laborde, 1998), pour la géométrie.

Dans le domaine de la musique, l'application des micromondes pour traiter des problématiques liées à la composition et au traitement de l'information musicale a également été considérée notamment par (Desain et Honing, 1988) (Honing, 1993). Cependant, les outils informatiques utilisés actuellement pour l'enseignement musical tirent plus majoritairement parti des avancées technologiques du point de vue de l'accès à l'information (par exemple avec l'enseignement interactif « en ligne », ou e-learning) ou de l'intégration multimédia (modalités audiovisuelles, en particulier).

Aujourd'hui, les nouvelles technologies utilisées à des fins pédagogiques prennent une importance grandissante dans l'enseignement musical, comme dans d'autres domaines d'enseignement, mais surtout à l'image des pratiques musicales contemporaines. L'informatique musicale tend ainsi à intégrer de plus en plus des notions pédagogiques dans les axes d'investigation actuels ; à titre d'exemple, les journées d'informatique musicales organisées par l'association française d'informatique musicale en 2007 auront pour thème principal « les pédagogies de la musique au 21ème siècle » (JIM, 2007).

Différents projets, soutenus par les institutions nationales et européennes, sont ainsi consacrés à ce problème visant à rapprocher les recherches en informatique musicale des considérations pédagogiques. Parmi ces initiatives, et hormis le projet Musique Lab dont il est question ici, on pourra citer par exemple le projet IMUTUS (Schoonderwaldt et al., 2004), ou le projet i-Maestro (iMaestro, 2006). Tous deux sont orientés principalement vers l'apprentissage de la pratique instrumentale.

Initié en 1999, Musique Lab suit une approche privilégiant la création plutôt que l'interprétation. Dans sa première version (Musique Lab 1) ce projet a été ciblé sur des notions et enseignements généralistes, particulièrement ceux du niveau de collège. Il a donné lieu à une suite logicielle constituée de six applications interactives organisées autour de la génération et du contrôle de séquences musicales (Musique Lab, 2002), permettant la familiarisation des élèves avec les concepts musicaux et acoustiques fondamentaux (hauteurs, échelles, rythme, dynamique). Depuis 2002, Musique Lab est distribué et utilisé dans les classes de musique de nombreux établissements.

2.2. Le projet Musique Lab 2

Musique Lab 2 constitue une nouvelle phase engagée dans ce projet (Puig et al., 2005), visant de nouveaux objectifs élaborés en collaboration avec des représentants des corps enseignants de lycées et de conservatoires. Parmi ces objectifs se dégagent par exemple la représentation de structures et d'objets musicaux de haut niveau, les relations entre composition, traitement du signal et acoustique, les relations entre la musique et les sciences (physiques, mathématiques), ou encore la représentation des structures et notions tonales et harmoniques. L'insertion des enseignements spécialisés dans les contraintes définies par les prescripteurs a ainsi conduit à l'élaboration d'une architecture pédagogique capable de s'adapter à des situations d'enseignement très différentes.

Les ambitions de ce projet dépassent donc l'exploration interactive des paramètres musicaux visée avec Musique Lab 1, et nécessitent une réflexion approfondie sur les liens possibles entre musique, pédagogie, et technologie afin de tirer parti des techniques de calcul et de représentation existantes et/ou rendues possibles par l'informatique musicale.

Différentes positions complémentaires, communément observées dans le domaine de la pédagogie musicale, constituent la base de l'approche adoptée pour la réalisation du projet Musique Lab 2 : l'observation, l'analyse, la construction, et l'interaction (Guédy, 2006). Celles-ci font l'objet de développements spécifiques, répartis en trois applications. Musique Lab Annotation est une application dédiée à l'écoute et au suivi de partitions annotées (observation, analyse) ; Musique Lab Maquette, dont il sera question dans cet article, est orientée vers la composition et l'expérimentation sur les formalismes musicaux (analyse, construction) ; et Musique Lab Audio concerne le traitement du signal et l'interaction en temps réel. Les situations pédagogiques imaginées par les enseignants pourront donc être développées dans l'une ou l'autre de ces applications, ou les faire intervenir et interagir en complémentarité.

Chacune d'entre elles correspond à un domaine de compétence théorique et technique spécifique devant être confronté au cas d'utilisation pédagogique.

3. De la composition assistée par ordinateur à la pédagogie musicale

Musique Lab Maquette repose sur une base de compétences et de technologies dans le domaine de la composition assistée par ordinateur (CAO), constituée à l'IRCAM depuis le milieu des années quatre-vingt. L'étude conjointe des structures musicales et des modèles informatiques et calculatoires (Assayag, 1993) a permis à l'époque de développer l'idée d'un traitement symbolique de l'information musicale, ce qui constituait alors une approche originale en informatique musicale, proche des concepts compositionnels. Celle-ci occupe aujourd'hui encore une position centrale dans la CAO (Assayag et al., 1999).

Suivant ces principes, et suite à plusieurs générations de systèmes de CAO, l'environnement OpenMusic (Agon, 1998) (Bresson et al., 2005) est conçu et développé sous la forme d'une plate-forme ouverte dans laquelle peuvent être construites des situations expérimentales relevant de la formalisation musicale. OpenMusic est en réalité un environnement de programmation visuelle permettant le développement de processus (musicaux en particulier) suivant divers types de programmation (Agon et al., 1998) (Agon, 2004). Des structures de données et fonctions spécialisées permettent d'orienter cette programmation dans le sens d'applications musicales (voir figure 1).

À travers une interface de programmation appelée « maquette », OpenMusic introduit également une nouvelle approche formelle des structures temporelles permettant une confrontation des objets de composition assistée par ordinateur (structures de données et processus) avec un référent temporel (Assayag et al., 1997), (Bresson et Agon, 2006).

images/Sticef_2006_bresson_0701.jpg

Figure 1 • L'environnement de composition assistée par ordinateur OpenMusic : programmes visuels (en haut à gauche), éditeurs musicaux (en haut à droite), maquette (en bas).

Au point de rencontre de l'informatique et de la musique, les travaux menés dans cet environnement traitent de problématiques variées liées à la programmabilité, à la codification de la musique, à la dialectique entre objets et processus musicaux, etc. – voir par exemple (Assayag et al., 2001), (Andreatta, 2004). À travers de nombreuses années d'utilisation par une importante communauté de compositeurs, de théoriciens et de chercheurs, OpenMusic s'est ainsi doté d'une base considérable d'outils et de connaissances, aujourd'hui encore en continuelle expansion.

Avec Musique Lab Maquette, il s'agit d'intégrer cette expérience dans un environnement pédagogique. Cette approche particulière de la composition musicale et de la musique, conçue et analysée par le calcul, constitue en effet un potentiel pédagogique, régi par les différents niveaux de conception des structures musicales permis dans OpenMusic :

- Des structures de données adaptées aux représentations musicales (visuelles) et au traitement symbolique;

- Des méthodes pour l'inspection, la manipulation, la génération de ces mêmes structures;

- Des protocoles pour l'intégration de ces structures dans un contexte musical.

Ces trois niveaux se verront reflétés dans la structure conceptuelle de l'application, et seront traités respectivement dans les parties 5, 6 et 7 de cet article.

4. Musique Lab Maquette

4.1. Bases technologiques

Musique Lab Maquette est développée sur le noyau fonctionnel et graphique de OpenMusic, ce système lui-même étant basé sur le langage de programmation Common Lisp / CLOS (Common Lisp Object System) (Steele, 1998). L'aspect dynamique de ce langage, particulièrement adapté aux systèmes de composition musicale (Dannenberg et al., 1997), ainsi que les possibilités offertes par la programmation par objets dans CLOS (héritage, programmation par méta objets, etc.) ont permis le développement de cette extension de manière à le faire bénéficier des différents objets et fonctionnalités proposées ou à venir dans l'environnement de CAO.

Ces fonctionnalités sont par ailleurs adaptées sous différentes formes qui seront détaillées par la suite : interfaces graphiques, éditeurs, et protocoles ont été créés afin de se prêter à une utilisation dans un cadre pédagogique.

4.2. Plan de travail et documents

Le plan de travail de Musique Lab Maquette est similaire au bureau d'un système d'exploitation, sur lequel des documents sont représentés par des icônes, et organisés graphiquement dans des dossiers (voir figure 2). Un document est associé à un fichier sur le disque dur : il est susceptible d'être exporté, importé, échangé, etc.

images/Sticef_2006_bresson_0702.jpg

Figure 2 • Le plan de travail dans ML Maquette.

Lorsqu'un document est ouvert, il est représenté dans la fenêtre principale de Musique Lab Maquette (illustrée sur la figure 3).

images/Sticef_2006_bresson_0703.jpg

Figure 3 • Un document ML Maquette vierge.

4.3. Base formelle de l'application

Trois zones peuvent être distinguées sur la fenêtre de la figure 3, appelées respectivement « OBJETS », « OPÉRATEURS » et « MAQUETTE ». La formalisation de l'espace d'un document correspond en effet à des moments de cours, ou à des attitudes mentales spécifiques : agrégation de matériau musical (sans ordre ni métrique particulière), création ou transformation de ce matériau à l'aide d'opérateurs, et organisation de ce matériau.

Les trois niveaux d'approche des structures musicales mentionnées précédemment se retrouveront également dans cette partition, avec celui des structures de données (objets et matériau), celui du calcul (transformation et création des objets), et celui l'organisation globale (temporelle).

4.4. Protocole opératoire

Dans Musique Lab Maquette, les différentes étapes du cycle de vie des structures musicales (instanciation, construction, transformation, organisation) sont réalisées par des opérations de drag and drop (ou glissé/déposé), qui sont la base de l'interaction dans l'environnement.

La partie supérieure gauche de la fenêtre est appelée la zone objets. Différentes classes d'objets musicaux (qui seront détaillées dans la partie 5) sont représentées par des icônes dans la barre supérieure de cette zone. Ces classes peuvent être instanciées en glissant l'icône correspondante dans la zone objets (voir figure 4). Un objet est alors représenté par une boîte rectangulaire, mobile sur cet espace, sur laquelle est dessiné un aperçu de son contenu, qui pourra lui-même être édité et écouté.

images/Sticef_2006_bresson_0704.jpg

Figure 4 • Instanciation d'objets musicaux en glissant les icônes de classes dans la zone objets.

La partie droite de la fenêtre est appelée zone opérateurs. Elle contient une liste d'opérateurs qui pourront être appliqués aux objets provenant de la zone objets. Cette liste est construite par l'utilisateur en choisissant parmi une bibliothèque d'opérateurs disponibles (voir figure 5).

images/Sticef_2006_bresson_0705.jpg

Figure 5 • Sélection des opérateurs dans le menu.

Pour appliquer une opération sur un objet, la boîte de l'objet doit être glissée depuis la zone objets sur l'icône correspondant dans la liste d'opérateurs (voir figure 6). Une fenêtre de dialogue apparaît alors, permettant à l'utilisateur de fixer les éventuels paramètres de l'opération. Une fois ces paramètres entrés et confirmés, un nouvel objet est calculé et une nouvelle boîte apparaît dans la zone opérateurs.

images/Sticef_2006_bresson_0706.jpg

Figure 6 • Application d'une transformation sur un objet musical : 1) l'objet (un accord) est glissé sur l'opérateur (une transposition); 2) une fenêtre de dialogue permet d'entrer les paramètres de la transformation (l'intervalle de transposition); 3) un nouvel objet est créé.

Cette nouvelle boîte peut alors être glissée dans la zone objets : elle pourra ensuite subir à son tour des transformations. Un cycle de transformation et d'opérations entre les objets peut ainsi être établi, permettant la construction de matériau musical de plus en plus élaboré.

Enfin, la zone inférieure de la fenêtre est appelée maquette. Il s'agit d'un séquenceur dans lequel les objets de la zone supérieure peuvent être déposés et assemblés dans le temps, permettant d'effectuer un montage global à partir des structures créés dans les phases précédentes. Des possibilités plus avancées de la maquette seront présentées dans la partie 7.

5. Structures musicales

5.1. Objets

Cinq classes d'objets dans Musique Lab Maquette peuvent constituer la « palette » des objets disponibles dans un contexte pédagogique donné (i.e. dans un document) : accord, séquence d'accords, séquence rythmique, enveloppe, et audio (voir figure 7).

images/Sticef_2006_bresson_0707.jpg

Figure 7 • Objets musicaux.

- Un accord représente un ensemble de (une ou plusieurs) notes. Chacune est définie par une hauteur (déterminée suivant une échelle chromatique traditionnelle, ou suivant une échelle en quarts ou huitièmes de tons), par une durée, et une amplitude.

- Les séquences et séquences rythmiques représentent des séries d'accords en notation temporelle linéaire ou musicale, respectivement.

- Une enveloppe est une courbe par segments représentant l'évolution d'une valeur.

- Un objet audio représente un son (fichier audio).

Ces différents objets, représentés sur le document par des boîtes, peuvent êtres visualisés et modifiés à l'aide d'éditeurs graphiques dédiés. Les objets musicaux en particulier (accords et séquences) disposent d'éditeurs de type partition (voir figure 8) permettant l'ajout et la suppression de notes, la construction de rythmes (le cas échéant), le contrôle et la visualisation des différents paramètres musicaux (durées, dynamique, etc.)

images/Sticef_2006_bresson_0708.jpg

Figure 8 • Éditeur d'un objet de type séquence rythmique.

Un objet peut également prendre forme par l'importation de données externes (c'est le cas général pour les fichiers audio). Une séquence d'accord peut par exemple être importée à partir d'un fichier au format MIDI ou d'un fichier d'analyse sonore de type « suivi de partiels » (Hannape et Assayag, 1998).

5.2. Modèle tonal

La majeure partie du répertoire étudié dans les conservatoires se situe dans la période tonale de l’histoire de la musique ; de la même façon, le programme d’étude de l’enseignement général en collège s’appuie sur un socle de notions incluant la tonalité. Afin de se prêter aux manipulations dans ce contexte, les objets musicaux sont dotés d'un modèle de tonalité hiérarchique : une séquence possède une tonalité, et chaque accord à l'intérieur de cette séquence peut avoir sa propre tonalité (ce qui correspond à une modulation), ou ne pas en avoir et hériter ainsi de la séquence qui le contient. Les notions relatives à la tonalité peuvent ainsi être appréhendées à la fois au niveau de la représentation graphique (dans les éditeurs) et au niveau de la structure interne (lors des calculs sur les objets).

images/Sticef_2006_bresson_0709.jpg

Figure 9 • Affectation d'une tonalité dans un éditeur musical.

Les éditeurs musicaux permettent ainsi d'assigner une tonalité aux séquences, accords, ou groupes d'accords (voir figure 9). Au plan hiérarchique le plus élevé (celui de l'éditeur), cette tonalité déterminera l'armure de la portée. Dans un contexte tonal donné (tonalité générale ou modulation tonale), les éventuels degrés et chiffrages des accords peuvent alors être déduits et affichés (voir par exemple le premier accord de la séquence musicale représentée sur la figure 9).

6. Transformations

La seconde partie de la base formelle de Musique Lab Maquette est celle du calcul et des transformations des structures musicales. Celle-ci repose principalement sur une bibliothèque d'opérateurs applicables aux objets musicaux selon le protocole décrit dans la partie 4.4.

Les opérateurs de cette bibliothèque sont regroupés en différentes catégories. Dans la partie qui suit, nous donnons un aperçu de ces catégories, illustrées par quelques exemples. Les illustrations y sont simplifiées et montreront les objets initiaux, le dialogue de paramétrage, et l'objet résultant, suivant dans chacun des cas le schéma logique objet – paramètres – résultat.

Une partie des opérateurs constituant cette bibliothèque sont dérivés d'outils existants ayant été développés dans OpenMusic par le passé dans un objectif compositionnel ou analytique. D'autres, cependant, ont été créés spécialement pour Musique Lab Maquette. La partie 6.2 traitera du système mis en place pour l'incorporation de fonctions dans la librairie d'opérateurs.

6.1. Opérations musicales

Un premier groupe d'opérateurs est appelé utilitaires et contient diverses fonctions pour les manipulations courantes sur les structures musicales. Les principaux opérateurs existant à l'heure actuelle dans ce groupe sont la concaténation, la répétition (par exemple, créer une séquence à partir d'une autre séquence répétée n fois), l'application d'un motif rythmique sur une mélodie, ou, à l'inverse, d'une ligne mélodique sur un rythme, la conversion d'une séquence en notation linéaire vers une notation rythmique – ou quantification rythmique (Agon, 1994). Ce dernier cas est illustré sur la figure 10.

images/Sticef_2006_bresson_0710.jpg

Figure 10 • Conversion d'une séquence d'accords en notation linéaire en une notation rythmique (quantification rythmique).

Un second groupe d'opérateurs est dédié au traitement des enveloppes. Une enveloppe représente la courbe d'évolution (pseudo) continue d'une valeur, d'un paramètre abstrait. Les opérateurs correspondants permettent de manipuler cette courbe (lissage, échantillonnage), et/ou de la mettre en correspondance avec divers paramètres musicaux (hauteur, dynamique, etc.) Une ligne mélodique peut par exemple être extraite d'une séquence musicale sous la forme d'une enveloppe, qui pourra être ré-échantillonnée, et utilisée de façon abstraite comme paramètre dans une autre opération, ou simplement appliquée à une autre séquence. Les figures 11 et 12 sont des exemples d'utilisation d'enveloppes pour la génération de profils mélodiques.

images/Sticef_2006_bresson_0711.jpg

Figure 11 • Création d'une séquence de notes par échantillonnage d'une enveloppe.

L'exemple de la figure 12 illustre en particulier la possibilité d'introduire des concepts mathématiques dans le calcul des objets musicaux : une séquence de notes y est créée suivant un algorithme d'interpolation polynomiale (B-spline) à deux dimensions.

images/Sticef_2006_bresson_0712.jpg

Figure 12 • Création d'une séquence de notes par interpolation polynomiale sur un ensemble de notes initiales.

On notera que cette conception continue des paramètres musicaux est permise dans le domaine des hauteurs par les structures de données sous-jacentes : les échelles micro-intervalliques permettent la visualisation et le rendu des séquences musicales avec une précision allant jusqu'au huitième de ton.

Les enveloppes entreront également en jeu dans les opérations d'interpolation entre objets musicaux (voir figure 13). Celles-ci permettent de réaliser des interpolations entre des accords (passer de manière pseudo continue d'un groupe de notes à un autre), ou entre des profils mélodiques, de façon linéaire ou suivant un profil d'interpolation donné. Ces interpolations peuvent par ailleurs inclure une correction harmonique (i.e. le respect d'une échelle de hauteurs donnée dans les objets interpolés).

images/Sticef_2006_bresson_0713.jpg

Figure 13 • Interpolation entre deux accords.

Divers groupes d'opérateurs évoluent spécifiquement dans le domaine tonal. Le groupe de transpositions est constitué d'un ensemble d'opérateurs permettant de transposer accords ou séquences suivant des intervalles chromatiques fixes (exprimés en demi-tons), suivant des enveloppes, des intervalles musicaux (seconde, tierce, etc.), ou encore d'une tonalité vers une autre (voir figure 14).

images/Sticef_2006_bresson_0714.jpg

Figure 14 • Exemple de transposition : d'une tonalité (Do Majeur) vers une autre (Fa# mineur). Cette opération est complémentaire à celle illustrée en figure 6, dans laquelle la transposition était spécifiée par un intervalle dans une tonalité unique (le présent exemple s'approchant plutôt de la notion de modulation tonale).

L'opérateur d'arpège est une fonction permettant la création d'une arpégiation à partir d'un accord et suivant des spécifications rythmiques et harmoniques telles l'ambitus des hauteurs, ou les probabilités d'apparition de broderies ou de notes de passage (voir figure 15). Différentes configurations de ces paramètres permettent de recréer des styles particuliers, tout en maintenant une diversité dans les résultats grâce aux aspects probabilistes du calcul.

images/Sticef_2006_bresson_0715.jpg

Figure 15 • L'opérateur arpège.

D'autres opérateurs harmoniques permettent la recherche de renversements d'accords, ou encore de canons rythmiques.

Les opérateurs de contrepoint permettent de réaliser des mouvements contraires et/ou rétrogrades selon le modèle tonal ou sériel (voir figure 16).

images/Sticef_2006_bresson_0716.jpg

Figure 16 • Trois opérateurs de contrepoint : mouvement contraire, mouvement rétrograde, et mouvement contraire et rétrograde. Dans ces cas, il n'y a pas de dialogue de paramétrage, étant donné que ces opérateurs ne nécessitent aucun paramètre additionnel pour effectuer le calcul.

Enfin, une série d'opérateurs est dédiée au traitement du signal sonore. Ceux-ci permettent l'extraction de données de description à partir d'objets audio, ou encore la création de sons à partir de données musicales. Ces outils sont basés sur le programme pm2, développé à l'IRCAM par l'équipe Analyse/Synthèse, et adaptés de travaux menés dans OpenMusic concernant l'intégration de cet outil dans les processus compositionnels (Bresson, 2006). Les principales fonctions disponibles à l'heure actuelle concernent :

- l'estimation et le suivi de la fréquence fondamentale (Doval et Rodet, 1991), qui produit une courbe temps/fréquence correspondant à l'évolution supposée de la fréquence fondamentale d'un son harmonique;

- le suivi de partiels (MacAulay et Quatieri, 1986), qui détecte et suit l'évolution des principaux composants sinusoïdaux du spectre sonore, et dont le résultat est converti en séquence d'accords (voir figure 17);

- la synthèse additive, qui permet de créer un fichier audio en additionnant les composantes sinusoïdales correspondant aux différentes notes d'une séquence musicale.

images/Sticef_2006_bresson_0717.jpg

Figure 17 • Suivi de partiels d'un son. L'analyse retourne une séquence d'accords correspondant aux principaux partiels détectés.

L'utilisation du son et des descriptions sonores dans l'environnement de travail et leur mise en relation avec les objets et processus compositionnels font partie des pratiques courantes des compositeurs contemporains. La reproduction de ces opérations par des méthodes d'interaction élémentaires permet ainsi une expérimentation sur leur signification technique et musicale.

6.2. Aspects dynamiques de la bibliothèque

Chaque élément de la bibliothèque d'opérateurs se réfère à une fonction générique écrite en Lisp, et est représenté sur le document par une icône. Les différentes transformations sur les objets musicaux présentées dans les parties et exemples précédents sont appliquées en glissant l'objet sur cette icône, suite à quoi une fenêtre présente un « formulaire » de paramétrage à l'utilisateur. Ce formulaire est créé dynamiquement selon l'objet de la transformation et la méthode correspondant à celui-ci.

Cette procédure est réalisée à l'aide de fonctionnalités offertes par le protocole de méta objets – ou MOP, Meta-Object Protocol – de CLOS (Kiczales et al., 1991). Le MOP permet la réflexivité du langage orienté objet, c'est-à-dire que les éléments qui constituent ce langage peuvent devenir les objets de traitement du programme. En d'autres termes, les classes, fonctions, méthodes qui constituent un programme peuvent être créées, inspectées et manipulées dynamiquement pendant que ce programme s'exécute.

Le formulaire de paramétrage est donc créé en inspectant la méthode désignée par l'opération et spécialisée par l'objet, ainsi que ses différents arguments, afin d'en déterminer les types, les valeurs par défaut, etc. Les composants graphiques de l'interface sont alors générés automatiquement et disposés sur la fenêtre de dialogue. Des types spécifiques ont ainsi été créés, et se sont vus assigner des composants graphiques adaptés : types simples comme un entier, une liste à choix multiples, un booléen, mais également structures plus complexes, spécifiquement musicales, comme un monnayage rythmique (voir figure 15, par exemple), une tonalité (figure 14), un intervalle (figure 6), etc.

Ce protocole facilite donc l'extensibilité de l'application, étant donné que l'ajout de nouveaux opérateurs nécessite uniquement l'enregistrement d'une ou plusieurs méthodes Lisp dans la bibliothèque d'opérateurs, pourvu que celles-ci soient spécialisées en leur premier argument par l'un des objets supportés dans Musique Lab Maquette (accord, séquence, etc.) et par les types mentionnés ci-dessus pour leurs arguments additionnels. Le protocole d'appel fonctionnel et l'interface du formulaire se mettent alors en place naturellement.

Enfin, ce protocole a permis d'implanter un système de préréglages pour l'enregistrement et le rappel d'ensemble de paramètres correspondant aux différents opérateurs.

Cet aspect dynamique et extensible de la bibliothèque d'opérateurs nous semble être un aspect fondamental du projet dans lequel s'inscrit cette application. Les développements et évolutions à venir permettront en effet d'enrichir et de compléter cette bibliothèque afin d'aborder des champs d'application, des formalismes et des esthétiques variées.

7. Déploiement des objets musicaux

La partie inférieure du document est appelée maquette, en référence à l'interface de programmation du logiciel OpenMusic qui porte le même nom et dont elle hérite une grande partie des fonctionnalités. Elle correspond en outre à la troisième des approches du matériau musical mentionnées dans la partie 3, consistant en l'organisation et le déploiement des objets dans un contexte temporel global. La séparation de ce concept et de celui de la création du matériau musical (hors des structures temporelles) reflète une position compositionnelle relativement répandue – voir par exemple les notions « en temps » et « hors temps » chez Xenakis (Xenakis, 1981) – et permet de se focaliser indépendamment sur ces deux différents aspects.

Les objets musicaux provenant de la zone objets (issus du calcul ou créés manuellement dans les éditeurs) peuvent donc être glissés dans la zone maquette. Ils sont alors représentés par un autre type de boîte rectangulaire, dont les attributs graphiques (position, taille) revêtent une nouvelle signification temporelle et fonctionnelle.

7.1. Organisation du matériau musical

L'axe horizontal de la zone maquette représente le temps, selon le modèle des séquenceurs musicaux classiques. Le premier et principal usage de la maquette consiste donc en la réalisation du montage et de l'ordonnancement d'objets musicaux. La position des boîtes sur cet axe horizontal représente la date d'entrée des objets dans le référentiel temporel global, et leur extension détermine leur durée (les objets musicaux peuvent ainsi être étirés ou compressés dans le temps en déformant les boîtes.)

L'échelle de temps est spécifiée soit en temps « absolu » (i. e. en millisecondes), soit à l'aide d'une métrique et d'un tempo. Dans les deux cas, une unité minimale peut être spécifiée, permettant de placer précisément les objets.

La maquette peut finalement être « jouée », à la manière d'un séquenceur, à l'aide de contrôles classiques (play, pause, etc.)

La figure 18 montre des objets disposés sur la zone maquette d'un document.

images/Sticef_2006_bresson_0718.jpg

Figure 18 • La zone maquette.

Afin de proposer une représentation conjointe cohérente des différents objets musicaux, la notation musicale utilisée pour représenter le contenu des boîtes est substituée par une représentation linéaire de type piano roll. Cependant, les objets contenus dans les boîtes restent éditables à l'aide des éditeurs musicaux.

Les différents attributs visuels des boîtes (intitulé, couleur, attachement d'une image) sont modifiables par l'utilisateur, lui permettant d'organiser et de singulariser ses objets.

Enfin, un système de pistes MIDI et audio permet le contrôle interactif des paramètres d'exécution (volume, panoramique) par l'intermédiaire de consoles de mixage (voir figure 19). Sur la console MIDI, le choix de timbres instrumentaux (programmes MIDI) pour les différents canaux permet de réaliser des simulations d'instrumentations.

images/Sticef_2006_bresson_0719.jpg

Figure 19 • Console de mixage MIDI.

Sur la figure 19, le canal de droite (intitulé « microplayer ») est un canal virtuel vers lequel sont redirigés les objets spécifiés dans des échelles micro-tonales (quarts ou huitièmes de tons), et permettant un rendu micro-intervallique de ces objets.

7.2. Objets potentiels

Complémentairement à leur rôle structurant dans la dimension temporelle, les attributs graphiques des boîtes disposées dans la zone maquette peuvent également avoir une signification « fonctionnelle ».

La position des boîtes sur l'axe vertical, et leur taille selon ce même axe, peuvent être utilisés pour définir ce que nous appellerons des « objets potentiels ». Ces paramètres peuvent en effet avoir une influence sur le contenu même de la boîte. À un premier niveau, ils pourront être utilisés pour contrôler le volume de l'objet (par exemple, plus l'objet est disposé en hauteur, plus son niveau est élevé) ou le canal MIDI (afin de changer dynamiquement le timbre instrumental).

Ainsi, à chaque fois que la boîte est redimensionnée ou déplacée, l'objet musical qu'elle renferme est modifié, selon une correspondance fixée entre les attributs de cet objet et les unités de l'axe vertical de la maquette. Ces propriétés comportementales sont spécifiées à l'aide de la fenêtre de paramétrage visible sur la figure 20.

images/Sticef_2006_bresson_0720.jpg

Figure 20 • Paramétrage des propriétés des boîtes.

Dans certains cas, l'utilisation de ces attributs graphiques pour la spécification de paramètres fonctionnels peut également faire sens : un objet glissé dans la zone maquette garde une mémoire de l'opérateur qui l'a créé (s'il a été créé par un opérateur), ainsi que de l'objet à partir duquel il a été créé et des paramètres de cette opération. Cet objet dispose donc de toute l'information requise pour se recalculer si nécessaire, éventuellement en modifiant certains de ces paramètres. Les attributs graphiques de la boîte (position et taille) peuvent donc intervenir à ce niveau, et revêtir une dimension nouvelle.

Pour ce faire, l'utilisateur doit également spécifier une correspondance entre la plage de variation de l'un des paramètres de l'opérateur et les unités graphiques de la maquette.

A chaque redimensionnement ou déplacement de la boîte, cette fois, l'objet est recalculé et prend une nouvelle forme.

Différentes instances d'un même « objet potentiel » (les copies d'une boîte initiale unique paramétrée de la sorte) pourront ainsi avoir des valeurs différentes selon leur position et/ou leur taille.

Ce système se montre utile et pertinent dans des situations d'enseignement : un tel objet, considéré à l'aide d'une fonction et d'un ensemble de données, comme un potentiel de réalisations musicales plutôt que comme une structure constante, permet en effet d'apprécier dynamiquement l'influence des différents paramètres musicaux.

Parmi les opérateurs évoqués précédemment, on pourra par exemple utiliser ce principe avec la génération d'arpèges – par exemple, plus un objet est disposé en hauteur sur la maquette, plus grande est la probabilité d'apparition de notes de passage ; plus la boîte est grosse, plus l'arpège s'étend en ambitus – ou sur les intervalles de transposition d'objets mélodiques – par exemple pour la construction de canons.

La figure 21 est une illustration de l'exemple de la construction d'arpèges : une séquence créée avec cet opérateur (à partir d'un accord) a été glissée dans la maquette. Les paramètres de la boîte correspondante ont alors été réglés de sorte que l'ambitus de l'arpège soit fonction de la position verticale de cette boîte. Cette boîte est ensuite dupliquée dans le temps, avec des positions verticales différentes, produisant les arpèges correspondants : les arpèges sont de plus en plus « étendus » en fonction de ces positions.

images/Sticef_2006_bresson_0721.jpg

Figure 21 • Utilisation du calcul dynamique des objets dans la maquette.

8. Enjeux pédagogiques et éléments d'évaluation

Musique Lab Maquette et les autres applications du projet (Musique Lab Annotation et Musique Lab Audio) ne sont pas diffusées à grande échelle à l'heure actuelle ; ainsi est-il encore difficile d'obtenir des éléments formellement fondés et objectifs sur leur évaluation. Des expériences ont cependant été mises en place par l'équipe pédagogique de l'IRCAM ainsi que par des professeurs de collège et de conservatoires dans des classes ou ateliers de musique, et permettent d'ores et déjà de tirer des premières conclusions sur l'utilisation de ces outils en situation de cours.

Ces expériences ont mis en évidence différents cas d’utilisation concernant les enseignements généralistes et les enseignements spécialisés. De manière générale, elles consistent en une phase de démonstration, dans laquelle le professeur utilise les applications projetées sur un écran, et en une phase d'utilisation par les élèves, sur des postes informatiques individuels, et sur la base de documents préparés par le professeur ou construits en interaction avec celui-ci.

8.1. Utilisation dans le cadre d'enseignements généralistes

Le programme d’enseignement musical du collège est articulé autour de deux grands axes : l’acquisition d’une culture musicale (histoire de la musique, connaissance des instruments de l’orchestre, analyse – sans faire appel au solfège), et l’acquisition de compétences musicales (développement de l’oreille, reconnaissance de thèmes, d’instruments, pratique musicale minimale – flûte à bec dans certains cas, mais aussi percussions, ou informatique musicale lorsque l’établissement est équipé.) Dans ce contexte, les acteurs sont d’une part l’enseignant, qui accède à l’ensemble des équipements (piano, chaîne hi fi, tableau) pour soutenir son cours, et d'autre part l’ensemble des élèves (entre 24 et 35) dont l’accès aux ressources sonores est contrôlé par l’enseignant.

Le premier cas d'utilisation de Musique Lab Maquette est celui du tableau « réactif », réalisé en projetant l'ordinateur de l'enseignant sur un écran. Il ne s’agit pas alors de pédagogie novatrice, mais d’un auxiliaire du cours. Il n’est pas rare en effet qu’un enseignant se déplace constamment entre un tableau, pour écrire, un piano, pour jouer un thème, une chaîne stéréo, pour faire entendre un enregistrement. Musique Lab Maquette apporte à cette situation une facilité d’emploi qui permet d’agréger dans un document le matériau permettant d’alimenter une argumentation, soit en « jouant » les objets préalablement calculés, soit en les construisant sous les yeux des élèves.

Un deuxième cas rencontré est celui de l’analyse ou la reconstruction d’une œuvre. Des documents ont été élaborés à cet effet dans Musique Lab Maquette, afin de permettre la reconstruction de processus musicaux (par exemple avec La Rousserolle Effarvatte, ou la Liturgie de Cristal de Messiaen), voire parfois d'œuvres entières (l'Offrande Musicale, ou les Variations Goldberg de Bach.) Les documents se déclinent alors en deux parties, que l'on pourrait appeler, pour reprendre une image venant de l’édition scolaire, le « livre du professeur » et le « livre de l’élève ». Le document de l’élève est souvent formulé sous la forme d’une question surmontant des éléments constituant un matériau de base d'une œuvre étudiée, et accompagnée des opérateurs nécessaires à sa reconstruction. Dans ce scénario pédagogique, chaque élève dispose d’une machine et doit reproduire l’œuvre de la façon qui lui semble la plus simple. La figure 22 présente un document de ce type pouvant être proposé à un élève.

images/Sticef_2006_bresson_0722.jpg

Figure 22 • Le « livre de l'élève » proposé pour la reconstruction du canon par tons de l'Offrande Musicale (J. S. Bach.)

Enfin, le troisième cas d'utilisation concerne les projets de création. Il arrive en effet que certains enseignants bénéficient d’un contexte favorable à l’élaboration de projets de ce type, généralement étendus sur une année. Il peut alors s'agir, par exemple, d'un projet singulier de concert, d’installation, ou d'un projet associant plusieurs enseignants de disciplines complémentaires. Musique Lab Maquette est alors utilisé pour l'élaboration de matériau musical, et éventuellement associé à Musique Lab Audio afin de réaliser des traitements contrôlés par le geste sur ce matériau. La figure 23 montre des élèves travaillant avec Musique Lab Maquette dans le cadre d'un tel projet.

images/Sticef_2006_bresson_0723.jpg

Figure 23. Elèves du collège Lavoisier à Paris travaillant sur un projet de création avec Musique Lab Maquette.

8.2. Utilisation dans le cadre d'enseignements spécialisés

Malgré des programmes établis par les textes officiels, les enseignements spécialisés, par leur nature, créent une profusion de situations hétérogènes.

Dans un cours de formation musicale, Musique Lab Maquette peut être utilisée pour des exercices d’oreille, augmentant la « dictée » traditionnelle d’une dimension nouvelle, comme par exemple celui de reconnaître et d'apparier des structures musicales créées et ajustées dynamiquement. La figure 24 est un exemple d'exercice de ce type.

images/Sticef_2006_bresson_0724.jpg

Figure 24. Un exercice d'oreille dans la maquette : utiliser les déplacement d'un objet pour atteindre un état (sonore) donné, en référence à un autre objet.

Dans un cours d'analyse, Musique Lab Maquette permettra de décliner une analyse formelle sous la forme de documents pédagogiques adaptés à des situations de cours ou de niveaux différents (le modèle tonal mis en place dans les structures musicales permet notamment de représenter aisément des analyses harmoniques). Enfin, dans un cours d’harmonie ou de contrepoint, on pourra générer du matériau musical correspondant à une formule d'écriture étudiée en association avec un geste, selon le procédé que nous avons détaillé dans la partie 7.2 (marches d’harmonies recalculées en fonction de la position verticale des objets, arpèges dont on fait varier les notes étrangères, etc.)

Musique Lab Maquette est également utilisée dans des ateliers pédagogiques réalisés à l'IRCAM, notamment ceux liés à la musique spectrale. Ces ateliers s'adressent à des élèves partant de la classe de 4ème jusqu'à des étudiants en musique d'universités ou de conservatoires. Après avoir écouté un son et visualisé les partiels dont il est constitué, la relation entre le son (acoustique) et sa représentation symbolique en hauteurs (qui est un fondement de la musique spectrale) est comprise directement par les élèves, et peut être intuitivement expérimentée grâce aux opérateurs simples et puissants d'analyse ou de synthèse sonore proposés. En faisant glisser une note sur un opérateur comme construire un spectre, et en écoutant le résultat en huitièmes de ton ou en demi-tons seulement, ceux-ci expérimentent et font écho de l'importance de la notation en micro-intervalles, de la proximité de l'harmonie et du timbre, ainsi que de la sensation de fusion qui est recherchée par les compositeurs spectraux. Les élèves réalisent alors eux-mêmes des séquences musicales dans la zone maquette en s'inspirant de pièces étudiées, séquences dont la qualité est une preuve de la compréhension de ces concepts, perceptivement pertinents et musicalement riches. Parmi les œuvres ayant fait l'objet de ce type d'expérience, on trouve notamment Partiels de Grisey, Désintégrations de Murail, ou encore Le plein du vide de Xu Yi, cette année au programme du baccalauréat.

Ce principe pédagogique de recomposition, que nous avons déjà évoqué précédemment, permet ainsi une réappropriation de l'écoute des pièces. La figure 25 montre un exemple de document Musique Lab Maquette créé par un élève au cours d'un atelier autour de la pièce de Xu Yi, Le plein du vide.

images/Sticef_2006_bresson_0725.jpg

Figure 25 • Exemple de travail réalisé par un élève dans Musique Lab Maquette.

8.3. Un premier bilan

Selon ces quelques expériences, Musique Lab Maquette s'est montré un outil d'enseignement musical pertinent sous différents points de vue. De manière générale, on pourra évoquer un impact sur la compréhension et la mémorisation des concepts : associer un geste, une action (par exemple faire glisser un objet sur un opérateur), à une explication théorique permet une meilleure acquisition des notions étudiées. Cette action associe en effet la mémoire habituellement sollicitée dans une explication orale à une mémoire tactile, physique : il faut agir pour construire un matériau, ou un raisonnement.

Le document de travail et ses fonctionnalités s’avèrent par ailleurs un efficace « établi musical » permettant de conserver de semaine en semaine un état d’avancement. De cette façon, un enseignant peut facilement avoir accès à une représentation du degré de confusion ou au contraire de maîtrise dans les différentes étapes par lesquelles sont passés les élèves pour atteindre un résultat.

Afin d’éviter les pièges posés par la facilité avec laquelle une certaine complexité musicale pourrait être élaborée sans forcément être comprise, un effort a été fait pour multiplier les opérateurs faisant des choses relativement « simples » plutôt que des opérateurs complexes assortis d’une multitude de paramètres. En conséquence, chaque construction constitue une démarche progressive, qui nécessite un support pédagogique d'autant plus présent.

Il apparaît ainsi primordial avec Musique Lab 2 de fournir à l'utilisateur des scénarios et situations préétablies et à explorer afin d'initier une interaction autonome. Cette remarque est valable pour les élèves comme pour les enseignants, pour lesquels l'appropriation de l'environnement peut se révéler délicate dans une première approche. Les supports de cours élaborés et fournis en complément des applications pourront alors être personnalisés par les enseignants selon des orientations pédagogiques ou des niveaux de connaissances musicales visés, et partagés entre enseignants ou distribués aux élèves.

9. Conclusion

Dans cet article, nous avons présenté une réalisation dans le domaine des outils informatiques dédiés à l'enseignement musical, basée sur des concepts d'écriture et de composition. Cette approche originale est permise par le potentiel et les représentations d'un environnement de calcul initialement dédié à la composition ; les interfaces et protocoles mis en place dans l'application ayant pour objectif de détourner cette orientation pour produire un outil d'apprentissage et de compréhension.

Dans Musique Lab Maquette se retrouvent certaines notions importantes et caractéristiques des micromondes, notamment avec l'idée de programmation de processus (musicaux), de combinaison de ces processus, à partir d'un ensemble restreint de structures et d'éléments fonctionnels.

Musique Lab Maquette (et l'ensemble des logiciels Musique Lab 2) vise avant tout une utilisation en classe, c'est-à-dire en complément d'une interaction avec un professeur. Celui-ci pourra l'utiliser pour la démonstration des concepts musicaux et des mécanismes de la composition, ainsi que pour des expériences pédagogiques autour de ces concepts et d'œuvres musicales.

Les trois positions adoptées dans Musique Lab Maquette, que nous avons essayées de souligner, tendent à reconstituer une attitude compositionnelle dont l'approche expérimentale et interactive est susceptible de stimuler intérêt et créativité de la part des élèves des classes de musique.

Nous avons également relevé l'importance et la nécessité de mettre des scénarios pédagogiques, ou ensemble d'activités et de problèmes proposés, à disposition des utilisateurs.

Ainsi, les développements à venir dans ce projet devraient élargir son champ d'application, par la création de nouveaux opérateurs et objets musicaux, mais également s'attacher à produire et favoriser les échanges de documents et de supports de cours. Un projet de réalisation d'explorations interactive de pièces musicales du répertoire à l'aide des outils Musique Lab 2 (Musique Lab Maquette, mais aussi Musique Lab Audio et Musique Lab Annotation) est également envisagé.

10. Remerciements

Les auteurs souhaitent remercier Grégoire Lorieux, Charlotte Truchet et Carlos Agon pour leur participation, ainsi que les professeurs ayant contribué à l'élaboration de ce projet.

BIBLIOGRAPHIE

AGON C. (1994). Kant: Une critique de la quantification pure. Mémoire de DEA d'Informatique. Université de Paris XI, France.

AGON C. (1998). OpenMusic: Un Langage Visuel pour la Composition Assistée par Ordinateur. Thèse de Doctorat. Université Pierre et Marie Curie (Paris VI), France.

AGON C., ASSAYAG G., DELERUE O., RUEDA C. (1998). Objects, Time and Constraints in OpenMusic. Proceedings of the International Computer Music Conference, Ann Arbor, USA, pp. 406-415.

AGON C. (2004). Langages de programmation pour la composition musicale. Habilitation à Diriger des Recherches, Université Pierre et Marie Curie (Paris VI), France.

ANDREATTA M. (2004). On group-theoretical methods applied to music: some compositional and implementational aspects. In Mazzola et al. (Eds) Perspectives in Mathematical and Computational Music Theory, Electronic Publishing Osnabrück, pp.169-193.

ASSAYAG G. (1993). CAO : vers la partition potentielle. In Les Cahiers de l'IRCAM : La Composition Assistée par Ordinateur, pp. 13-41.

ASSAYAG G., AGON C., FINEBERG J., HANAPPE P. (1997). Problèmes de notation dans la composition assistée par ordinateur. Actes des rencontres musicales pluridisciplinaires, Musique et Notation. Lyon, France.

ASSAYAG G., RUEDA C., LAURSON M., AGON C., DELERUE O. (1999). Computer Assisted Composition at Ircam: PatchWork & OpenMusic. Computer Music Journal, Vol. 23 n°3, pp. 59-72.

ASSAYAG G., BEJERANO G., DUBNOV S., LARTILLOT O. (2001) Automatic modeling of musical style. Actes des 8èmes Journées d'Informatique Musicale, Bourges, France, pp. 113-119.

BRESSON J., AGON C., ASSAYAG G. (2005). OpenMusic 5: A Cross-Platform Release of the Computer-Aided Composition Environment. Proceedings of the 10th Brazilian Symposium on Computer Music, Belo Horizonte, Brazil, pp. 1-12.

BRESSON J. (2006). Sound Processing in OpenMusic. Proceedings of the 9th International Conference on Digital Audio Effects DAFX'06, Montreal, Canada, pp. 325-330.

BRESSON J., AGON C. (2006). Temporal Control over Sound Synthesis Processes. Proceedings of the Sound and Music Computing Conference SMC'06, Marseille, France, pp.67-76.

CAPPONI B., LABORDE J. M. (1998) Actes de l'Université d'été : Cabri-géomètre, de l'ordinateur à la calculatrice. De nouveaux outils pour l'enseignement de la géométrie.

DANNENBERG R., DESAIN P., HONING H. (1997). Programming Language Design for Music. In Roads C. et al. (Eds) Musical Signal Processing, Swets and Zeitlinger, pp. 271-315.

DESAIN P., HONING H. (1988). LOCO: A Composition Microworld in Logo. Computer Music Journal, Vol. 12 n°3, pp. 30-42.

DOVAL B., RODET X. (1991). Estimation of Fundamental Frequency of Musical Sound Signals. Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing ICASSP, Toronto, Canada, pp. 3657-3660.

GUÉDY F. (2006). Musique Lab 2, un environnement pour la pédagogie musicale. L'Inouï, Vol. 2, Ircam – Editions Léo Scheer, pp. 149-153.

HANNAPE P., ASSAYAG G. (1998). Intégration des représentations temps/fréquence et des représentations musicales symboliques. In Chemiller M., Pachet F. (Eds) Recherches et applications en informatique musicale, Hermes, France, pp. 199-207.

HONING H. (1993). A microworld approach to the formalization of musical knowledge. Computer and the Humanities, 27, pp. 41-47.

KICZALES G., DES RIVIERES J., BOBROW D. G. (1991). The Art of the Metaobject Protocol, MIT Press.

MACAULAY R. J., QUATIERI T. F. (1986). Speech analysis/synthesis based on a sinusoidal representation. IEEE Transactions on Acoustics, Speech and Signal Processing, Vol. 34 n°4, pp. 744-754.

PUIG V., GUÉDY F., FINGERHUT M., SERRIèRE F., BRESSON J., ZELLER O. (2005). Musique Lab 2: A Three Level Approach for Music Education at School. Procceedings of the International Computer Music Conference, Barcelona, Spain, pp. 419-422.

SCHOONDERWALDT E., HANSEN K., ASKENFELT A. (2004). IMUTUS - an interactive system for learning to play a musical instrument. Proceedings of the International Conference of Interactive Computer Aided Learning (ICL), Villach, Austria.

STEELE G. L. (1998). Common LISP The language, second edition, Digital Press, USA.

XENAKIS I. (1981). Musiques Formelles. Stock Musique, France.

Sites Internet

- Site internet du projet européen i-Maestro : http://www.i-maestro.net/

- JIM'07 : Journées d'Informatique Musicale 2007 : http://www.grame.fr/jim07/

- Site internet Musique Lab de l'IRCAM : http://musiquelab.ircam.fr

- EducNet – Portail Internet Education Musicale et Technologies de l'Information de la Création et de la Communication : http://www.educnet.education.fr/musique/

A propos des auteurs

Jean Bresson est chercheur et développeur dans l'équipe Représentations Musicales de l'Ircam. Diplômé de l'Ecole Polytechnique de l'Université de Nice-Sophia Antipolis (anciennement Ecole Superieure en Sciences Informatiques) en 2003, il est actuellement chargé du développement de l'environnement de composition assistée par ordinateur OpenMusic, et de ML-Maquette, une extension pédagogique réalisée dans le cadre du projet Musique Lab 2. En préparation d'une thèse de doctorat de l'Université Paris-VI, ses travaux de recherche portent sur la représentation et l'écriture du son dans le domaine de la composition assistée par ordinateur.

Courriel : jean.bresson@ircam.fr

Fabrice Guédy, compositeur et enseignant, est responsable à l'Ircam du projet Musique Lab 2 ; il participe également au projet européen i-Maestro, centré sur les technologies de capture de geste. Ancien chef d'orchestre assistant de Daniel Barenboïm à l'orchestre de Paris, il a cofondé l'Atelier des Feuillantines, école d'art (musique et arts plastiques) dont la vocation est de faire coïncider l'enseignement et la création au travers de disciplines techniques enrichies par des projets d'œuvres associant artistes et élèves.

Courriel : Fabrice.Guedy@ircam.fr

Gérard Assayag est responsable de l'équipe Représentations musicales de l'Ircam, rattachée à l'Unité mixte de recherche du CNRS "Sciences et Technologies de la Musique et du son". Il est l'inventeur avec Carlos Agon du logiciel OpenMusic, un puissant environnement d'aide à la composition utilisé par de nombreux compositeurs et musicologues dans le monde. Ses centres d'intérêts sont les langages informatiques pour la musique, la modélisation des structures musicales et la générativité musicale.

Courriel : Gerard.Assayag@ircam.fr

Adresse : IRCAM, 1, place Igor Stravinsky, 75004 Paris

Toile : http://www.ircam.fr

 
Référence de l'article :
Jean Bresson, Fabrice Guédy, Gérard Assayag, Musique Lab Maquette : approche interactive des processus compositionnels pour la pédagogie musicale, Revue STICEF, Volume 13, 2006, ISSN : 1764-7223, mis en ligne le 30/01/2007, http://sticef.org
[Retour en haut de cette page] Haut de la page
Mise à jour du 15/02/07