Retour à l'accueil Sciences et Technologies
de l´Information et
de la Communication pour
l´Éducation et la Formation
version pleine page
version à télécharger (pdf)

Volume 14, 2007
Article de recherche



Contact : infos@sticef.org

Recueil de traces pour le suivi de l'activité d'apprenants en travaux pratiques dans un environnement de réalité virtuelle.

 

Cyrille BAUDOUIN*, Michel BENEY**, Pierre CHEVAILLIER*,

  Agnès LE PALLEC** * LISyC – ENIB , Brest - **LISyC – UBO , Brest

 

RÉSUMÉ : Ce travail s’inscrit dans le cadre d’un projet de paillasse virtuelle pour la réalisation de travaux pratiques en sciences. L’objectif est de suivre et analyser d’un point de vue didactique l’activité des apprenants afin de la modéliser. La réalité virtuelle permet une grande richesse d’activité entraînant un volume important d’observables. Nous proposons un environnement pour recueillir les traces nécessaires à l’analyse de l’activité des apprenants et une modélisation pour l’identification de leurs procédures manipulatoires. La paillasse virtuelle a été réalisée en utilisant Mascaret, un environnement virtuel d’apprentissage humain dans lequel tous les objets, actions et évènements sont réifiés en s’appuyant sur un méta-modèle. Ce modèle permet de décrire formellement les observables qui constituent les traces de l’activité. Nous avons mis en place une expérience avec des élèves ingénieurs et nous avons analysé les problèmes posés par le suivi des actions et leur traitement en termes d’activités. L’étude met en évidence les particularités de l’analyse des traces dans le cadre de travaux pratiques en réalité virtuelle.

MOTS CLÉS : réalité virtuelle, apprentissage, recueil de traces, travaux pratiques.

ABSTRACT : This work is part of a project which intends to build a virtual work surface for lab work. Our aim is to monitor and analyse learner’s activity in such environments in order to model it and to improve learning. Virtual Reality allows a lot of various activities to take place, leading to a high amount of observables. We proposed an environment for detecting and recording traces needed to analyze the learners’ activity. We also detailed a model which enables the identification of learners’ actions and processes. The virtual work surface has been built using Mascaret. In this virtual environment for learning, each object, action and event is an instance of a formal meta-model. This model allows us to formally define every observable corresponding to the traces. This study points out the specificities of trace analysis regarding lab work in virtual reality.

KEYWORDS : virtual reality, learning, trace recording, lab work.

 

1. Introduction

Le travail présenté dans cet article s’inscrit dans un projet de création d’une paillasse virtuelle destinée à mettre en place des travaux pratiques scientifiques. Cette paillasse a pour vocation d’être utilisée dans le contexte classique des travaux pratiques. L’objectif du projet est de favoriser les apprentissages en utilisant les potentialités de la réalité virtuelle et des systèmes tutoriels autonomes (Buche et al., 2004b), tout en conservant la nature manipulatoire et expérimentale d’un travail guidé. L’étudiant est immergé dans un monde virtuel ; il peut manipuler des objets dans un contexte proche de la réalité en utilisant des interfaces motrices adaptées.

La conception d’un tel Environnement Virtuel d’Apprentissage Humain (EVAH) nécessite de prendre en compte les spécificités des activités de travaux pratiques et de la réalité virtuelle. L’objectif de cet article est, d’une part de définir la nature des traces d’interaction dans un environnement virtuel afin de les recueillir de manière contrôlée et automatique, et d’autre part d’évaluer en quoi elles fournissent des éléments pertinents d’analyse de l’activité des apprenants.

La problématique du recueil des traces est double : des traces pour qui ? et pour faire quoi ? Si les traces sont destinées à un enseignant, celui-ci cherche à savoir si l’activité proposée est réussie, ou bien à repérer où sont les difficultés des apprenants (Héraud et al., 2005). Si ces traces sont destinées à l’apprenant, c’est pour qu’il puisse visualiser son activité (Katz et al., 1992) et détecter des informations signifiantes pour lui (Ollagnier–Beldame, 2006). Si ces traces sont utilisées par un chercheur en didactique, c’est pour analyser l’activité des apprenants afin de la modéliser et d’améliorer l’efficacité de l’apprentissage. C’est ce point de vue du chercheur en didactique qui nous intéresse ici.

La formalisation des traces d’utilisation repose sur deux composantes de l’EVAH MASCARET : les modèles d’environnement (VEHA) et d’activités (HAVE). Ces modèles permettent de formaliser la nature des observables qui constituent ces traces, leur production étant assurée par un agent artificiel. Les traces recueillies doivent décrire les activités effectives des apprenants, que ce soit en termes de procédures opératoires ou bien de recherches d’information (Tricot, 2003). Grâce à ces traces, le chercheur en didactique peut suivre et analyser l’utilisation de ressources spécifiques dans l’environnement virtuel. Il peut également chercher à reconnaître la réalisation de plans d’actions, à identifier des situations prototypiques.

Dans la partie 2 de l’article nous faisons un état des lieux des questions posées par les chercheurs en didactique concernant les travaux pratiques et nous précisions les caractéristiques des TP classiques qui nous concernent ici. Nous identifions également les particularités des interactions en réalité virtuelle et la nature des traces dans ce double contexte. En partie 3, nous définissons les différents types de données observables dans MASCARET. Afin d’évaluer la pertinence de nos traces, nous avons mené une expérimentation dont les résultats sont présentés et analysés en partie 4. Elle a porté sur l’analyse de l’activité d’apprenants, manipulant seuls, dans l’environnement.

2. Description des activités de travaux pratiques en réalité virtuelle

2.1. Les travaux pratiques en science

Classiquement, les apprenants manipulent debout, le matériel est déjà installé sur une paillasse et les apprenants peuvent se déplacer face au matériel (rarement derrière). Ils disposent d’un protocole expérimental écrit, ont à faire des mesures et à tirer des conclusions à partir des valeurs des mesures obtenues. Les mesures sont à faire en temps limité. Un enseignant vérifie l’activité des apprenants et répond à leurs questions.

Les étudiants apprennent des méthodes, des procédures de mesures et des démarches en prenant comme situation de référence, celle du laboratoire. Cet apprentissage se fait par l'action et par l'exemple, en suivant des consignes opératoires. Ce type de situation d'apprentissage classique favorise l’utilisation de connaissances prototypiques construites en référence aux activités antérieures (Beney et Séré, 2001).

2.2. Les traces d’activité en travaux pratiques

Il y a plusieurs problématiques concernant le recueil des traces pour des activités expérimentales en sciences. Le chercheur peut vouloir se servir de traces pour tester l’efficacité du guidage proposé en terme d'apprentissage (Beney et Guinard, 2004), étudier les activités d'apprentissage (Séjourné et Tiberghien, 2001), mettre en évidence le type de raisonnement des apprenants (Bécu-Robinault, 1997), (Reyde et Leach, 1999) ou pour caractériser les connaissances spécifiques qu’ils se construisent (Pateyron, 1997). Il peut vouloir décrire les activités des apprenants afin de les caractériser (difficultés, modes de raisonnement) soit dans un environnement naturel, soit en mettant en place des situations ad hoc (Vince, 2000). Pour toutes ces situations, les traces recueillies sont de nature différente. Elles ne prennent sens que mises en perspective avec les tâches à accomplir, les apprentissages visés et les difficultés des apprenants.

Les traces que le chercheur utilise sont issues d’observations en temps réel sous forme d’enregistrements vidéo ou audio, ou d’observations en différé par rapport à l’activité, sous forme d’entretiens d’explicitation de l’activité ou de réponses à des questionnaires (Dimitracopoulou et al., 2005). Une première difficulté réside dans l’analyse des enregistrements, souvent fastidieuse (allers-retours fréquents sur les enregistrements). Une seconde difficulté concerne la comparaison des actions des nombreux sujets à partir d'observables variés et pas toujours pertinents. Par ailleurs l’analyse reste subjective et repose sur une interprétation des données d’observation par le chercheur. Dans l’observation des manipulations qu’effectue l’apprenant, le chercheur s’attache à repérer des associations de deux ou plusieurs actions qui deviennent significatives de son point de vue, car indicatrices d’une solution en germe. Il ne tient donc pas compte d’hésitations dans les déplacements d’objets, il ne s’arrête pas aux paramètres gestuels, mais infère un sens aux manipulations qu’il observe.

2.3. Les interactions en réalité virtuelle

La réalité virtuelle offre un grand nombre de possibilités pour réaliser l’interfaçage comportemental d’un utilisateur avec un monde virtuel (Fuchs, 1996). En conséquence, les traces d’utilisation peuvent être de nature très diverse. Potentiellement, l’utilisateur peut exercer une commande motrice en utilisant différents types de périphériques auxquels sont associés un grand nombre de variables. Outre les classiques claviers et souris, il existe divers systèmes de pointage, de déplacement et de manipulation. Un dispositif tel qu’une souris 3D (spacemouse) offre 6 degrés de liberté pour les déplacements : elle fournit une information de localisation (en 3 dimensions) et d’orientation (selon 3 axes). Les dispositifs haptiques fournissent en plus, une information sur la force exercée par l’utilisateur. Un gant de données permet d’obtenir des informations sur la préhension d’objets. Des périphériques dotés d’accéléromètres (tel que la Nintendo Wiimote) peuvent donner des informations sur le mouvement dans l’espace. Dans les environnements immersifs où l’utilisateur est représenté sous forme d’un mannequin, celui-ci peut être équipé d’un système de suivi de mouvement qui permet de connaître la position et l’orientation de sa tête et de certains segments de son corps (membres, épaules, bassin...).

En règle générale, lorsque l’on conçoit un environnement virtuel, on cherche à offrir à l’utilisateur une interface sensori-motrice aussi naturelle que possible, de façon à ce qu’il utilise des schèmes comportementaux importés du monde réel. Ceci parce que la boucle sensori-motrice est souvent biaisée par les limites technologiques des dispositifs d’interface. Cependant, pour différentes raisons, il est parfois impossible de mettre en œuvre ces schèmes et il faut donc introduire des artifices pour réaliser l’interfaçage comportemental. Une première catégorie d’artifices est celle des métaphores d’interaction qui consistent à proposer une représentation symbolique de l’action. Par exemple, l’utilisateur pourra simplement cliquer sur un robinet pour remplir un récipient placé sous celui-ci ; pour vider le récipient, il devra le faire pivoter au-dessus d’un objet évier.

Dans un EVAH, il est intéressant de pouvoir faire varier les modalités de réalisation d’une manipulation : lorsque l’apprenant est peu familiarisé avec l’environnement (ou lorsque l’apprentissage n’est pas concerné par ces modalités), il est possible de simplifier la manipulation en recourant à des Aides Logicielles Comportementales, ALC (Fuchs, 2006). L’aide peut être de nature sensori-motrice ou cognitive. Les ALC sensori-motrices ont pour objectif de pallier les défauts des dispositifs technologiques d’interface. Par exemple, le signal issu d’un dispositif de navigation avec capteurs d’orientation doit être filtré afin de ne pas provoquer de déplacement lorsqu’il est au voisinage de la position neutre. Les Aides Logicielles Comportementales cognitives les plus utilisées concernent la navigation dans l’environnement et le placement d’objets. Dans le premier cas, les trajectoires possibles (ou des points de passage) sont prédéfinies et contraignent le déplacement de l’utilisateur. Dans le second cas, on simule une sorte de "magnétisme" entre les objets qui fait que, lorsqu’un objet est placé à proximité d’un autre, il est automatiquement placé et orienté comme il se doit. La définition des aides cognitives repose donc sur une hypothèse de l’intention de l’utilisateur.

2.4. Les traces de l’activité dans un EVAH

Les choix sur l’interfaçage comportemental conditionnent, bien entendu, la nature des traces d’utilisation en réalité virtuelle. Leur interprétation doit se faire en connaissance des choix de conception de l’environnement de réalité virtuelle. L’information portée par une trace doit donc exprimer la nature de l’interaction. Il y a, à la fois des données sur la commande motrice, par exemple sur l’utilisation d’un dispositif de pointage avec ses coordonnées, et des données sur la fonction qui lui a été allouée lors de la conception du mode d’interaction avec le monde virtuel.

En définissant une trace d’utilisation comme toute information permettant de suivre et comprendre l’activité d’un apprenant, on regroupe sous ce terme une grande variété d’informations spécifiques à la réalité virtuelle : commandes motrices des utilisateurs (associées aux informations sur l’interaction), retours sensoriels et conséquences – directes ou indirectes – des actions des utilisateurs. Les traces que l’on peut enregistrer automatiquement dans un système de réalité virtuelle se présentent donc sous deux formes. Il s’agit, soit d’enregistrement d’évènements informés, soit de vidéogrammes correspondant au rendu visuel et sonore dans l’environnement. Les vidéogrammes peuvent être enregistrés selon divers points de vue comme par exemple ce que perçoit l’apprenant, ce que voit le formateur ou une vue globale de l’environnement.

3. MASCARET

MASCARET (Multi-Agent System for Collaborative, Adaptive and Realistic Environment for Training) est un environnement virtuel pour l’apprentissage humain développé au CERV, Centre Européen de Réalité Virtuelle, (Buche et al., 2004b). Il s’agit d’une plate-forme logicielle permettant à plusieurs utilisateurs, apprenants et formateurs, d’agir ensemble dans un environnement virtuel. Cette plate-forme offre les fonctions d’un système tuteur intelligent. Toute entité active dans l’environnement est considérée comme un agent, c’est-à-dire une entité capable de percevoir son environnement local, de choisir une action adaptée, éventuellement guidée par un but explicite (principe de rationalité) et d’agir en conséquence par le biais d’interactions avec l’environnement ou d’autres agents. Les agents sont donc de diverses natures. Il s’agit tout d’abord des entités représentées dans le monde virtuel et exhibant un comportement autonome (non commandé par une autre entité). Les utilisateurs sont eux-mêmes considérés comme des agents ; ils exercent une activité orientée vers un but et interagissent entre eux, via l’environnement virtuel. Leur activité peut éventuellement être de nature collaborative, ainsi que la stratégie pédagogique. Enfin la fonction de tuteur est assurée par des agents pédagogiques. Dans cet article, nous n’exploitons que partiellement la plate-forme Mascaret puisque nous n’utilisons pas ses potentialités adaptatives et que nous ne nous intéressons pas à la collaboration entre utilisateurs.

MASCARET dispose d’une fonction de suivi de l’activité des utilisateurs, apprenants et formateurs, et plus généralement de tout agent de l’environnement. Elle est assurée par des agents pédagogiques particuliers jouant le rôle d’"observateurs". L’analyse de l’activité peut être conduite en ligne (par le biais d’un agent pédagogique) ou hors ligne (fichier de log en XML). Ce mécanisme de suivi a été conçu de façon à être indépendant du domaine d’apprentissage et de la stratégie pédagogique. L’interprétation des traces, qui dépend nécessairement du contexte pédagogique, n’est pas assurée, pour l’instant, par un agent artificiel.

L’intérêt de MASCARET est qu’il repose sur un méta-modèle formel de l’environnement et des activités, et que tous les objets, actions et évènements du monde virtuel sont réifiés. Deux sous-systèmes de MASCARET servent de support à la détection des traces d’utilisation : VEHA et HAVE ; ils sont décrits dans la suite.

VEHA (pour Virtual Environment supporting Human Activities) est un méta-modèle d’environnement virtuel informé et structuré ; il sert à la description du monde virtuel dans lequel l’apprenant réalise sa tâche. HAVE (pour Human Activities in a Virtual Environment) est le pendant de VEHA qui décrit les activités réalisées, ou potentiellement réalisables, par un humain dans un monde virtuel décrit avec VEHA. Ces méta-modèles sont des extensions du méta-modèle UML 2 (Unified Modelling Language) dont la vocation première est la modélisation de logiciels (Booch et al., 2005) mais qui a aussi été utilisé comme langage de description d’ontologies (Cranefield et Purvis, 1999). Le choix d’UML est motivé par ses propriétés de langage de description de données, support à la description de connaissances, et sa sémantique opérationnelle qui permet de décrire une exécution du modèle.

Dans MASCARET, le monde virtuel est donc entièrement décrit selon le méta-modèle VEHA ; il s’agit d’un environnement informé en ce sens qu’il est sa propre description sémantique. L’environnement est géométriquement et logiquement structuré. Il s’agit d’un monde tridimensionnel composé d’objets identifiables sur lequel il est possible de définir des relations topologiques. Le comportement des entités qui composent ce monde, ainsi que le résultat des actions des agents artificiels et humains qui agissent dans ce monde, sont aussi décrits en utilisant VEHA. La réalisation des actions et leur organisation en activités sont définies avec HAVE.

Les sections qui suivent décrivent les éléments de VEHA et HAVE qui sont utilisés pour l’observation et l’analyse des traces d’utilisation dans MASCARET.

3.1. Le modèle d’environnement virtuel structuré et informé VEHA 

Le modèle VEHA de MASCARET permet de modéliser les objets qui constituent l’environnement physique de l’apprenant. Ce modèle fournit une description de la composition de cet environnement ainsi que des comportements. Il offre donc à la fois une vue statique et dynamique de l’environnement d’apprentissage. Ce monde est considéré comme discret : il est composé d’objets identifiables et leur évolution se fait par des changements instantanés d’état.

3.1.1. La vue statique de l’environnement

Un monde VEHA est composé d’entités spatialement localisées et éventuellement interconnectées. Les entités peuvent être typées : on utilise pour cela la notion de classe d’UML. Une classe définit les propriétés communes à toutes les entités qui en sont des instances. Les propriétés des entités sont, soit de nature statique, soit de nature comportementale. Les propriétés statiques sont des attributs ayant des valeurs numériques ou symboliques, des états ou des associations possibles vers d’autres types d’entités. L’existence de relations entre entités permet de propager l’effet d’une action sur un objet à d’autres objets. Cela permet aussi de définir des entités composées de différentes parties et donc d’obtenir des informations à la fois sur les parties et sur le tout.

La manipulation d’un objet VEHA peut se faire par l’intermédiaire d’une "poignée virtuelle" à l’instar des "smart objects" (Kallmann et Thalmann, 1998). Une poignée est un médiateur d’interaction (on lui associe une méthode pour interagir avec l’objet). L’existence de ces poignées permet de savoir comment un objet à été manipulé : a-t-il été pris par le dessus ou poussé par un de ses côtés ? Une poignée peut également contraindre les modalités de l’interaction avec l’objet, en particulier en définissant des niveaux de détail dans le geste à réaliser pour manipuler l’objet. Elle fournit donc une information sémantique sur une manipulation comme ouvrir une porte avec une poignée, complétée éventuellement sur un mode opératoire (utilisation ou non d’une aide logicielle comportementale) : positionnement approximatif de la "main" de l’utilisateur à proximité ou réalisation d’un geste de préhension puis d’une rotation.

Les entités sont géographiquement référencées, selon deux systèmes qui se complètent sémantiquement. Le premier associe à chaque objet une position et une orientation dans un repère global ; la position d’une entité est un point de l’espace et son orientation est une base de trois vecteurs. Cette information est utilisée pour observer des déplacements d’objet (translations et rotations). La notion de localisation est complétée par la notion de zone de l’espace : il est ainsi possible d’exprimer qu’une entité est située dans une zone donnée, ce qui permet de contrôler qu’un objet a été placé au "bon endroit", même si ce positionnement est approximatif (par exemple. "sur la table"). Enfin les entités ont une forme géométrique tridimensionnelle ce qui permet de raisonner sur la proximité de deux objets, sur l’occurrence d’éventuelles collisions ou l’inclusion d’objets (par exemple "un cube dans une boîte").

3.1.2. La vue dynamique de l’environnement

Classiquement un environnement est composé d’entités inertes et d’entités pouvant exhiber un comportement. Ce comportement peut être lié à une évolution interne, autonome, de l’entité, mais le plus souvent, il est provoqué par l’occurrence d’une perturbation de l’environnement à laquelle réagit l’entité. Le comportement est alors réactif, de type stimulus - réponse. Ceci est modélisé dans VEHA en utilisant un sous-ensemble des machines à états d’UML et la notion de signal. Il est possible que le comportement d’une entité influence celui d’autres entités. Ceci est simulé par la synchronisation des machines à états des différentes entités réactives (Chevaillier et al., 1999). Avec VEHA, tous les changements d’état sont donc observables ; si un tel changement d’état est la conséquence – indirecte – de l’action d’un apprenant, il est intéressant de pouvoir l’enregistrer.

Certaines actions de l’apprenant se traduisent par le déclenchement d’une opération sur un objet, spécialement lorsque l’on a recours à des métaphores d’interaction. L’exécution d’une opération est un type d’évènement observable en VEHA. L’information qui lui est associée est le déclencheur de l’opération, l’objet sur lequel elle porte et les paramètres de son exécution.

3.2. Le modèle des activités HAVE

Le modèle HAVE de MASCARET décrit les activités d’un collectif d’agents. Ces agents représentent des acteurs humains ou des personnages artificiels (humains virtuels). Le modèle des activités est supporté par une modélisation de la structure organisationnelle de ce collectif.

Le modèle organisationnel permet de définir le rôle des agents au sein du collectif. Comme dans MOISE (Hübner et al., 2002), la description abstraite du collectif est nommée "structure organisationnelle" et une réalisation concrète "entité organisationnelle". Cette notion est fondamentale dans un EVAH collaboratif car il est essentiel dans l’analyse des traces de savoir quel rôle est alloué à l’utilisateur ayant produit un observable.

Dans HAVE, les activités sont décrites comme un ensemble d’actions à réaliser par une structure organisationnelle afin d’atteindre un objectif. Par exemple, une séance pédagogique est structurée en exercices dont la réalisation est décrite sous forme d’un modèle des activités qui précise les actions de chacun des agents en fonction de leur rôle. Ceci permet de spécifier la tâche que doit réaliser l’apprenant au cours de chaque exercice. Les activités sont décrites sous forme d’enchaînements possibles d’actions ; on parle alors de description procédurale. La prise de rôle et, symétriquement, son abandon est un évènement observable, de même que le démarrage et la fin d’une activité.

Une action est définie par des conditions de faisabilité et des effets attendus ; ces conditions sont formalisées sous forme d’expressions logiques sur les entités VEHA qui composent l’environnement des agents. La réalisation d’une action peut à son tour être décrite comme une séquence d’opérations à réaliser. Ces dernières correspondent à l’atome de la description d’une activité. Aucune information n’est donc directement observable sur leur déroulement. Il est cependant possible d’observer le résultat de l’exécution d’une opération.

Comme cela a été évoqué en 2.3, l’identification des actions de l’utilisateur est complexe en réalité virtuelle. Tout d’abord, il faut formaliser la manière dont sont supportées les interactions. Ensuite, il faut tenir compte du fait qu’une action est réalisée par une série de commandes motrices et qu’elle est éventuellement assistée d’une aide logicielle comportementale. La reconnaissance d’une action nécessite donc d’identifier ces séquences qui sont formalisables sous forme d’automates (cf. Figure 1). Les actions peuvent ensuite être catégorisées en utilisant le concept de "Primitive Comportementale Virtuelle" (PCV) introduit par Fuchs. Les actions des utilisateurs peuvent ainsi être class&ea(Burkhardt et al., 2003)es (Burkhardt et al., 2003) : (i) observation, (ii) déplacement, (iii) manipulation d’objet et (iv) communication (avec le système ou un autre agent).


Figure 1 : automate formalisant l’enchaînement des observables lors de la réalisation d’une action de placement d’un objet avec Mascaret (ALC : Aide Logicielle Comportementale)

3.3. Les agents

Les traces de l’activité des agents qui sont toujours identifiables, sont leurs interactions avec l’environnement et les autres agents. Leur processus interne de décision est par essence non observable. L’interaction avec les objets du monde a été envisagée précédemment. Les actions de communication liées à l’activité de l’apprenant correspondent à leurs échanges avec les autres utilisateurs (apprenant et formateur), avec des personnages de l’environnement virtuel ou avec des agents pédagogiques. Dans MASCARET, toutes les communications avec le système sont réalisées par des échanges de messages entre agents et sont donc potentiellement observables.

Prenons l’exemple de la situation dans laquelle l’apprenant pose une question au formateur. Cette question est formulée sous forme linguistique dont le medium peut être la voix ou le texte. Dans MASCARET, cette communication est supportée par un échange de messages entre les agents qui représentent l’apprenant et le formateur dans le système. Cela permet d’avoir un mécanisme unique de suivi des interactions entre agents, qu’ils soient artificiels ou humains. Ceci est nécessaire, car une situation identique pourrait se produire entre un apprenant et un agent pédagogique artificiel. Un échange de message entre agents est une action de communication qui se décompose en une opération de production d’un acte et sa consommation par un ou plusieurs agents. Dans MASCARET, les différents types d’action de communication correspondent aux performatifs de KQML (Labrou, 1996).

3.4. Enregistrement des traces élémentaires

La responsabilité de la construction des traces à partir des évènements présentés dans les sections précédentes et de leur enregistrement revient à un agent observateur. Les éléments à tracer sont définis sous forme de filtres sur les propriétés des évènements potentiellement produits par les entités de MASCARET. Le comportement de l’agent observateur est d’interpréter les filtres de sélection d’évènements de façon à déterminer, à partir du modèle de l’environnement, quelles entités devront lui notifier les occurrences d’évènement. Ceci est possible dans MASCARET car tous les éléments du modèle, et le modèle lui-même, sont réifiés. Les principaux termes utilisés dans cet article sont présentés dans le tableau.

Terme

Définition

Interaction

tout ce que l'utilisateur peut faire dans le monde virtuel.

Opération

élément de base de l'interaction.

Action

ensemble d’opérations réalisées par un sujet, centrées sur un but.

Activité

ensemble observable d’actions identifiées et organisées.

Procédure

plan d’actions, élaboré par le sujet, centré vers un but.

Evènement

occurrence d’un changement dans le monde ou de la réalisation d’une opération.

Observable

évènement ou élément du monde qui peut être détecté.

Observé

observable faisant l’objet d’une surveillance.

Trace

inscription temporisée et informée d’un évènement observé.

Indicateur

outil d’évaluation calculé ou inféré depuis les traces, en vue d’une analyse spécifique.

Tableau 1 : Glossaire des termes

À tout évènement, on peut associer des informations sur la source de l’évènement ou sur les objets concernés (leurs propriétés, leur localisation). Pour faciliter l’identification du contexte de son occurrence il est possible d’ajouter des informations telles que : l’état d’un sous-ensemble des objets du monde, l'activité d'un agent artificiel, les déplacements d'entités dans une zone ou des évènements extérieurs à l'environnement virtuel. La figure 2 présente les différents types de traces, chacun étant lié à un type d’observable de Mascaret.


Figure 2 : Types d’observables de Mascaret constituant des traces (modèle de classes en UML)

3.5. Outils pour l’analyse des traces

Les traces issues de MASCARET étant enregistrées dans un format standard (XML), leur analyse n’est pas dépendante d’un outil particulier. Elles peuvent être consultées par l’intermédiaire d’un simple éditeur de texte ou d’un navigateur web et altérées grâce à des outils de manipulation de texte (par exemple GNU sed).

Pour une analyse plus aisée, nous utilisons des outils spécifiques à l’analyse des traces. MASCARET propose un outil intégré de visualisation des traces sous forme de chronogrammes. Il est possible, grâce à une transformation de modèle (XSLT) d’adapter le format et la sémantique de nos traces pour les exploiter dans un outil tel que TATIANA qui utilise lui aussi un format XML (Dyke et al., 2007) ou tel que CoLAT (Avouris et al., 2005) qui permet la fusion de traces issues de plusieurs sources.

Néanmoins, chaque élément de la trace étant lié à un ou plusieurs éléments du monde réifié grâce au modèle VEHA, l’analyse est facilitée lorsque l’outil permet de manipuler explicitement ces observables (ce que permet l’outil de visualisation intégré à MASCARET). Par exemple, on veut pouvoir filtrer les traces pour ne refléter que l’occurrence des actions d’un certain utilisateur (ici, le formateur ou l’apprenant) ou l’utilisation d’un objet particulier. On peut aussi vouloir fabriquer des indicateurs spécifiques pour mettre en évidence certaines tendances, comme par exemple, pour évaluer la fréquence d’utilisation d’un périphérique ou comparer l’utilisation de deux ressources en ligne (Bratitsis et Dimitracopoulou, 2006).

4. Expérimentation sur des travaux pratiques de physique dans une paillasse virtuelle

Comme première utilisation de notre paillasse virtuelle, nous avons choisi de reproduire un TP de physique qui a fait l’objet d’une étude précédente (Beney et Guinard, 2004). La tâche à réaliser est la mesure par différence de la vitesse de la lumière dans l’air, dans un cube de résine, puis dans l’eau. Nous avons mené une expérimentation afin de vérifier si les traces de l’activité recueillies, permettaient de repérer des actions, telles que l'utilisation d'aides virtuelles (Baudouin et al., 2007), des plans d’actions, des situations prototypiques et de comparer ce que les apprenants font par rapport à ce qu’ils disent avoir fait. Ce dernier point n’est pas abordé dans cet article.

4.1. Méthodologie

4.1.1. Les sujets 

Quatorze étudiants d’une école d’ingénieurs (ENIB), en première année après le baccalauréat, participent librement à l’expérimentation. Tous les sujets sont de sexe masculin et ont un parcours scolaire équivalent en ce qui concerne l'apprentissage de la physique. En échange de leur acceptation, une visite du CERV et des démonstrations en réalité virtuelle leur sont proposées. Les conditions matérielles sont proches de celles qui pourraient être mises en place dans un cadre scolaire classique ; mais l'expérience est présentée aux étudiants comme une expérience de recherche et les personnes présentes sont des chercheurs.

4.1.2. La paillasse virtuelle

Une paillasse virtuelle spécifique a été conçue pour cette expérience en utilisant MASCARET (Figure3). L'affichage de la scène 3D utilise un vidéoprojecteur classique, non-stéréoscopique. Elle permet de réaliser l'expérience debout, à environ 1,30m de l'écran, avec un angle de vue assez large. La paillasse virtuelle apparaît dans une taille et une orientation proche d'une paillasse réelle. L'interface motrice, posée sur un pupitre, utilise un clavier (15 touches utiles), une souris et une souris 3D à 6 degrés de liberté.



Figure 3: la paillasse virtuelle réalisée avec Mascaret

Les consignes opératoires sont fournies sous forme d’un texte écrit sur une feuille que l’élève a en permanence à sa disposition. Durant la séance, l'apprenant doit mesurer la vitesse de la lumière dans l'air, dans la résine (le cube jaune) et dans l'eau (le tube noir). La règle permet de repérer les positions des objets posés sur le socle. L'oscilloscope affiche deux signaux correspondants à l'émission et à la réception de la lumière. Le temps mis par la lumière pour parcourir le chemin peut être déduit de la mesure du décalage entre les deux signaux (déphasage). La difficulté de ce TP réside dans l'impossibilité de mesurer précisément certains paramètres comme la distance entre les miroirs et la position exacte de l'émetteur / récepteur de lumière. Pour obtenir la vitesse précise, l'apprenant doit obligatoirement réaliser une mesure de référence.

La navigation dans l'environnement passe par des points de vue fixes prédéfinis. L'apprenant peut passer d'un point de vue à un autre en utilisant les touches flèches du clavier. Les flèches gauche et droite permettent de déplacer le point de vue latéralement, tandis que les flèches haut et bas permettent respectivement d’avancer ou de reculer le point de vue. Ce mode de navigation évite à l’apprenant de se perdre dans l’environnement et lui permet d’effectuer des déplacements rapides.

La manipulation des objets s'effectue avec la souris classique et la souris 3D dont nous n’utilisons que la rotation selon l’axe des z. Il est possible de déplacer les objets dans le plan de la table et de les orienter sans les soulever. Pour manipuler un objet, l'apprenant doit le "saisir" en le sélectionnant avec la souris. Pour cela, il place le pointeur sur l'objet et clique avec le bouton gauche. Une fois l'objet saisi, le pointeur disparaît et la position de l'objet sur la table est liée à la position de la souris (axes x et y). L'apprenant peut donc déplacer l'objet sur le plan de la table en déplaçant la souris. Lorsqu'il veut poser l'objet, il clique à nouveau pour lâcher l'objet. Pour tourner les objets, nous utilisons l’axe de rotation selon z de la souris 3D. Ceci permet d’orienter les objets et de tourner le bouton de l’oscilloscope. Ces deux interfaces motrices, assez classiques, permettent de conserver la nature du geste du bras et de la main.

Le TP nécessite une manipulation précise des objets traversés par la lumière. Ces derniers doivent avoir une orientation exacte pour limiter la réfraction qui compliquerait la simulation du trajet du rayon lumineux. Afin de faciliter ces manipulations, deux Aides Logicielles Comportementales sont mises en place : un guide de positionnement et un guide en translation. Lorsqu'un objet subit une rotation et que l’orientation finale est proche d'un angle plat (0,π) ou d'un angle droit (π/2, 3π/2) par rapport au rayon lumineux, l'angle est ajusté exactement à ces valeurs, de façon automatique. Quand l'utilisateur approche un objet suffisamment près du socle, il est "magnétisé" sur le socle et guidé en translation. Pour enlever l'objet du socle, l'apprenant doit le saisir et "tirer" ou "pousser" l'objet. Cette manipulation assistée d’une ALC est donc conforme à l’automate de la figure1.

4.1.3. Procédures

Chaque apprenant manipule seul en présence d’un didacticien de la physique. Ce dernier intervient pour annoncer le début et la fin des étapes et pour donner une information évaluative à l’apprenant, portant sur sa méthode et sur son résultat. Chaque étape correspond à une activité au sens du modèle HAVE de MASCARET (c.f. 3.2). Le déroulement de l'expérience est le suivant :

- Description de l’interface par l’expérimentateur, puis manipulation par l’apprenant d’un environnement simplifié (tutoriel 1 : 5 min).

- Présentation de la paillasse virtuelle par l’expérimentateur. Description et manipulations des objets (tutoriel 2 : 5 min).

- Apprentissage dans la paillasse virtuelle : réalisation des trois mesures de la vitesse de la lumière (30 ~ 45 min).

- Entretien d'explicitation, mené dès la fin de l'expérimentation, de type semi directif (10 min).

- Questionnaire à questions fermées en trois parties sur le profil de l'apprenant en rapport avec la réalité virtuelle (simulateur, jeux 3D), l’utilisabilité de l'EVAH et l’auto-évaluation des performances de l'apprenant.

L’apprentissage est découpé en trois étapes évolutives, au cours desquelles l'apprenant mesure la vitesse de la lumière dans l'air, dans le cube de résine puis dans l'eau. Chaque étape est constituée de plusieurs phases. L'apprenant a un temps alloué pour résoudre seul le problème. À l’issue de ce temps, l’expérimentateur donne à l’apprenant un retour informatif sur sa prestation. Pour les deux premières étapes, en cas de blocage ou d'échec, l’apprenant bénéficie d’un temps supplémentaire au cours duquel il peut utiliser des aides virtuelles. Puis, en cas de nouvel échec, l’expérimentateur lui montre la bonne procédure de manipulation et lui demande de refaire cette manipulation.

4.2. Recueil et mise en forme des traces

4.2.1. Les observations directes sur l’activité

Nous recueillons pendant l’expérimentation, des enregistrements informatiques, des enregistrements audiovisuels et des notes de passation. Les enregistrements audiovisuels sont collectés par un caméscope fixe filmant l’apprenant et la scène virtuelle projetée. Les notes de passation fournissent des indications des performances communiquées aux apprenants (méthode et résultat). Les enregistrements informatiques sont produits par MASCARET. Le modèle d’activité HAVE permet de spécifier les éléments que nous souhaitons retrouver dans ces traces informatiques. Nous enregistrons toutes les interactions de l'apprenant avec l’environnement virtuel et nous obtenons des traces reflétant son activité.


Figure 4 : actions, opérations de l’utilisateur et interfaces motrices utilisées (en couleur : évènements observés durant l’expérience)

Les actions des utilisateurs peuvent être classées selon le type de PCV auquel elles correspondent (Figure 4) : manipulation, déplacement, communication et observation. Les traces enregistrées durant l’expérience sont les éléments directement détectables, mis en couleur sur la figure. Elles reflètent soit la réalisation d’une opération ou d’une action, soit l’utilisation d’une interface motrice.

4.2.2. Génération de frises chronologiques

Il est possible d'exploiter les traces informatiques sans modification ou ajouts sémantiques, en réalisant des comptages statistiques ou en utilisant des représentations graphiques spécifiques. Nous utilisons l’un des outils de MASCARET pour générer des frises chronologiques qui permettent de visualiser l’enchaînement des traces à différentes échelles. Ces frises peuvent être confrontées à l’enregistrement vidéo et aider à l’analyse des traces textuelles. Elles permettent d’effectuer des premiers repérages et de sélectionner des épisodes intéressants. L’information élémentaire est un évènement observé, figuré par une barre verticale grise. Chaque ligne regroupe les évènements liés à un agent (par exemple l’apprenant), une entité (par exemple les miroirs) ou à l’utilisation d’une interface motrice.


Figure 5: Exemple de frise chronologique montrant l'utilisation des aides virtuelles par un apprenant

Par exemple, bien que le nombre d'évènements soit très élevé, une représentation sous forme de frise donne une vue d'ensemble de l’utilisation des aides (Figure 5). La première ligne correspond à tous les évènements déclenchés par l’apprenant. Elle fait clairement apparaître les temps d’inactivité de l’apprenant. Les autres lignes montrent les activations et désactivations des aides. Les bandes colorées correspondent aux repérages dans les traces textuelles des périodes d’affichage des aides (intervalle temporel entre l’activation et la désactivation d’une aide).

Ce diagramme permet de distinguer clairement les différentes étapes et phases de l’apprentissage et permet de visualiser quelles aides ont été déclenchées, dans quel ordre et pendant combien de temps (Baudouin et al., 2007).

4.2.3. Les observations indirectes de l’activité

L’étude de ces observations indirectes est mentionnée sans être présentée en détail dans cet article. Elle participe à l’affinement et à l’évaluation du dispositif d’apprentissage (Tchounikine, 2002). L’expérience terminée, l’entretien avec le sujet permet de recueillir ses impressions, constats et réflexions à la fois sur sa prestation, les aides utilisées et son appréciation sur l’environnement virtuel. Le questionnaire à questions fermées montre que tous les apprenants sont familiers des applications informatiques et ont déjà été en contact avec des environnements virtuels, tels que des simulateurs ou des jeux. Les utilisateurs ne sont donc pas novices vis-à-vis de la réalité virtuelle.

4.3.  Analyse et interprétation des observations directes

Hulshof caractérise quatre formes d’analyse de fichiers de trace : l’analyse fréquentielle centrée sur les opérations réalisées et leur fréquence, l’analyse séquentielle centrée sur l’ordonnancement des opérations, l’analyse des transitions centrée sur les raisonnements, l’analyse du protocole centrée sur la verbalisation des processus à voix haute (Hulshof, 2005). Les deux premiers types d’analyse produisent des résultats qui concernent l’activité observable tandis que les deux derniers s’intéressent davantage au raisonnement et à l’état cognitif de l’utilisateur.

L’analyse de l’activité des apprenants porte ici sur le repérage de l’utilisation d’aides virtuelles (analyse fréquentielle), la reconnaissance des procédures manipulatoires des apprenants (analyse séquentielle et analyse du protocole) et l’identification de situations prototypiques (analyse séquentielle). Nous en donnons quelques exemples dans les sections qui suivent.

4.3.1. Identification des actions à partir des traces

Dans certains cas, une action est clairement définie comme une suite ou un assemblage d'opérations (cf. Figure 4) : de simples règles permettent alors de mettre en valeur avec certitude les actions de l'utilisateur (exemple : une touche = une action). De la même façon, certaines activités peuvent être déduites directement de la trace des actions. Ces règles sont connues de l'agent observateur de Mascaret ; il est alors capable de générer directement des traces de plus haut niveau faisant apparaître des actions, voire des activités.

Mais, en général, les actions ne peuvent pas être définies clairement ou indépendamment les unes des autres. La déduction des actions à partir des traces nécessite la formalisation de l'action, c'est-à-dire l’expression de l’action sous la forme d’un ensemble d’opérations, liées par des contraintes de contexte. Selon le type de l’action (PCV), l’identification ne repose pas sur les mêmes éléments.

Pour les déplacements, nous identifions une seule action, naviguer, qui se traduit par un déplacement de la caméra virtuelle dans l’environnement, vers l’un des points de vue atteignables. Cette action est réalisée par l’exécution d’une suite d’opérations ChangerPointDeVue, qui correspondent chacune, au passage d’un point de vue à un autre parmi les points de vue adjacents (devant, derrière, à droite et à gauche). Le pavé directionnel du clavier permet donc de s’approcher, de s’éloigner, de regarder à droite et de regarder à gauche.

Les actions de communication sont limitées dans notre environnement à l’appel des aides virtuelles. Les autres actes de communication importants de l’expérience sont les retours évaluatifs qui se déroulent entre l’apprenant et l’expérimentateur, sans passer par l’environnement. Ils n’apparaissent donc pas dans la trace informatique.

Les manipulations d’objets apparaissent dans les traces, mais ces actions ne sont pas directement déductibles des opérations. Nous considérons qu’un déplacement consiste à prendre un objet, puis l’amener d’une position A à une position B, en effectuant autant de micro-déplacements que nécessaire et enfin, à le poser (cf. automate de la figure1). Dans le cas général, une action déplacer est donc bornée par les actions prendre et poser. Néanmoins, il arrive parfois que l’apprenant réalise plusieurs actions de déplacement avant de désélectionner l’objet (il lâche réellement la souris, sans cliquer). Dans ce cas, l’environnement ne peut pas détecter la fin du déplacement réel. Il faut donc modifier l’automate pour considérer ce cas. Nous considérons alors que l’apprenant a terminé son déplacement, s’il marque une pause suffisante entre deux opérations bouger ou s’il réalise une autre action.

Les prises d’information, comme la lecture d’une position sur la règle ou de la phase entre les deux courbes de l’oscilloscope, ne sont que partiellement médiées par l’environnement. En effet, il est possible de savoir quand l’information est visible par l’apprenant, mais on ne peut que supposer que ce dernier lise bien la valeur. La seule action d’observation directement disponible est l’appel de l’aide de lecture qui permet d’afficher une copie de l’écran de l’oscilloscope en surimpression dans le coin de l’écran. Néanmoins, pour pouvoir effectuer une mesure précise, l’apprenant est obligé de naviguer jusqu’à l’un des points de vue, au plus près de l’oscilloscope sur la table. Pour lire précisément les positions des objets, il doit aussi se rapprocher de la règle. De ce fait, il est possible de faire des hypothèses sur les prises d’informations à partir de ses opérations de déplacements. L’identification des actions d’observation est donc réalisée grâce à un automate tel que celui de la figure 1.

4.3.2. Repérage de la bonne procédure de manipulation

Pour réussir l’exercice, l’apprenant doit réaliser une procédure de mesure correcte puis effectuer un calcul à partir des mesures effectuées. Bien que plusieurs procédures différentes soient possibles pour trouver un résultat bon ou approché, le chercheur en didactique de la physique estime que certains éléments sont indispensables à la réussite. Nous privilégions une méthode de manipulation efficace sans approximation.

Dans le contexte de notre TP, plusieurs distances ne sont pas connues et ne sont pas mesurables. Par ailleurs le déphasage des courbes qui permet la mesure des temps peut être fixé arbitrairement. Pour faire des mesures de distance et de temps, l’apprenant doit mettre en place une situation de référence. Chaque exercice nécessite une procédure spécifique de mesure. Nous présentons ici le repérage de la bonne procédure pour réussir la mesure de la vitesse de la lumière dans l’air qui pose le plus de problèmes, car peu d’objets sont manipulés. Cette procédure est définie comme suit :

1. L’apprenant place les miroirs à une position quelconque A sur le socle. Il note la position des miroirs par rapport à la règle.

2. L’apprenant note le déphasage entre les deux courbes sur l’oscilloscope ou met les courbes en phase grâce au bouton déphaseur.

3. L’apprenant place les miroirs à une autre position quelconque B. Il note la position des miroirs.

4. L’apprenant note le déphasage entre les deux courbes.

Durant toute la procédure, le cube de résine et le tube d’eau ne doivent pas se trouver sur le socle entre les miroirs et l’émetteur/récepteur. L’apprenant peut réaliser d’autres actions comme déplacer les objets pendant la procédure sans nuire aux mesures. Par contre, l’apprenant ne doit pas modifier le déphasage à l’aide du bouton après la partie deux de la procédure. Grâce aux prises d’information, l’apprenant dispose à la suite de cette manipulation, des données nécessaires et suffisantes pour calculer la vitesse de la lumière, c’est-à-dire la distance parcourue par la lumière et le temps correspondant.


Figure 6 : traces d’utilisation - réalisation de la bonne procédure dans le cas de la mesure dans l’air

La frise de la figure6 montre un extrait des traces d’utilisation sur lequel nous avons mis en évidence une bonne procédure de manipulation. Les quatre premières lignes correspondent aux opérations de déplacement dans l’environnement. Les lignes Souris et Souris3D reflètent l’utilisation de ces périphériques. Miroirs et BoutonDephasage regroupent toutes les opérations de manipulation sur ces entités.

Nous avons repéré manuellement cette procédure à partir de la frise de manipulation complète. Les bandes colorées et les ellipses vertes ont été ajoutées manuellement pour faciliter la lecture de la frise. Chaque ellipse correspond à l’une des parties attendues de la bonne procédure, nous les avons numérotées ici de 1 à 4. Les quatre étapes sont facilement repérables : positionnement des miroirs (1), mise à zéro du déphasage des courbes (2), deuxième positionnement des miroirs (3), lecture du déphasage des courbes à l’écran de l’oscilloscope (4). On peut remarquer que dans l’étape 2, l’apprenant se rapproche le plus près possible de l’oscilloscope pour plus de précision. La frise ne nous permet pas de savoir si l’apprenant met effectivement les courbes en phase, mais nous pouvons le vérifier dans le fichier de traces XML (évènement de type PropertyChange, figure2).

Le fait que l’apprenant déplace les miroirs en plusieurs fois (pour l’étape 1 et 3) s’explique en regardant le fichier XML. Dans le cas 1, l’apprenant place grossièrement les miroirs puis effectue un placement de précision. Dans le cas 3, l’apprenant n’a pas un point de vue assez large pour voir, à la fois, les positions initiale et finale des miroirs. Il est trop près de la règle, et doit donc s’éloigner pour déplacer les miroirs sur la distance voulue puis se rapprocher pour les positionner précisément.

Les données qui nous manquent le plus ici concernent les prises d’information. Lors des placements précis des miroirs et de la mise en phase des courbes, les positions A et B sont choisies par l’apprenant. Nous faisons l’hypothèse qu’il a bien noté ces deux valeurs. Le repérage de la partie 4 de la procédure est plus problématique. L’apprenant ne se déplace pas dans l’environnement pour se rapprocher de l’oscilloscope. Les traces nous ont permis de savoir qu’à cet instant, l’aide de lecture permettant de voir l’oscilloscope en permanence était active. L’apprenant a donc eu la possibilité de faire une mesure quand il le désirait. Nous sommes obligés ici de faire l’hypothèse que la non-activité de l’apprenant regroupe une prise d’information puis un calcul. Les notes de passation de l’expérimentateur nous ont permis ensuite de vérifier que cet apprenant avait bien réalisé une bonne procédure.

4.3.3. Identification de situations prototypiques

Il est possible d’identifier l’occurrence d’autres procédures ou situations intéressantes. Certaines erreurs typiques sont identifiables car elles entraînent une procédure de manipulation caractéristique. Nous donnons quatre exemples.

L’apprenant tente d’annuler le problème de la mesure des longueurs inconnues en rapprochant le plus près possible les éléments les uns des autres. L’agent observateur détecte alors des collisions entre les objets sur le socle (évènements de type Collision entre objets de type lentille, cube et miroirs, cf. figure2). Ce type de procédure peut être formalisé et est donc détectable dans la trace.

L’apprenant oublie ou ne se rend pas compte que la lumière n’effectue pas un aller-retour dans le tube d’eau. La procédure de manipulation, qui est proche de la mesure dans le cube, est alors presque correcte. Seuls les miroirs sont mal positionnés, car l’apprenant les déplace d’une distance égale à la longueur du tube d’eau au lieu de la moitié.

L’apprenant n’a qu’une représentation partielle du problème et considère que toutes les mesures de distance doivent partir de l’origine de la règle. Il positionne alors les miroirs ou le cube à la position zéro de la règle pour faire une mesure absolue. Néanmoins, certains apprenants positionnent le cube à l’origine pour en mesurer la longueur.

L’absence d’action de la part de l’apprenant peut s’interpréter comme une phase de réflexion ou de calcul ou comme une situation de blocage. C’est l’analyse de l’activité précédente qui permettra d’identifier la situation. Si, par exemple, les actions que l’apprenant vient de réaliser permettent d’identifier une procédure proche de celle attendue, on peut supposer que l’absence d’activité dans les traces correspond à la phase de calcul, qui se déroule en dehors de l’environnement. Si, au contraire, l’activité ne correspond à rien de prévu, on peut faire l’hypothèse que l’apprenant est dans une situation de blocage.

Nous avons également noté que certains apprenants tentent des opérations interdites ou impossibles dans l’environnement comme par exemple aller plus loin que les points de vue définis. Même si elles n’ont pas de conséquences sur le monde virtuel, ces actions reflètent un comportement de l’utilisateur qui peut être intéressant. L’agent observateur enregistre ces opérations et elles sont donc disponibles dans les traces.

5. Conclusion et perspectives

Dans ce bilan, nous reviendrons sur la spécificité des traces en réalité virtuelle, l’apport de MASCARET et notre modèle de description des traces. Nous dégagerons ensuite quelques perspectives à moyen terme et identifierons certains problèmes qui restent à résoudre.

Les EVAH sont riches en interactions de différentes natures et les activités y sont multiples. L’activité en travaux pratiques est fortement manipulatoire et nécessite par ailleurs l’observation attentive du dispositif, la prise de mesures et la réalisation de calculs. L’utilisation de la réalité virtuelle modifie inévitablement la réalisation de ces activités par rapport à un environnement réel ; elle permet aussi d’autres actions, comme l’ajout d’informations non textuelles dans l’environnement ou des changements d’échelle. Les spécificités sont liées à l’interfaçage comportemental, à la prise en compte du champ visuel de l’apprenant et au réalisme de la simulation du monde manipulé (modèles géométriques et comportementaux). Cependant, l’analyse de l’activité de l’apprenant dans de tels environnements partage un certain nombre de questionnements avec d’autres études sur les EIAH comme l’utilisation de ressources ou la durée de réalisation d’exercices, (Dimitracopoulou et Bruillard, 2006).

La nature des informations à traiter est conditionnée par ces spécificités et par les questions abordées. L’intérêt d’un EVAH comme MASCARET est de définir formellement les observables à partir d’un modèle de l’environnement et de l’activité et d’assurer automatiquement leur recueil.

L’expérimentation conduite sur la paillasse virtuelle montre qu’il est possible d’identifier certaines activités de l’apprenant et de répondre, en partie, aux questions posées : repérage d’actions, identification de plans partiels, identification de situations prototypiques. Les frises chronologiques générées à partir des traces informatiques offrent une vue d’ensemble qui permet un repérage rapide des actions. Les traces des fichiers de log permettent une analyse très précise mais requièrent la manipulation d’un gros volume de données.

L’étude a mis en évidence la difficulté de repérage des prises d’information. La reconnaissance de ces actions pourrait être partiellement résolue en utilisant un dispositif de suivi du regard : mouvement de tête et mouvement oculaire (Duchowsky, 2003). Une autre difficulté réside dans la reconnaissance exacte des actions de déplacement d’objet. Pour limiter l’incertitude sur les déplacements, nous envisageons d’utiliser un bras à retour d’effort et de simuler la gravité. En plus d’augmenter le réalisme de la scène, le poids des objets obligera l’apprenant à soulever les objets virtuels et l’incitera à réellement les poser avant d’exécuter une nouvelle action, levant ainsi l’ambiguïté de la reconnaissance des actions de type déplacer.

Nous disposons à l’issue de l’expérience, d’un gros volume de traces informatiques. Dans les conditions d’exploitation didactique de ces traces, le traitement reste semi automatisé et difficile. La possibilité de traiter en partie ces données par des frises montre que l'on peut utiliser cet outil pour alléger le travail d'un chercheur qui veut caractériser l'activité des apprenants : reconnaissance d'actions et de phase d’inactivité, nombre d'objets manipulés avec leur ordre d'utilisation et le type de relation avec les autres objets, fréquence d'utilisation des objets, recherche d'information... Ceci lui permet d'afficher les actions qui l'intéressent. Cependant l'’analyse a nécessité d’utiliser les autres observations directes (vidéo et notes de passation) pour lever certaines ambiguïtés. Pour permettre un traitement plus rapide et plus précis, nous pensons qu’il faudra transformer ces observations en traces informatiques pour pouvoir les fusionner avec les traces d’utilisation (Avouris et al., 2005). Il faut alors formaliser les notes manuelles et annoter les vidéos.

Au-delà du repérage de la réalisation d’actions dans l’environnement, il est nécessaire d’aller plus loin dans la reconnaissance des plans d’actions de l’apprenant ou de situations non souhaitables. Nous pouvons identifier trois voies d’amélioration. Tout d’abord, le volume important des données nécessite de recourir à des méthodes d’identification de patterns récurrents dans le corpus de traces (Betbeder et al., 2007). Ensuite, il faut être en mesure de reconnaître le plan d’action de l’apprenant afin de disposer d’une indication sur ses intentions (El-Kechaï et Desprès, 2006), (Robinet et al., 2007).

Nous avons montré une variabilité de l’activité manipulatoire des apprenants dans un article précédent (Baudouin et al., 2007). Cette variabilité doit être prise en compte pour individualiser le guidage. Il serait donc intéressant de définir des indicateurs spécifiques aux activités manipulatoires en réalité virtuelle. La définition des indicateurs étant très liée à leur utilisation (Dimitracopoulou et Bruillard, 2006), nous envisageons de définir un langage permettant de les construire et de les calculer directement à partir des traces issues de MASCARET.

Dans cette étude, nous nous sommes centrés sur l’analyse de l’activité d’un apprenant dans un environnement virtuel. L’objectif du projet de paillasse virtuelle est de disposer d’un environnement qui reproduise plus complètement la situation réelle d’une séance de travaux pratiques. Deux axes se dégagent de cette perspective. Le premier concerne la dimension collaborative du travail en binôme, ce que permet MASCARET. L’analyse de l’activité collaborative nécessitera d’intégrer des indicateurs de la qualité de cette collaboration (Barros et Verdejo, 2000). Le deuxième axe est de renforcer l’immersion des apprenants dans l’environnement virtuel. Nous travaillons à la construction d’un nouveau prototype de la paillasse virtuelle avec un rendu visuel stéréoscopique, un suivi de mouvement de tête et l’utilisation d’interfaces motrices comme des bras à retour d’effort et des dispositifs sans fil munis d’accéléromètres. Cette paillasse permettra à deux apprenants de collaborer dans le même monde en étant en face à face. Ce nouvel environnement ouvre des pistes intéressantes pour l’analyse de l’activité des apprenants en réalité virtuelle et le développement d’outils d’analyse adaptés.

6. Références

AVOURIS N., KOMIS V., FIOTAKIS G., MARGARITIS M., VOYIATZAKI E., (2005). Logging of fingertip actions is not enough for analysis of learning activities, In Usage analysis in learning system AIED’05 Workshop, p. 1-8.

BARROS B., VERDEJO F. M. (2000). Analyzing student interaction processes in order to improve collaboration. The DEGREE approach, International Journal of Artificial Intelligence in Education, 11, p. 221-241.

BAUDOIN C., BENEY M., CHEVAILLIER P., LE PALLEC A. (2007). Analysis of virtual helps usage in a virtual environment for learning, Proceedings of the 4th International INTUITION Conference, Athens (Greece), p. 52-60.

BECU-ROBINAULT K. (1997). Rôle de l’expérience en classe de physique dans l’acquisition des connaissances sur les phénomènes énergétiques. Thèse de doctorat en didactique de la physique, Université Claude Bernard, Lyon 1.

BETBEDER M.-L., TISSOT R., REFFAY C. (2007). Recherche de patterns dans un corpus d'actions multimodales, Actes du congrès EIAH 2007, p. 533-544.

BENEY M., GUINARD J.-Y. (2004). L'évaluation de l'efficacité du guidage dans les Travaux Pratiques de Deug : Un problème méthodologique complexe. Didaskalia, n° 24, p. 29-64.

BENEY M., SERE M.-G. (2001). Entre réussir et comprendre ou de l’effet des consignes opératoires sur la compréhension des procédures de mesurage en TP de physique de 1er cycle universitaire. Didaskalia n° 19, p. 9-37.

BUCHE C., QUERREC R., CHEVAILLIER P., KERMARREC G. (2004). Apports des systèmes tutoriaux intelligents et de la réalité virtuelle à l'apprentissage de compétences, Cahiers Romans de Sciences Cognitives, In Cognito, Association de recherche en sciences cognitives, n°2.2, p. 51-83.

BUCHE C., QUERREC R., DE LOOR P., CHEVAILLIER P. (2004). Mascaret: A Pedagogical Multi-Agent System for Virtual Environment for Training. Journal of Distance Education Technologies, Vol. 2 n°4, p. 41-61.

BURKHARDT J.-M., BARDY B. et LOURDEAUX D. (2003). Immersion, réalisme et présence dans la conception et l’évaluation des environnements virtuels. Psychologie Française, Tome 48, n°2.

BOOCH G., RUMBAUGH J., JACOBSON I. (2005). The Unified Modeling Language User Guide (2nd Edition). Addison-Wesley, Object technology Series.

BRATITSIS T., DIMITRACOPOULOU A. (2006). Indicators for measuring quality in asynchronous discussion forums. International Conference on Cognition and Exploratory Learning in Digital Era (CELDA2006), IADIS (International Association for Development of the Information Society) 8-10 December, 2006, Barcelona, Spain.

CHEVAILLIER P., HARROUET F., DE LOOR P. (1999). Application des réseaux de Petri à la modélisation des systèmes multi-agents de contrôle, Journal Européen des Systèmes Automatisés, Vol 33 n°4, p. 413-437.

CRANEFIELD S., PURVIS M. (1999). UML as an Ontology Modelling Language, Workshop on Ontologies and Problem-Solving Methods: Lessons Learned and Future Trends, in conjunction with the 16th International Joint Conference on Artificial Intelligence (IJCAI). Stockholm, Sweden.

DIMITRACOPOULOU A. et al. (2005). State of the art of interaction analysis for Metacognitive Support & Diagnosis. Interaction Analysis (IA) JEIRP.Tech. report of Kaleidoscope NoE, (IST, e-learning).

DIMITRACOPOULOU A, BRUILLARD E. (2006). Enrichir les interfaces de forums par la visualisation d’analyses automatiques des interactions et du contenu, Sciences et Technologies de l´Information et de la Communication pour l´Éducation et la Formation, Vol 13.

DUCHOWSKY A.T. (2003), Eye tracking methodology: theory and practice, Springer-Verlag.

DYKE G., GIRARDOT J.J., CORBEL A., COLLINS S., PAUZE A. (2007) Tatiana - a Trace analysis tool. http://lead.emse.fr/Presentation/index.html

EL-KECHAÏ N., DESPRÉS C. (2006), A Plan Recognition Process, Based on a Task Model, for Detecting Learner's Erroneous Actions, Intelligent Tutoring Systems ITS 2006, IKEDA M., ASHLEY K., CHAN T-W. (Eds), LNCS, Vol. 4053. p. 329-338.

FUCHS P. (1996), Les interfaces de la réalité virtuelle, Les presses de l’Ecole des Mines de Paris.

FUCHS, P. (2006), Le traité de la réalité virtuelle (3e édition), volume 2 : l’interfaçage, l’immersion et l’interaction en environnement virtuel, Les presses de l’Ecole des Mines de Paris.

HERAUD J.M., MARTY J.C., FRANCE L., CARRON T. (2005). Une aide à l’interprétation de traces : application à l’amélioration de scénarios pédagogiques. Conférence EIAH 2005, INRP, France, p. 237-248.

HUBNER J. F. , SICHMAN J. S. , BOISSIER O. (2002). Moise+: Towards a structural, functional, and deontic model for MAS organization. Castelfranchi C., Johnson W. L., (Eds), First International Joint Conference on Autonomous Agents and Multi-Agent Systems (AAMAS’2002), p. 501–502.

HULSHOF C. D., (2005) Log file analysis, Encyclopedia of Social Measurement.

KALLMANN M., THALMANN D. (1998). Modeling Objects for Interaction Tasks, Computer Animation and Simulation'98, p. 73-86

KATZ S., LESGOLD A., EGGAN G., GORDIN, M. (1992). Modelling the student in Sherlock II. Artificial Intelligence in Education, vol 3 n°4, p. 495-518.

LABROU Y. (1996), Semantics for an agent communication language, PhD thesis, University of Maryland.

OLLAGNIER-BELDAME M. (2006). Traces d’interactions et processus cognitifs en activité conjointe : Le cas d’une co-rédaction médiée par un artefact informatique. Thèse de doctorat en sciences cognitives. Université Louis Lumière, Lyon 2.

PATEYRON B. (1997). Modélisation des savoirs dans la formation professionnelle, cas du brevet de technicien supérieur en contrôle industriel et régulation automatique. Thèse de doctorat, Université Claude Bernard, Lyon 1.

REYDE J. LEACH J. (1999). Enseigner les pratiques effectives de la science : expériences d’étudiants en projet de recherche en licence. Didaskalia n° 12, p. 39-61.

ROBINET V., BISSON G., LEMAIRE B., GORDON M., (2007) Searching For Student Intermediate Mental Steps, Workshop on Data Mining for User Modeling, at the 11th International Conference on User Modeling (UM 2007), p. 101-105.

SEJOURNE A., TIBERGHIEN A. (2001). Conception d’un hypermédia en physique et étude des activités des élèves du point de vue de l’apprentissage. In E. De Vries, J.- P Perrin, J.-P Peyrin (Eds), 5ème colloque hypermédia et apprentissages. Paris , INRP et IHSA, p. 103-118.

TCHOUNIKINE P. (2002). Pour une ingénierie des Environnements Informatiques pour l’Apprentissage Humain. I3, vol 2 n°1, p. 59-95.

TRICOT A. (2003). Apprentissage et recherche d’information avec des documents électroniques. Mémoire pour l’habilitation à diriger des recherches, Université Toulouse le Mirail.

VINCE J. (2000). Approches phénoménologique et linguistique des connaissances des élèves de 2nde sur le son. Thèse de doctorat, Université Lyon 2.

A propos des auteurs

Cyrille BAUDOIN est doctorant au LISyC, Laboratoire d’Informatique des Systèmes Complexes. Il effectue ses recherches au CERV, Centre Européen de Réalité Virtuelle. Sa problématique de recherche est la conception d’agents pédagogiques pour les environnements virtuels de formation. Dans le cadre de sa thèse, il conçoit une paillasse virtuel destiné aux travaux pratiques en science. Parallèlement il participe au projet MASCARET, en particulier sur les problématiques multi-agents et traces.

Adresse : CERV, 25 rue Claude Chappe, BP38 29280 PLOUZANé

Courriel : baudouin@enib.fr

Toile : http://www.enib.fr/~baudouin

Michel BENEY est Maître de conférences en sciences de l'éducation (didactiques de la physique) et enseigne la physique et la didactique des sciences à l'Université de Bretagne Occidentale (UBO) à Brest. Il poursuit ses recherches au sein du LISyC et dans ce cadre, après avoir fait ses recherches sur les apprentissages en TP de physique, il travaille sur les apprentissages en réalité virtuelle dans le cadre de paillasses virtuelles. Ses domaines de recherche concernent les apprentissages et leur transfert. Par ailleurs il travaille également sur la formation des formateurs.

Adresse : Université de Bretagne Occidentale – 20 avenue Le Gorgeu, CS 93837, 29238 Brest cedex 3.

Courriel : michel.beney@univ-brest.fr

Toile : http://pageperso.univ-brest.fr/~beney/

Pierre CHEVAILLIER, maître de conférences en informatique est membre du LISyC, Laboratoire d’Informatique des Systèmes Complexes. Il effectue ses recherches au CERV, Centre Européen de Réalité Virtuelle. Ces travaux sont une contribution au développement d’environnements virtuels adaptatifs dans lesquels la fonction pédagogique est assurée par un système multi-agents. Il est l’un des concepteurs du système MASCARET.

Adresse : CERV, 25 rue Claude Chappe, BP38 29280 PLOUZANé

Courriel : pierre.chevaillier@enib.fr

Toile : http://www.enib.fr/~chevaill

Agnès LE PALLEC est professeure agrégée à l’Université de Bretagne Occidentale (Brest), docteur qualifiée en Sciences de l’Education. Ses travaux de recherche portent sur les savoirs et pratiques de référence, le guidage de l’apprenant, les activités duelles. En tant que membre du Laboratoire LISyc (équipe SARA),elle a participé au Projet ARéViRoad et collabore actuellement à celui de la « paillasse virtuelle ».

Adresse : Université de Bretagne Occidentale - 20 avenue Le Gorgeu, CS 92837, 29238 Brest cedex 3

Courriel : agnes.lepallec@univ-brest.fr

Toile : http://pageperso.univ-brest.fr/~alepalle/

 

 
Référence de l'article :
Cyrille BAUDOUIN, Michel BENEY , Pierre CHEVAILLIER, Agnès LE PALLEC, Recueil de traces pour le suivi de l'activité d'apprenants en travaux pratiques dans un environnement de réalité virtuelle. , Revue STICEF, Volume 14, 2007, ISSN : 1764-7223, mis en ligne le 08/01/2008, http://sticef.org
[Retour en haut de cette page] Haut de la page
Mise à jour du 29/02/08