Rendre compte au tuteur des effets de ses interventions
à l’aide de méta-indicateurs
Aina LEKIRA, Christophe DESPRÉS, Pierre JACOBONI, Dominique PY (LIUM
– Le Mans)
|
RÉSUMÉ : Dans
cet article, nous étudions la question du soutien à apporter au
tuteur en situation de tutorat médiatisé. Notre objectif est de
fournir au tuteur des informations sur les effets de ses interventions
auprès des apprenants. Pour cela, nous proposons une approche
fondée sur les indicateurs, en introduisant la notion de
méta-indicateur. La particularité des méta-indicateurs est
de suivre l’évolution des valeurs des indicateurs. Afin
d’évaluer notre proposition, nous avons cherché à
mesurer l’impact des informations fournies au tuteur par les
méta-indicateurs, à la fois, sur l’activité du tuteur
et sur celle de l’apprenant. Nous avons, ainsi, réalisé des
expérimentations en contexte écologique dans le domaine de
l’apprentissage de la programmation orientée objet. Les
résultats tendent à montrer une amélioration des effets des
interventions du tuteur et un impact bénéfique sur
l’activité des apprenants.
MOTS CLÉS : tutorat,
effet des interventions, indicateurs. |
Reporting interventions’ effects to the tutor with meta-indicators |
|
ABSTRACT : In
this paper, we study how to support a human tutor who regulates the
learner’s activity, in the framework of mediated tutoring. Our goal is to
provide the tutor with informations about the effect of his/her interventions.
To achieve this, we propose an indicator-based approach and introduce the notion
of meta-indicator. The distinguishing feature of meta-indicators is that they
follow the evolution of indicators’ values. In order to evaluate our
proposal, we have tried to measure the impact of the information provided by
meta-indicators, both on tutor activity and learner activity. We have conducted
experiments, in ecological context, in the domain of object-oriented
programming. The results suggest an improvement of the effects of tutoring
interventions and a positive impact on learners’ activity.
KEYWORDS : tutoring,
effects of interventions, indicators |
1. Introduction
En situation d’apprentissage, le tuteur
est celui qui suit, assiste et conseille l’apprenant. Il joue un
rôle fondamental puisqu’il veille au bon déroulement du
processus d’apprentissage à travers la régulation de
l’activité de l’apprenant.
Nous nous intéressons aux situations dans lesquelles
l’activité de tutorat est partiellement ou totalement
instrumentée et où le tuteur accompagne un groupe
d’apprenants dans la réalisation de leurs activités au
travers d’un dispositif informatique. Dans ces situations, le tuteur a
besoin de percevoir l’activité de l’apprenant afin
d’adapter au mieux ses actions tutorales. Les travaux de recherche qui se
sont intéressés à ce problème ont abouti à la
réalisation d’outils permettant de visualiser un certain nombre
d’indicateurs, témoins de l’activité de
l’apprenant. Ces indicateurs donnent des informations relatives à
l’apprenant telles que sa progression ou son état
d’avancement (Guéraud et al., 2009) ; (France et al., 2007),
son profil (Lefèvre, 2009),
ses performances (Mazza et Dimitrova, 2007),
son parcours (Després, 2001),
sa production (Delorme et Loosli, 2006) ou son style d’apprentissage (Bousbia et al., 2009).
L’intérêt des indicateurs réside dans le fait
qu’ils fournissent des informations pédagogiquement pertinentes.
Ils réduisent ainsi le temps que le tuteur passe à visualiser le
travail accompli par chaque apprenant (Labat, 2002).
Certains systèmes donnent au tuteur la possibilité,
après avoir observé l’activité de l’apprenant,
d’intervenir en entrant en communication avec lui (Després, 2001).
Ces interventions tutorales sont de nature différente et les auteurs
abondent en catégorisation à ce sujet puisqu’elles peuvent
être relatives à des questions d’évaluation,
d’organisation, de gestion etc. Elles dépendent des rôles et
des fonctions du tuteur et du dispositif de formation mis en place (Glikman, 2011).
Les travaux qui abordent ce thème présentent différentes
classifications des interventions tutorales en fonction de
l’accompagnement que le tuteur réalise auprès de
l’apprenant (Lebel, 1993) (Garrot, 2008) ; (Quintin, 2008) ; (Denis, 2003) ; (Guillaume, 2009) ; (Glikman, 2011).
Une intervention du tuteur peut viser à attirer l’attention de
l’apprenant sur un point précis, à corriger une erreur
survenue dans l’activité de l’apprenant ou encore à
expliquer une notion à l’apprenant.
Cependant, la plupart des environnements de tutorat médiatisé
ne donnent au tuteur aucune information concernant les répercussions de
son intervention. Le tuteur doit, lorsque le système le permet, aller
chercher lui-même cette information ou la déduire en examinant
l’historique de l’activité de l’apprenant ou ses
productions. Cette charge supplémentaire devient trop importante
lorsqu’il encadre plusieurs apprenants.
Notre objectif est de pallier ce manque d’information en fournissant au
tuteur un retour sur les effets de ses interventions afin qu’il puisse
évaluer ses stratégies de remédiation (Denis, 2003) et
les ajuster (Zimmermann, 2000) ; (Capa-Aydin et al., 2009) si besoin en intervenant de nouveau.
L’atteinte de notre objectif nécessite une mesure des effets des
interventions du tuteur. Dans le cadre de notre travail, nous nous limitions aux
situations où le tuteur intervient avec une intention de
remédiation sur une situation qui ne correspond pas aux attendus
pédagogiques. Cela traduit généralement l’existence
d’un problème ou d’une difficulté dans la
réalisation de l’activité de l’apprenant.
De notre point de vue, mesurer les effets d’une intervention tutorale
consiste donc à comparer ce qui s’est réellement
passé à ce qui est souhaité par le tuteur. Pour effectuer
cette mesure, il est nécessaire d’identifier d’une part,
l’effet escompté de l’intervention et d’autre part, les
conséquences réellement observées. Il convient donc de
répondre aux deux questions de recherche suivantes : comment
identifier la situation attendue par le tuteur ? Comment identifier les
conséquences de son intervention ?
Pour répondre à ces questions, nous proposons d’exploiter
les indicateurs issus de l’analyse de la trace d’activité de
l’apprenant et d’observer leur évolution dans le temps.
Après une présentation de la notion d’indicateur en
section 2, nous détaillons notre proposition, basée sur le concept
de méta-indicateur, en section 3. La section 4 est consacrée
à une mise en œuvre de ces méta-indicateurs dans le domaine
de la programmation objet. Enfin, nous décrivons les
expérimentations conduites en milieu écologique et analysons leurs
résultats en section 5.
2. Les indicateurs
Le réseau d’excellence européen
Kaléidoscope a effectué un travail fédérateur dans
le domaine des indicateurs, notamment via les projets ICALTS (Interaction and
Collaboration Analysis supporting Teachers and Students Self-regulation) (Dimitracopoulou et al., 2004) ; (Harrer et al., 2004) (Jermann et Dimitracopoulou, 2004),
IA (Dimitracopoulou et al., 2005) et DPULS (DPULS, 2005).
Nous nous appuyons sur les résultats issus de ces travaux.
Un indicateur est défini comme « un observable signifiant
sur le plan pédagogique, calculé ou établi à
l’aide d’observés, et témoignant de la qualité
de l’interaction, de l’activité et de l’apprentissage
dans un EIAH » (Choquet et Iksal, 2007). Un
indicateur possède plusieurs attributs tels que son nom, sa valeur, sa
forme (numérique, littérale ou graphique), le concept qui
caractérise l’aspect de l’interaction que représente
l’indicateur, l’objectif visé par l’indicateur, le
moment de l’utilisation de l’indicateur, les utilisateurs finaux de
l’indicateur, etc. (Dimitracopoulou et al., 2004) ; (Dimitracopoulou et al., 2005).
Les travaux issus des projets ICALTS et IA (Dimitracopoulou et al., 2004) ; (Dimitracopoulou et al., 2005) introduisent également la notion d’indicateur calibré. Un
indicateur est qualifié de « calibré »
lorsque, parmi les valeurs qu’il peut prendre, certaines sont
jugées conformes aux attendus pédagogiques et d’autres non.
Ces indicateurs possèdent donc un « domaine de
validité » défini comme l’ensemble des valeurs
conformes.
La figure 1 donne un exemple d’un indicateur calibré
appelé « équilibre entre la conversation et
l’action » qui mesure, dans le cadre d’une activité
collaborative, le rapport entre le temps passé par deux apprenants
à communiquer entre eux et le temps passé à effectuer des
actions pour réaliser l’activité. Cet indicateur est
répertorié dans (Dimitracopoulou et al., 2004).
Figure 1 • Indicateur « Conversation and Action
Balance »
Pour répondre aux questions de recherche énoncées dans
la section précédente, nous nous appuyons sur cette notion
d’indicateur calibré. Nous nous intéressons aux
interventions du tuteur en réaction à des situations où les
attendus pédagogiques ne sont pas atteints. Ces situations sont
caractérisées par le fait qu’au moins un indicateur prend
une valeur qui n’appartient pas à son domaine de
validité.
3. Rendre compte des effets des interventions du tuteur à
l’aide de méta-indicateurs
Nous nous plaçons dans le cadre d’un
environnement de tutorat médiatisé avec des indicateurs
calibrés et considérons les situations où le tuteur
intervient parce que les attendus pédagogiques ne sont pas atteints. Ces
interventions consistent en un échange entre le tuteur et
l’apprenant par des moyens de communication textuels ou audio. Au cours de
cet échange, le tuteur peut par exemple rappeler des notions de cours,
signaler une erreur ou un oubli, etc.
Notre objectif consiste à mesurer automatiquement les effets de
l’intervention tutorale. Cela consiste à estimer
l’écart entre la situation attendue et la situation réelle
(cf. Figure 2). Pour estimer l’écart, il nous faut donc
déterminer la situation attendue et la situation réelle. Il nous
faut également identifier ce qui a poussé le tuteur à
intervenir, puisque identifier la situation attendue implique de savoir la
raison pour laquelle le tuteur est intervenu. Pour cela, nous nous appuyons sur
les indicateurs calibrés et nous définissons une
« situation critique » comme une situation dans laquelle au
moins l’un des indicateurs prend une valeur qui n’appartient pas
à son domaine de validité. La situation attendue est celle
où les indicateurs à l’origine de l’intervention ont
retrouvé une valeur conforme et retournent dans leurs domaines de
validité. L’écart peut être mesuré en calculant
la différence entre les valeurs d’indicateurs attendues et les
valeurs réellement observées.
Figure 2 • Situations
caractéristiques
3.1. Indicateurs et domaine de validité
Nous considérons des indicateurs calibrés dont les valeurs
peuvent aussi bien être numériques que symboliques. La plupart des
travaux de recherche, notamment ceux du réseau Kaléidoscope,
portent sur des indicateurs dont le domaine de validité est un ensemble
de valeurs. Cependant, lorsqu’un indicateur prend des valeurs
numériques, il peut aussi être utile de représenter son
domaine de validité comme l’ensemble des valeurs supérieures
ou inférieures à une valeur donnée (un seuil) ou bien comme
l’ensemble des valeurs comprises entre deux bornes (un intervalle). Le
tableau 1 récapitule les types de domaines de validité possibles
selon la nature de la valeur de l’indicateur.
Tableau 1 • Domaines de
validité possibles pour un indicateur en fonction de la nature de sa
valeur
Le tableau 2 présente des exemples d’indicateurs correspondant
à chaque type de domaine de validité, avec leurs valeurs de
validité.
Tableau 2 • Exemples
d’indicateurs de chaque type de domaine de validité
3.2. Méta-indicateurs
Afin de mesurer l’effet d’une intervention, nous devons suivre
l’évolution de la valeur des indicateurs pédagogiques
à l’origine de cette intervention. Nous proposons pour cela de
créer des indicateurs dont le but est de rendre compte de cette
évolution. Pour cela, nous introduisons la notion de méta-indicateur, que nous définissons comme un indicateur
portant sur des indicateurs pédagogiques. Un méta-indicateur prend
des valeurs symboliques qui indiquent le succès, l’échec ou
l’effet mitigé d’une intervention tutorale, selon que les
indicateurs qui l’ont motivée ont évolué positivement
ou non depuis l’intervention.
Lorsqu’une intervention tutorale est motivée par un seul
indicateur, trois cas sont possibles :
- si l’indicateur a pris une nouvelle valeur appartenant
à son domaine de validité, le méta-indicateur vaut Succès
- si la valeur de l’indicateur est restée identique
depuis l’intervention, le méta-indicateur vaut Sans
effet ;
- enfin, si la valeur de l’indicateur a évolué
depuis l’intervention, mais que la nouvelle valeur n’appartient pas
au domaine de validité, la valeur du méta-indicateur dépend
du type de domaine de validité de l’indicateur. Si ce domaine est
de type seuil ou intervalle, il est possible de distinguer deux cas selon que la
nouvelle valeur de l’indicateur est plus proche
(Amélioration) ou plus éloignée
(Détérioration) du domaine de validité que
l’ancienne valeur. Si ce domaine est de type valeur ou ensemble, il
n’est pas possible de qualifier l’évolution et le
méta-indicateur vaut simplement Effet non qualifiable.
Le tableau 3 récapitule les valeurs que peut prendre un
méta-indicateur en fonction du type du domaine de validité de
l’indicateur dont il suit l’évolution.
Tableau 3 • Valeurs possibles pour un
méta-indicateur en fonction de son domaine de validité
3.3. Calcul des méta-indicateurs
Cette section détaille la manière dont est calculé un
méta-indicateur en fonction du type de domaine de validité de
l’indicateur qui a entraîné l’intervention.
3.3.1. Indicateurs avec un domaine de validité de type seuil
Lorsque le domaine de validité de l’indicateur est
exprimé par un seuil, il faut déterminer si la nouvelle valeur de
l’indicateur est au delà (respectivement en deçà) du
seuil.
Le calcul du méta-indicateur se fait comme décrit dans la
règle 1, pour un seuil représentant un minimum.
3.3.2. Indicateurs avec un domaine de validité de type
intervalle
Lorsque le domaine de validité de l’indicateur est
exprimé par un intervalle, il faut déterminer si la nouvelle
valeur de l’indicateur appartient à cet intervalle.
Le calcul du méta-indicateur se fait comme décrit dans la
règle 2.
3.3.3. Indicateurs avec un domaine de validité de type ensemble
Lorsque le domaine de validité de l’indicateur est
exprimé par un ensemble, il suffit de déterminer si la nouvelle
valeur de l’indicateur appartient à cet ensemble pour
déterminer la valeur du méta-indicateur.
Le calcul du méta-indicateur se fait comme décrit dans la
règle 3.
3.4. Mesure des effets d’une intervention tutorale
déclenchée par plusieurs indicateurs
Les sections précédentes décrivent le calcul de
méta-indicateurs attachés à une intervention
déclenchée par un indicateur unique. Or, une intervention tutorale
peut être déclenchée par plusieurs indicateurs. Dans ce cas,
il est nécessaire de suivre l’évolution de chacun de ces
indicateurs pour pouvoir déterminer la valeur du méta-indicateur.
Pour traiter ce cas, nous introduisons un indicateur que nous qualifions de méta-indicateur composite (MIC) car il est composé de
plusieurs méta-indicateurs. Chacun de ces méta-indicateurs suit
l’évolution de l’un des indicateurs à l’origine
de l’intervention. La valeur du MIC est déduite des valeurs de tous
les méta-indicateurs qui le composent. Cinq cas sont possibles :
- si tous les méta-indicateurs valent Succès, le MIC
vaut Succès et l’intervention est considérée comme
effective ;
- si au moins l’un des méta-indicateurs vaut
Amélioration ou Succès et si tous les autres prennent leur valeur
dans {Succès, Amélioration, Sans effet, Effet non
qualifiable} alors le MIC vaut Amélioration et l’intervention
est considérée comme ayant eu un effet positif ;
- si au moins l’un des méta-indicateurs vaut
Détérioration et si tous les autres prennent leur valeur dans
{Détérioration, Sans effet, Effet non qualifiable} alors le MIC
vaut Détérioration et l’intervention est
considérée comme ayant eu un effet négatif ;
- si tous les méta-indicateurs qui composent le MIC valent
Sans effet alors le MIC vaut Sans effet et l’intervention est
considérée comme n’ayant eu aucun effet ;
- dans tous les autres cas, le MIC vaut Effet non qualifiable et
l’intervention est considérée comme ayant eu un effet
mitigé ;
La règle 4 décrit le calcul de la valeur du MIC. Les
données d’entrée sont les valeurs des
méta-indicateurs qui composent le MIC. En sortie, la règle fournit
la valeur du MIC.
4. Mise en œuvre
Afin de démontrer la faisabilité de
notre proposition, nous l’avons opérationnalisée dans le
cadre de l’apprentissage de la programmation orientée objet. Pour
cela, nous avons utilisé HOP3X [HOP3X, 2010], un EIAH tracé,
développé au LIUM (Laboratoire d’Informatique de
l’Université du Maine). Nous avons identifié et
modélisé un ensemble d’indicateurs calibrés à
partir de besoins d’observation exprimés par les enseignants. Ces
indicateurs ont été implantés dans l’environnement,
ainsi que les méta-indicateurs. Enfin, différents outils et
fonctionnalités ont été ajoutés à
l’environnement pour permettre au tuteur de visualiser les indicateurs et
les méta-indicateurs.
4.1. L’environnement HOP3X
L’environnement HOP3X permet au tuteur de suivre en temps réel
l’activité individuelle de programmation de plusieurs apprenants.
HOP3X est constitué d’un serveur (HOP3X-SERVEUR) et de deux
clients : le client étudiant (HOP3X-ÉTUDIANT) et le client
enseignant (HOP3X-ENSEIGNANT).
HOP3X-SERVEUR assure la collecte et la sauvegarde des traces
d’interaction des participants à la session d’apprentissage.
Les traces sauvegardées sont celles de l’activité de
l’apprenant à travers toutes les actions qu’il effectue pour
réaliser son activité (ex : création d’un
fichier, insertion d’un texte, compilation, etc.) mais également
celles de l’activité du tuteur à travers ses
interventions.
HOP3X-ÉTUDIANT permet à l’apprenant de réaliser
une activité de travaux pratiques. L’interface de
l’environnement HOP3X-ÉTUDIANT présente
l’énoncé pédagogique sous forme d’une
succession de questions et de consignes se rapportant à ces questions.
L’apprenant peut écrire un programme dans un langage
supporté par Hop3x (Java, C, Ruby, NXC, etc.), compiler et
exécuter son programme.
HOP3X-ENSEIGNANT permet au tuteur de suivre en temps réel
l’activité de chaque apprenant.
4.2. Les activités pédagogiques
Nous nous sommes intéressés à la première
séance de travaux pratiques liée à l’unité
d’enseignement « Programmation Orientée Objet et
Java », dispensée aux étudiants de troisième
année de Licence Informatique à l’université du
Maine.
L’énoncé du TP comporte douze questions. Les concepts
à mettre en œuvre à travers cet énoncé
concernent les classes, les méthodes, les instances, les messages,
l’encapsulation et le polymorphisme. Le tableau 4 donne un exemple des
questions à traiter.
Tableau 4 • Exemples de questions du
TP
4.3. Identification, définition et modélisation des
indicateurs
Les indicateurs pédagogiques utilisés dans HOP3X ont
été identifiés et définis à partir des
besoins d’observation issus des énoncés
présentés dans la section précédente et des
objectifs d’activité, puis ils ont été
modélisés et implantés dans l’environnement.
Les besoins d’observation ont été identifiés
à partir de deux sources : l’équipe pédagogique
et un corpus de traces.
D’une part, l’équipe pédagogique a exprimé
ses attendus pédagogiques à partir des objectifs de
l’activité et des énoncés. Elle en a déduit
ses besoins d’observation et les a répartis en trois
catégories : doit faire (ce que l’étudiant doit
impérativement inclure dans sa production), devrait penser à
faire (ce que l’étudiant devrait, idéalement, inclure
dans sa production) et ne doit pas faire (les erreurs
typiques).
D’autre part, nous avons constitué un corpus de traces issus
d’expérimentations en contexte écologique sur
l’énoncé présenté dans la section
précédente. Ce corpus nous a permis d’extraire, après
analyse, des besoins d’observations liés aux difficultés des
apprenants. Ce travail a permis d’enrichir les besoins d’observation
de la catégorie « ne doit pas faire » avec les
erreurs les plus fréquemment observées.
L’identification et la définition des indicateurs
s’appuient sur la catégorisation des besoins d’observation.
Ainsi, pour la catégorie doit faire ou devrait faire, un
besoin d’observation peut entraîner l’identification et la
définition d’un ou plusieurs indicateurs. Concernant la
catégorie ne doit pas faire, deux cas peuvent se présenter.
Lorsque le besoin d’observation identifié est la négation
d’un autre besoin d’observation de la catégorie doit
faire ou devrait penser à faire, il n’est pas
nécessaire de créer un indicateur supplémentaire. Dans les
autres cas, un indicateur est déduit du besoin d’observation.
Nous illustrons ces trois cas sur l’exemple de la question 5 du TP dans
le tableau 5.
Au total, 71 indicateurs ont été définis pour le TP.
Tableau 5 • Exemples
d’indicateurs définis à partir de besoins
d’observation
Pour modéliser les indicateurs, le choix s’est porté sur
le méta-langage générique UTL (Choquet et Iksal, 2007),
lequel est associé à un calculateur d’indicateurs utilisant
le langage DCL4UTL (Pham Thi Ngoc, 2011).
En effet, UTL permet la description de données nécessaires
à l’analyse des traces, indépendamment du langage de
scénarisation et du format de représentation des
différentes traces (Choquet et Iksal, 2007).
Il permet également de définir des besoins d’observation et
de spécifier les moyens techniques pour acquérir les
données à observer. Un indicateur est décrit en
détaillant les données nécessaires à son obtention
ainsi que l’usage qui va en être fait.
UTL permet la description d’indicateurs selon trois facettes :
DEFINING, GETTING et USING. La facette DEFINING concerne la modélisation
du besoin d’observation et la facette GETTING, la modélisation du
moyen d’observation. La facette USING concerne l’utilisation faite
de la donnée observée. Concrètement, pour modéliser
les indicateurs, nous avons utilisé un éditeur disponible en ligne (EditeurUTL, 2012) et permettant de décrire les indicateurs UTL à partir des trois
facettes conformément au modèle d’information d’un
indicateur établi dans (Choquet et Iksal, 2007).
4.4. Outils et fonctionnalités destinés au tuteur
Pour que le tuteur puisse visualiser les indicateurs liés à
l’activité de l’apprenant et les méta-indicateurs
liés à ses interventions, nous avons enrichi le client
HOP3X-ENSEIGNANT en lui ajoutant deux espaces : l’espace indicateurs et l’espace interventions.
4.4.1. L’espace indicateurs
Afin de réguler l’activité d’un apprenant, le
tuteur a besoin de visualiser les indicateurs le concernant et
d’intervenir si nécessaire. L’espace indicateurs est
ainsi constitué de :
- la zone dans laquelle sont affichés les indicateurs. Pour
ne pas encombrer cette zone, seuls les indicateurs dont la valeur est hors du
domaine de validité sont affichés.
- la zone de communication qui offre au tuteur les outils pour
intervenir en mode texte ou en mode audio auprès de l’apprenant.
Lorsque le tuteur intervient, il peut sélectionner au préalable le
ou les indicateurs qui motivent son intervention (Lekira et al., 2011).
Dans ce cas, l’intervention est liée aux indicateurs qui
l’ont déclenchée et un méta-indicateur est
automatiquement créé.
- la zone d’alerte qui informe le tuteur en permanence de
l’apparition de situations critiques dans l’activité
d’un apprenant autre que celui qu’il est en train d’observer.
En effet, pendant que le tuteur suit un apprenant particulier, des situations
critiques peuvent apparaître chez d’autres apprenants.
Figure 3 • Zone des indicateurs dans
HOP3X-ENSEIGNANT
4.4.2. L’espace interventions
L’espace interventions permet de visualiser les interventions
précédentes et d’estimer leur effectivité,
grâce aux méta-indicateurs. Un code couleur aide le tuteur à
identifier rapidement les effets réels de son intervention : vert
pour les interventions effectives, rouge pour les interventions n’ayant
pas eu d’effet (ou un effet négatif) et orange pour toutes les
autres (effet mitigé ou positif).
Lorsqu’une intervention n’a pas été effective, le
tuteur a la possibilité de ré-intervenir en sélectionnant
cette intervention via l’interface. Cette action a pour effet de lier la
nouvelle intervention à l’intervention sélectionnée.
Une ré-intervention est considérée comme une intervention
qui porte sur la même situation critique que la première
intervention effectuée, appelée intervention initiale.
Par ailleurs, le tuteur peut visualiser l’historique de
l’intervention. Pour cela, il a accès au détail de
l’intervention initiale et des ré-interventions ainsi
qu’à l’historique des valeurs du méta-indicateur et de
l’évolution des indicateurs.
Figure 4 • Zone des interventions dans
HOP3X-ENSEIGNANT
4.4.3. Exemple de séquence d’intervention
Nous donnons un exemple de séquence d’interventions en nous
appuyant sur la question 1 présentée dans le tableau 4.
L’apprenant doit écrire une classe Point comportant deux variables
d’instance représentant les coordonnées réelles x et
y d’un point. Afin de respecter le principe d’encapsulation, la
visibilité de ces deux variables doit être
« private ».
Dans un premier temps, l’étudiant déclare ces variables
avec une visibilité « public » :
public float x,y ;
Le tuteur sélectionne l’indicateur « Visibilité
des variables d’instance » de la question 1 et envoie un message
texte à l’étudiant : « Ta classe Point ne
respecte pas le principe d’encapsulation car tes variables
d’instance sont publiques ». L’étudiant
réagit en supprimant le modificateur « public ».
float x,y ;
Quelques minutes plus tard, le tuteur constate, grâce au
méta-indicateur, que son intervention n’a pas eu l’effet
escompté. Il ré-intervient donc en envoyant un second message
à l’étudiant : « Il ne suffit pas que tes
variables ne soient pas publiques, il faut les
protéger ». A ce moment, l’étudiant ajoute
le modificateur « private ».
private float x,y ;
L’intervention est désormais considérée comme
effective et le méta-indicateur associé vaut succès.
5. Expérimentations et évaluation
L’hypothèse à la base de notre
travail est que les informations fournies par les méta-indicateurs
permettent au tuteur d’intervenir plus efficacement. Afin de
vérifier cette hypothèse, nous avons conduit deux séries
d’expérimentations, l’une avec méta-indicateurs et
l’autre sans, et nous avons analysé leurs résultats. Les
données recueillies ont été comparées afin de
déterminer, d’une part, si les méta-indicateurs
améliorent le taux de succès des interventions du tuteur et,
d’autre part, si cette amélioration de l’efficacité du
tuteur a un impact positif sur l’activité et les productions des
apprenants (Lekira et al., 2012).
5.1. Protocole et données recueillies
La première expérimentation a impliqué deux tuteurs et
trente-six étudiants de licence informatique à
l’université du Maine. La deuxième expérimentation a
impliqué quarante-cinq étudiants de licence informatique à
l’université du Maine et quatre tuteurs dont deux ayant
participé à la première. Chaque séance a duré
trois heures.
Par la suite, nous appellerons « groupe I » le groupe
ayant participé à l’expérimentation où les
tuteurs avaient uniquement à leur disposition les indicateurs et
« groupe IMI » le groupe ayant participé à
l’expérimentation où les tuteurs avaient à leur
disposition les indicateurs et les méta-indicateurs.
Aux cours de ces expérimentations, toutes les traces
d’activité des apprenants et des tuteurs ont été
recueillies. Pour la suite de l’analyse, nous exploitons
principalement :
- les valeurs successives prises par les indicateurs et
méta-indicateurs aux cours des sessions, pour chaque apprenant ;
- les interventions des tuteurs et leur objet (indicateurs à
l’origine de l’intervention).
Au total, 216 interventions ont été effectuées dans le
groupe I et 267 dans le groupe IMI.
5.2. Effet des méta-indicateurs sur les interventions des
tuteurs
Afin de mesurer l’apport des méta-indicateurs sur
l’activité du tuteur, nous distinguons deux catégories
d’interventions : les interventions uniques et les séquences
d’interventions. Une intervention unique est exclusivement composée
de l’intervention initiale. Une séquence d’interventions est
une série d’interventions ayant le même objet (le même
ensemble d’indicateurs), composée de l’intervention initiale
et des ré-interventions qui lui succèdent. Cette définition
ne tient pas compte de la durée entre deux interventions
consécutives, mais uniquement de l’objet de
l’intervention ; autrement dit nous considérons que deux
interventions font partie de la même séquence dès lors
qu’elles ont exactement le même objet, quel que soit le laps de
temps qui les sépare. Une séquence d’interventions est
un succès, si au terme de la séquence, elle a eu l’effet
escompté et que l’apprenant finit par résoudre le
problème pour lequel le tuteur est intervenu.
Dans le groupe IMI, nous considérons qu’il y a
ré-intervention lorsque le tuteur intervient en sélectionnant
l’une de ses interventions qui n’a pas réussi. Dans le groupe
I, où les tuteurs ne disposaient pas des méta-indicateurs, nous
considérons que lorsqu’un tuteur intervient plusieurs fois de suite
en sélectionnant exactement le même ensemble d’indicateurs,
il s’agit d’une séquence d’interventions ayant le
même objet.
Les méta-indicateurs fournissent au tuteur des informations sur le
résultat de ses interventions. En cas d’échec, ils
rappellent au tuteur qu’un apprenant n’a toujours pas résolu
une situation critique sur laquelle il était intervenu. Le tuteur est
ainsi incité à ré-intervenir. Par conséquent, nous
pouvons supposer que fournir au tuteur des informations sur les effets de ses
interventions à travers les méta-indicateurs va augmenter le taux
global d’interventions effectives (hypothèse Ha) et que cette
augmentation est due à l’accroissement du nombre
d’interventions effectives du fait des ré-interventions
(hypothèse Hb).
Figure 5 • Répartition des interventions tutorales
pour les deux groupes
Comme le montre la figure 5, 75,99% (66,66% + 9,33%) de toutes les
interventions (nous tenons compte à la fois des interventions uniques et
des séquences d’interventions) ont eu du succès pour le
groupe I. Pour le groupe IMI, ce taux est de 91,42% (77,14% + 14,28%). Ces
chiffres montrent une hausse de 15,43 points du taux global
d’interventions réussies.
Cette différence est statistiquement significative. Pour le
vérifier, nous avons utilisé un test de comparaison de proportion
(z-test). Pour un risque d’erreur α=5%, avec l’hypothèse
H0 : p1 ≥p2 et H1 : p1<p2,
T=6,43 > u0,95 = 1,64.
Ce résultat valide notre hypothèse Ha: fournir au tuteur des
informations sur les effets de ses interventions à travers les
méta-indicateurs augmente le taux global d’interventions
effectives.
Considérons maintenant l’hypothèse Hb :
l’augmentation du taux global d’interventions effectives est due aux
ré-interventions. Comme nous nous intéressons ici à
l’impact des ré-interventions sur l’augmentation du taux
d’interventions effectives, nous écartons les interventions qui ont
été effectives du premier coup afin de ne prendre en compte que
les cas où les interventions initiales ont échoué (cf.
Figure 6).
On observe tout d’abord que le taux de ré-intervention
augmente : il passe de 39,98% (28% + 11,98%) dans le groupe I à 75%
(62,52% + 12,48%) dans le groupe IMI. Plus précisément,
c’est la proportion de séquences d’interventions
réussies qui augmente (elle passe de 28% à 62,52%), tandis que la
proportion de séquences d’intervention qui échouent reste
stable. D’autre part, la proportion d’interventions uniques qui
échouent décroit dans les mêmes proportions : elle
passe de 60,02% à 25%. Nous interprétons ces évolutions
symétriques comme une conséquence directe de la présence
des méta-indicateurs. Lorsqu’une intervention initiale
échoue, le méta-indicateur rappelle au tuteur que la situation
critique n’a pas été résolue et l’incite
à ré-intervenir, plusieurs fois si nécessaire,
jusqu’à ce que le problème soit surmonté. Les
méta-indicateurs ont donc pour effet de réduire le taux
d’interventions uniques sans effet, et d’augmenter d’autant le
taux de séquences d’interventions réussies. Ce
résultat valide ainsi l’hypothèse Hb..
Figure 6 • Répartition des ré-interventions
tutorales pour les deux groupes
Par ailleurs, une observation, qui conforte nos hypothèses, concerne
le temps de réaction du tuteur entre deux interventions. Ce temps diminue
lorsque le tuteur a des méta-indicateurs à sa disposition. En
effet, nous avons constaté que le temps entre l’intervention
initiale et les ré-interventions qui y sont liées est de 34
minutes en moyenne pour le groupe I (entre 7 minutes et 120 minutes) tandis
qu’il est de 13 minutes seulement pour le groupe IMI (entre 2 et 34
minutes).
5.3. Effets des méta-indicateurs sur l’activité de
l’apprenant
Afin de déterminer si l’amélioration du taux de
réussite des interventions du tuteur a un impact positif sur
l’activité de l’apprenant, nous examinons si les apprenants
résolvent mieux les situations critiques auxquelles ils sont
confrontés lorsque le tuteur dispose des méta-indicateurs.
Parmi toutes les situations critiques rencontrées, certaines
évoluent positivement, c’est-à-dire que les valeurs des
indicateurs sont redevenues conformes à la fin de la session. Par
ailleurs, certaines situations critiques sont résolues sans intervention
du tuteur, lorsque l’étudiant s’auto-corrige. Pour pouvoir
mesurer l’impact de l’amélioration du taux de réussite
des interventions du tuteur sur l’activité de l’apprenant,
nous nous intéressons aux situations critiques qui ont fait l’objet
d’une intervention tutorale. Les deux groupes sont homogènes si
l’on considère le nombre de situations critiques apparues par
session: en moyenne, par étudiant, il y en a eu 16,85 pour le groupe I et
16,79 pour le groupe IMI.
Figure 7 • Répartition des situations critiques
pour les deux groupes
La figure 7 montre la distribution des situations critiques qui ont fait
l’objet d’une intervention tutorale en fonction de leur
résolution à la fin de la session. Le taux de résolution
passe de 83,74% à 92,32% entre le groupe I et le groupe IMI. Cette
augmentation est probablement due aux interventions effectives, dont le nombre a
augmenté avec l’introduction des méta-indicateurs
(cf. section précédente). La différence est
statistiquement significative (T = 4,95).
Cependant, pour le groupe IMI, il y a 7,67 % de situations critiques non
résolues malgré une intervention tutorale. Cette catégorie
correspond aux interventions auprès d’apprenants qui avaient de
très grandes difficultés en programmation.
Ces résultats tendent à prouver que l’introduction des
méta-indicateurs, qui induisent une meilleure réussite des
interventions tutorales, a un impact positif sur les productions des apprenants
car ils ont mieux surmonté leurs difficultés lorsque les tuteurs
avaient un feedback sur leurs interventions.
6. Conclusion
Dans cet article, nous nous sommes
intéressés à rendre compte des effets des interventions du
tuteur lorsque cette intervention concerne une remédiation. Afin de
fournir cette information au tuteur, nous nous sommes appuyés sur les
indicateurs calibrés. Nous avons introduit la notion de
méta-indicateurs : une variable qui permet de mesurer les
effets d’une intervention tutorale en assurant le suivi des indicateurs
concernés. Le calcul de la valeur d’un méta-indicateur
repose sur les valeurs et le domaine de validité des indicateurs à
l’origine de l’intervention.
Afin d’opérationnaliser et de montrer la faisabilité de
notre proposition, celle-ci a été mise en œuvre dans le
domaine de la programmation orientée objet à travers l’EIAH
HOP3X. Nous avons ainsi mené différentes expérimentations
dont l’objectif était d’observer dans l’usage
l’impact des méta-indicateurs sur l’activité du tuteur
et sur celle de l’apprenant. Les résultats de ces
expérimentations ont montré que de telles informations
amélioraient le taux de réussite des interventions du tuteur. Par
ailleurs, cette amélioration tend à avoir un effet positif sur
l’activité et les productions de l’apprenant puisque ce
dernier résout mieux les situations critiques auxquelles il est
confronté lorsque le tuteur dispose de retours sur les effets de ses
interventions.
Nous avons proposé quatre règles de calcul des
méta-indicateurs. Dans ces règles, il n’est fait
référence ni au domaine d’apprentissage, ni au type
d’activité, ni à l’EIAH utilisé. Pour le calcul
d’un méta-indicateur, il n’est tenu compte que du domaine de
validité des indicateurs dont il suit l’évolution. De ce
fait ces méthodes de calcul sont génériques et notre
proposition peut s’appliquer à n’importe quel EIAH disposant
d’indicateurs calibrés avec un domaine de validité.
Par conséquent, il est possible de réutiliser notre
proposition, dans le cadre de son champ d’application qui recouvre les
EIAH disposant d’indicateurs calibrés avec un domaine de
validité, en implémentant les méthodes de calcul
génériques des méta-indicateurs, en concevant une interface
de visualisation de ces méta-indicateurs et en mettant en place un
système qui permet de lier les indicateurs calibrés aux
interventions tutorales.
Une perspective ouverte par ce travail concerne la capitalisation de
l’expérience du tuteur. L’objectif est de réutiliser
les interventions tutorales et notamment, les interventions effectives. Pour
cela, nous proposons de suggérer au tuteur des interventions effectives
lorsqu’il se retrouve devant une situation critique similaire à une
autre déjà traitée efficacement.
BIBLIOGRAPHIE
Bousbia N., Labat J.-M., Rebai
R. et Balla A. (2009). « Indicators for deducting the learner’s
learning style: case of the navigation typology indicator ». Proceedings of the 9th IEEE International Conference on Advanced
Learning Technologies (ICALT’09), p. 485-389.
Choquet C., Iksal S. (2007).
« Modélisation et construction de traces d'utilisation d'une
activité d'apprentissage: une approche langage pour la
ré-ingénierie d'un EIAH ». Revue Sciences et
Technologies de l´Information et de la Communication pour
l´Éducation et la Formation, Vol. 14. Disponible sur
internet : http://sticef.univ-lemans.fr/num/vol2007/14-choquet/sticef_2007_choquet_14.htm
(consulté le 8 juillet 2013).
Capa-Aydin Y., Sungur S. et Uzuntiryaki E. (2009).
« Teacher self-regulation: examining a multidimensional
construct ». Educational Psychology, Vol. 29 n°3,
p. 345-356.
Delorme F. et Loosli G. (2006). « Un outil
générique pour l’analyse automatique et la visualisation de
productions d’apprenants ». Actes du colloque international
sur les Technologies de l’Information et de la Communication pour les
Enseignements d’ingénieur et dans l’industrie (TICE’06).
Denis B. (2003). « Quels rôles et quelle
formation pour les tuteurs intervenant dans des dispositifs de formation
à distance ? ». Distance et savoirs, Vol.1
n°1, p.19-46.
Després Ch. (2001). Modélisation et
conception d’un environnement de suivi pédagogique synchrone
d’activités d’apprentissage à distance.
Thèse de l’université du Maine, Le Mans.
Dimitracopoulou A., Martinez A., Dimitriadis Y., Morch
A., Ludvigsen S., Harrer A., Hoppe U., Barros B., Verdejo F., Hulshof C., Jong
de T., Fesakis G.and Petrou A., Lund K., Baker M., Jermann P., Dillenbourg P.,
Kollias V. et Vosniadou S. (2004). State of the art on interaction analysis :
interaction analysis indicators. Délivrable D26.1 du JEIRP
(Jointly Executed Integrated Research Project) ICALTS (Interaction and
Collaboration Analysis Supporting Teachers' and Students' Self-regulation) du
réseau européen Kaleidoscope.
Dimitracopoulou A., Kollias V., Harrer A., Martinez A.,
Petrou A., Dimitriadis Y., Antonio J., Bollen L., Wichmann A. (2005). State
of the art on interaction analysis. Délivrable D.31.1 du JEIRP
(Jointly Executed Integrated Research Project) IA (Supporting Participants in
Technology-based Learning Activities) du réseau européen
Kaléidoscope.
DPULS (2005). DPULS: Design Patterns for recording and
analysing Usages of Learning Systems. Rapport technique du réseau
européen Kaléidoscope.
Editeur UTL (2012).
http://eiah.univ-lemans.fr/UTL/UTL.xml
France L., Héraud J.-M., Marty J.-C. et Caron T.
(2007). « Visualisation et régulation de
l’activité des apprenants dans un EIAH tracé ». Actes de la conférence Environnements Informatiques pour
l’Apprentissage Humain (EIAH’07), Lausanne, Suisse.
Garrot E. (2008). Plateforme support à
l’interconnexion de communauté de pratiques. Application au tutorat
avec TE-CAP. Thèse de doctorat, Institut National des Sciences
Appliquées (INSA), Lyon.
Glikman V. (2011). « Tuteur à
distance : une fonction, un métier, une
identité ? ». Le tutorat en formation à
distance, Bruxelles, Éditions De Boeck, coll. « Perspectives en
éducation et formation » p. 137-158.
Guéraud V., Adam J., Pernin J., Calvary G. et
David J. (2004). « L'exploitation d'objets pédagogiques
interactifs à distance : le projet FORMID ». Revue Sciences
et Technologies de l´Information et de la Communication pour
l´Éducation et la Formation, vol. 11. Disponible sur
internet : http://sticef.univ-lemans.fr/num/vol2004/gueraud-03/sticef_2004_gueraud_03.htm
(consulté le 8 juillet 2013).
Guéraud V., Adam J., Lejeune A., Mandran N.,
Vézian N. et Dubois M. (2009). « Expérimentation d'un
environnement flexible pour la supervision de travaux pratiques basés sur
des simulations ». Acte de la conférence
Environnements Informatiques pour l'Apprentissage Humain (EIAH’09), Le
Mans, France, p. 279-286.
Guillaume N. (2009). « Un modèle
d’animation : vision synthétique des fonctions
tutorales ». Tutorales, la revue de t@d, la communauté de
pratiques des tuteurs à distance, No 2, p. 7-17.
Harrer A., Barros B., Bollen L., Dimitracopoulo A.,
Fesakis G., Hulshof C., Kollias V., Malzahn N., Martinez A., Morch A. et Petrou
A. (2004). Unified framework on interaction analysis. Délivrable
D26.2.2 du JEIRP ICALTS du réseau européen
Kaléidoscope.
Hop3x (2010).
http://eiah.univ-lemans.fr/HOP3X/HOP3X.xml
Iksal S., Choquet C. et Pham Thi Ngoc D. (2010).
« A generic modeling of indicator with UTL: the collaborative action
function example ». 2nd International Conference on
Computer Supported Education, Valencia, Spain, p. 114-119.
Jermann P. et Dimitracopoulo A. (2004). Future
research directions. Délivrable D26.3 du JEIRP ICALTS du
réseau européen Kaléidoscope.
Labat J.M. (2002). « EIAH : quel retour
d'informations pour le tuteur ». Colloque International sur les
Technologies de l'Information et de la Communication pour les Enseignements
d'Ingénieurs et dans l'industrie (TICE’02), Lyon, France.
Lebel C. (1993). L’autonomie de
l’étudiant à distance : représentations
discursives de tuteurs. Thèse de l’université de
Montréal, Canada.
Lefèvre M. (2009). Processus unifié pour
la personnalisation des activités pédagogiques :
méta-modèle, modèles et outils. Thèse de
l’université de Lyon.
Lekira A. (2012). Rendre compte des effets des
interventions du tuteur à travers une approche orientée
indicateurs. Thèse de l’université du Maine, Le Mans,
France.
Lekira A., Després C. et Jacoboni P. (2011).
« Supporting the identification of teachers' intention through
indicators ». 3rd International Conference on Computer
Supported Education, Noordwijkerhout, Pays-Bas, Vol. 2, p. 111-116.
Lekira A., Després C., Jacoboni P. et Py D.
(2012). « Supporting teachers to enhance teachers' and students'
performance ». 12th IEEE International Conference on
Advanced Learning Technologies, Rome, Italie.
Mazza R. et Dimitrova V. (2007).
« Coursevis : a graphical student monitoring tool for
facilitating instructors in web-based distance courses ». International Journal in Human-Computer Studies, Vol. 65 n°2, p.
125-139.
Pham Thi Ngoc D. (2011). Spécification et
conception de services d’analyse de l’utilisation d’un
environnement informatique pour l’apprentissage humain. Thèse
de l’université du Maine, Le Mans.
Quintin J.-J. (2008). Accompagnement tutoral
d’une formation collective via internet. Analyse des effets de cinq
modalités d’intervention tutorale sur l’apprentissage en
groupes restreints. Thèse de l’université de
Mons-Hainaut (Belgique) et de l’université Stendhal Grenoble III
(France).
Zimmerman B. (2000). « Attaining
self-regulation: a social cognitive perspective ». Handbook of
Self-regulation, p. 13-38.
À
propos des auteurs
Aina Lekira est docteur en informatique. Elle a soutenu
une thèse en 2012 à l’université du Maine sur le
thème du soutien à l’activité du tuteur à
travers une approche orientée indicateurs.
Adresse : LIUM, Université du
Maine, Avenue Messiaen, 72085 Le Mans Cedex 9
Courriel : aina.lekira@gmail.com
Christophe Després est Maître de
Conférence en Informatique à l’Université du Maine.
Chercheur au LIUM. Il est a l’initiative du projet Pédalo
dont l’objectif est de fournir des outils et méthodes pour aider
les acteurs de la formation à organiser leurs activités. Il a
conçu et développé avec Pierre Jacoboni l’EIAH Hop3x.
Adresse : LIUM, Université du
Maine, Avenue Messiaen, 72085 Le Mans Cedex 9
Courriel : Christophe.Despres@univ-lemans.fr
Pierre Jacoboni est Maître de Conférence en
Informatique à l’Université du Maine. Chercheur au LIUM,
membre de l’équipe Ingénierie des EIAH, Il
s’interesse à la conception et a l’Instrumentation des
activités des acteurs dans les EIAH. Il est à l’origine du
projet Hop3x, un EIAH conçu et développé avec Christophe
Després.
Adresse : LIUM, Université du
Maine, Avenue Messiaen, 72085 Le Mans Cedex 9
Courriel : Pierre.Jacoboni@univ-lemans.fr
Dominique Py est professeure en informatique à
l’Université du Maine depuis 2003. Elle a soutenu une habilitation
à diriger des recherches en 2001, à l’université de
Rennes I. Elle effectue actuellement sa recherche au Laboratoire
d’Informatique de l’Université du Maine. Ses principaux
centres d’intérêt sont la conception des EIAH et la
modélisation de l’apprenant.
Adresse : LIUM, Université du
Maine, Avenue Messiaen, 72085 Le Mans Cedex 9
Courriel : dominique.py@lium.univ-lemans.fr
|