Retour à l'accueil Sciences et Technologies
de l´Information et
de la Communication pour
l´Éducation et la Formation
version pleine page
version à télécharger (pdf)

Volume 20, 2013
Article de recherche



Contact : infos@sticef.org

Analyse chronologique des traces journalisées d’un guide d’étude pour apprentissage autonome

 

François LEMIEUX, Michel C. DESMARAIS, Pierre-N. ROBILLARD (École Polytechnique de Montréal)

 

RÉSUMÉ : Les environnements informatiques pour l'apprentissage humain (EIAH) et le Web multiplient les opportunités d’apprentissage autonome. Les exerciseurs jouent un rôle important pour ce type d’apprentissage car ils fournissent un encadrement essentiel à la démarche d’étude d’un cours, pour la préparation d’un examen et pour l’obtention d’un diplôme. Un guide d’étude en ligne comprenant un exerciseur est ici présenté. Il a été développé pour l’apprentissage de mathématiques pré-universitaire dans une école de génie. Cette application a été déployée en mode expérimental durant un trimestre. Une majorité d’utilisateurs l’ont utilisé brièvement, alors que quelques autres l’ont utilisé plus intensivement. Des traces journalisées détaillées permettent d’obtenir un portrait de leur utilisation. Nous présentons différentes analyses descriptives de ces traces et dégageons quatre profils d’utilisation. Nous décrivons une méthode d’analyse basée sur les séquences des activités des utilisateurs qui permet de visualiser l’utilisation dans le temps. L’analyse des séquences est appliquée pour caractériser les niveaux d’activités selon une perspective chronologique.

MOTS-CLÉS : EIAH, guide d’étude, exerciseur, analyse de séquence, engagement, désengagement continuité d’utilisation, niveau d’utilisation, comportement, profils d’apprenants, apprentissage autonome, analyse de traces, journalisation..

ABSTRACT : Web-based learning environments are raising the opportunities of autonomous learning to new levels. Exercisers play an important role within this context, because they offer guidance and feedback to the student who needs to prepare for an exam, a course, or a diploma. We present an online study guide including an exerciser developed in our engineering school aimed at freshmen student before they start their degree. A pilot study that lasted one semester showed various degrees of motivation towards using the system, as measure by continuance intention. A majority of the students briefly used the exerciser, while a few of them made extensive, multi-day use. Detailed logs of their usage allowed us to reconstruct the precise use of the system. We report different means to analyse these logs, from which we extracted four usage profiles. We describe a sequence analysis method that allows a visual analysis of the users activities in time. We show how this method helps to identify patterns of use for each level of usage.

KEYWORDS : Web-based learning environment, study guide, exerciser, sequence analysis, engagement, disengagement, continuance intention, level of usage, behaviour, usage profile, autonomous learning, log analysis

 

1. Introduction

La quantité et la qualité du matériel didactique accessible sur Internet sont en croissance rapide. Il est de plus en plus facile pour un étudiant de consulter des documents et des applications Web pour parfaire ses connaissances sur un sujet. Ainsi, les opportunités d’apprentissage autonome se multiplient.

Par contre, l’évaluation des connaissances acquises par auto-apprentissage et leur comparaison avec des barèmes et des objectifs d’apprentissage ne sont pas autant accessibles sur le Web. Pourtant, l’auto-évaluation joue un rôle déterminant dans l’apprentissage (Tan, 2012). L’auto-évaluation favorise la motivation intrinsèque et encourage l’apprenant à adopter une démarche d’apprentissage plus efficace (McMillan et Hearn, 2008).

L’apprenant a besoin de connaître ses forces et ses faiblesses. Il a besoin d’orienter ses efforts. En mathématiques, l’exerciseur est un outil d’auto-évaluation qui peut combler ce besoin. Il présente des tâches à l’utilisateur, lui donne une évaluation des réponses et lui procure une vue d’ensemble de sa progression. Ce type d’application procure un soutien à l’apprentissage autonome (self-regulating learning) (Azevedo, 2009) ; (Winne et al., 2006) L’application fournit un retour d’information sur les acquis d’apprentissage et aiguille l’étudiant vers un contenu pertinent visant à répondre à des objectifs pédagogiques (Azevedo, 2009) ; (Hadwin et al., 2007) ; (Schraw, 2007).

Il existe des exerciseurs commerciaux dont certains ont un nombre d’utilisateurs important. Il y a la famille des tutoriels cognitifs (Koedinger et al., 1995) et la plateforme ASSISTment (Feng et al., 2008). Il y a aussi le système Assessment and LEarning in Knowledge Spaces (ALEKS) qui revendique plusieurs millions d’utilisateurs (ALEKS Corporation, 2013) ; (Falmagne et al., 2006) ; (Hardy, 2004). On compte de nombreux prototypes de recherche parmi lesquels certains ont des modules assez sophistiqués pour guider l’apprenant et adapter le contenu (Conejo et al., 2004) ; (Ginon et Jean-Daubias, 2012) ; (Jean-Daubias et al., 2011).

Le guide d’étude dont il est ici question comporte un exerciseur de 1 030 exercices assorti de notes en ligne qui expliquent la théorie et qui équivalent à 150 pages imprimées. Dix thèmes de mathématiques de niveau pré universitaire sont couverts, par exemple : exposants et radicaux, trigonométrie ou systèmes d’équation linéaires. Les exercices sont regroupés dans 144 sujets avec une moyenne d’un peu moins de huit exercices par sujet. Il est possible d’accéder à la section pertinente des notes à partir des exercices correspondants.

Le mode d’utilisation est entièrement laissé à la discrétion de l’étudiant qui peut décider de le parcourir, de consulter les notes ou de résoudre des exercices.. Contrairement à la grande majorité des exerciseurs, il n’y a pas une évaluation formelle de la réponse de l’utilisateur : la réponse à une question est affichée sur demande et c’est l’utilisateur qui indique au système s’il a réussi ou non l’exercice. L’exerciseur garde la trace des questions pour lesquelles l’étudiant déclare avoir réussi, ce qui permet de jauger la progression dans la matière.

L’utilisation de l’exerciseur pendant quatre mois à l’été 2012 sera ici étudiée. Pendant cette période, 107 étudiants ont utilisé l’application parmi lesquels 49 ont exécuté des exercices. Les autres ont navigué à travers les notes et parmi les exercices sans y répondre. Les actions de ces utilisateurs ont été journalisées. Les données recueillies à partir de traces de cette journalisation seront ici décrites ainsi que des techniques d’analyse de séquences.

Une des questions à laquelle nous tenterons de répondre est comment caractériser les différents types d’utilisation à partir de ces données. La durée d’utilisation et les activités auxquels se consacre l’utilisateur serviront à catégoriser ces types d’utilisation.

L’analyse des traces qui permettra d’identifier ces catégories est un champ de recherche actif dans le domaine des interfaces adaptatives. C’est un des principaux sujets de cette étude. Les prochaines sections portent sur les travaux pertinents à l’analyse des traces dans les environnements informatiques pour l'apprentissage humain (EIAH) et sur ceux qui traitent de la détection de la continuité d’utilisation et de l’engagement à partir de telles traces. Une analyse descriptive des traces du guide d’étude est ensuite présentée ainsi qu’une perspective chronologique et visuelle de séquences d’actions. Une comparaison entre les durées d’exécution des exercices d’un expert et celles des utilisateurs sera faite. Enfin, on déterminera si les résultats à un pré-test ont un impact sur la continuité d’utilisation de l’application.

2. Analyse de journalisation et traces utilisateurs

L’analyse de la journalisation est une vieille technique de recherche en informatique (Tolle, 1983). Lorsqu’elle porte sur l’utilisation des systèmes par des utilisateurs, elle consiste à étudier les échanges électroniques entre les systèmes et les personnes (Agosti et al., 2011) ; (Agosti et Di Nunzio, 2007) ; (Jansen, 2009). Le forage de données en EIAH est l’analyse de cette journalisation de grands volumes de d’échanges entre l’étudiant et le système. Il constitue un domaine d’étude en pleine expansion (Merceron et Yacef, 2005) ; (Baker et Yacef, 2009). Outre les arguments déjà bien établis que la nature et la quantité de données issues des EIAH prennent de l’ampleur, Stamper et al. (Stamper et al., 2012) affirment qu’une expérience peut être réalisée en quelques jours et dans des conditions expérimentales idéales de ceteris paribus dans des environnements EIAH Web comportant un trafic d’utilisateurs soutenu. En marketing Web, cette méthode est connue sous le vocable « d’expérience A et B », où une moitié des internautes est redirigée vers une condition A et l’autre vers la condition B. Cette méthode permet de valider rapidement, à partir de l’analyse des traces, si un facteur a une influence sur l’apprentissage ou sur l’utilisation de l’application.

2.1. Traces et apprentissage autonome

En EIAH, la notion de traces peut ne pas être limitée à la journalisation. Ainsi, Choquet & Iksal (Choquet et Iksal, 2007) proposent un modèle d’analyse des traces qui ajoute à l’analyse de la journalisation d’autres sources d’information comme des entrevues, des questionnaires ou des enregistrements vidéos. Dans un contexte d’apprentissage en réalité virtuelle, ces mêmes types de traces permettent d’alimenter l’élaboration d’un méta-modèle d’apprentissage inspiré du Unified Modeling Language (UML) (Baudoin et al., 2007). UML est aussi utilisé pour l’analyse de la journalisation pour des EIAH hétérogènes (Broisin et Vidal, 2007). Les traces peuvent être utilisées pour procurer une « assistance métacognitive » en permettant à l’étudiant de visualiser ces traces durant une activité d’apprentissage (Cram et al., 2007) ou à l’enseignant de superviser l’évolution des activités d’apprentissage de leurs élèves (Delestre et Malandain, 2007).

Azevedo (Azevedo, 2009) a fait un survol d’études portant sur l’apprentissage autonome et l’analyse des traces. Perry et Winne (Perry et Winne, 2006) rapportent une étude de traces avec l’environnement gStudy (Winne et al., 2006). Cet environnement est une coquille qui permet d’intégrer du matériel didactique. L’étudiant peut alors l’explorer et l’annoter de différentes façons. L’étude porte sur des élèves du niveau primaire et propose un modèle théorique de stratégies d’étude. Le même environnement a été utilisé par Hadwin et al. (Hadwin et al., 2007) avec un groupe de huit étudiants du premier cycle universitaire. Ils rapportent des analyses détaillées des activités d’études. Ils classifient les étudiants selon leur niveau d’annotation par une technique de regroupement de données (clustering). Des techniques d’analyse de graphes de transition d’état sont appliquées pour identifier des constances dans les activités d’études. Une des conclusions importantes de leur recherche est que les activités d’études rapportées par les étudiants eux-mêmes ne concordent pas fidèlement à celles qui ressortent des traces. Les comptes-rendus des étudiants constituent donc une source insuffisante pour expliquer comment ils étudient.

2.2. Temps et apprentissage

Les traces des utilisateurs des EIAH peuvent se composer d’événements, comme la consultation de documents ou le furetage qui correspond à des déplacements d’une page à l’autre ou à l’intérieur d’une même page auxquels on associe le temps d’occurrence. Le temps joue un rôle important en apprentissage. Des travaux en psychométrie ont démontré son utilité comme indicateur de la facilité avec laquelle l’apprenant accomplit une tâche (Taraban et al., 2001) ; (Thompson et al., 2009) ; (Wang et Hanson, 2005) et comme indicateur de la difficulté d’une tâche (Jarušek et Pelánek, 2012) ; (Linden van der et al., 1999) ; (Wise et Kong, 2005).

La courbe d’apprentissage de Ebbinghaus (Ebbinghaus, 1885) a été adaptée par Snoddy (Snoddy, 1926) à la psychologie clinique et par Wright (Wright, 1936) à la production industrielle. Ces modèles d’apprentissage démontrent qu’avec la répétition d’une tâche, le temps d’exécution de la tâche diminue régulièrement selon une échelle logarithmique en vertu d’une loi de la puissance de la pratique (Ritter et Schooler, 2001).

Le temps des événements dans les EIAH est aussi un indicateur de l’engagement qui peut être lui-même un indicateur parmi d’autres, de la motivation (Baker, 2007) ; (Cocea, 2011) ; (Cocea et Weibelzahl, 2009). Le désengagement est la manifestation du comportement hors tâche. Ainsi, consacrer un temps très long à la lecture d’une page ou cliquer rapidement dans plusieurs pages avec de courts temps d’arrêt sont des exemples de désengagement. À l’inverse, consacrer un temps raisonnable à la lecture d’une page est un exemple d’engagement (Cocea et Weibelzahl, 2006). Beck (Beck, 2005) propose même un modèle mathématique dans le contexte de l’utilisation d’un tutoriel de lecture. Cependant, une déconnexion automatique du système est un désengagement sans être un indicateur de motivation : l’utilisateur est allé diner, par exemple, avant de reprendre son utilisation du système.

Il faut par ailleurs croiser les données temporelles avec d’autres types de données pour estimer l’engagement. En résolution de problèmes, le temps consacré à la résolution peut être très différent d’un problème à l’autre, selon la difficulté, la connaissance préalable de l’apprenant, la fatigue, le flot (Csikszentmihalyi, 2008), etc. D’autre part, l’apprenant peut consulter d’autres ressources que l’application et ainsi sembler se désengager de l’application tout en continuant d’être engagé dans sa tâche d’apprentissage.

Parmi les autres facteurs qui peuvent être croisés avec le temps pour évaluer l’engagement, sont, entre autres, la probabilité que l’étudiant réussisse la tâche, l’historique des erreurs précédentes, la consultation de capsules d’aide et la complexité de la tâche.

2.3. Analyse de séquences temporelles

L’analyse des séquences temporelles des actions de l’utilisateur est un type d’analyse qui a été peu utilisé dans les EIAH. Les techniques d’analyse des séquences ont pris beaucoup d’ampleur dans le domaine de la bio-informatique (Durbin et al., 1998), mais ces techniques existent en sciences sociales depuis déjà plusieurs années (Abbott, 1995) ; (Abbott et Tsay, 2000). Leur application dans le cadre d’analyse de traces d’utilisateurs s’apparente au problème de l’analyse des actions de l’utilisateur. Elles contribuent à la reconnaissance des buts derrière les actions, approche connue sous le nom de la reconnaissance de plan (Carberry, 2001) ; (Desmarais et al., 1989). Plusieurs techniques statistiques, notamment les modèles de Markov, permettent d’identifier des régularités à travers les séquences d’actions. Les travaux de Armentano et Amandi (Armentano et Amandi, 2012) constituent un exemple récent de l’application de telles techniques au problème de la reconnaissance de plan. Plusieurs études utilisent ces mêmes techniques pour la navigation à travers des pages Web (Deshpande et Karypis, 2004) ; (Kosala et Blockeel, 2000) ; ((Qiqi et al., 2012); ((Srivastava et al., 2000)

Köck et Paramythis (Köck et Paramythis, 2011) appliquent des modèles de Markov et des analyses par regroupement de données (cluster analysis) pour l’analyse de séquences d’actions dans un EIAH. Cette approche permet de classifier différents types d’apprenants selon leur style de résolution de problèmes et selon leur propension à recourir à de l’aide en ligne. Dans le même domaine de recherche, Li et Yoo (Li et Yoo, 2006) utilisent une technique de segmentation basée sur des chaînes de Markov et des modèles bayésiens pour classifier les apprenants selon leur style d’apprentissage et leurs interactions avec un EIAH. Jeong et al. (Jeong et al., 2008) utilisent une approche similaire pour évaluer l’effet de styles d’interventions dans un EIAH. Les élèves interagissent avec un agent pour lui « enseigner ». C’est une approche où l’élève prend le rôle d’enseignant et ces interactions sont modélisées par un modèle de Markov latent (HMM — Hidden Markov Model). Différents styles d’apprentissage peuvent être ainsi identifiés.

Beal et al. (Beal et al., 2007) utilisent un HMM pour tenir compte du niveau d’engagement lors de la prédiction du taux de succès à des exercices dans un EIAH. À partir de données d’interaction avec un EIAH portant sur les mathématiques du niveau secondaire, les auteurs effectuent une première classification des réponses à des exercices sur la base d’un algorithme de segmentation qui s’inspire de travaux antérieurs (Beal et al., 2006). Cinq catégories sont utilisées : essais-erreurs systématiques ou abuser de l’aide, résoudre un problème correctement sans aide, résoudre incorrectement un problème sans aide, apprendre avec aide et sauter un problème (Guessing/Help Abuse; Independent-Accurate problem solving; Independent-Inaccurate problem solving; Learning with Help, Skipping). Les catégories « résoudre un problème correctement sans aide » et « résoudre incorrectement un problème sans aide » donnent des réponses sans utilisation de l’aide en ligne. Par la suite, les séquences de catégories sont analysées avec un HMM qui détermine un niveau d’engagement : bas, moyen, élevé (low, medium et high).

Notre approche diffère de ces approches en mettant l’emphase sur l’analyse visuelle de séquences afin d’identifier certaines régularités d’utilisation et de distinguer des catégories d’utilisateurs.

2.4. Objectifs de l’étude

À l’exception des études de Hadwin et al. (Hadwin et al., 2007) et de Perry et Winne (Perry et Winne, 2006), peu de travaux portent sur les comportements d’apprentissage autonome identifiés à partir de données de journalisation d’utilisation d’EIAH. La première étude de Hadwin et al. correspond à un contexte expérimental d’une courte durée de deux heures et la deuxième, celle de Perry et Wine, porte sur un environnement précis et est utilisé auprès de jeunes enfants. Notre étude repose plutôt sur une démarche de plusieurs semaines où il n’y a pas d’encadrement académique. Le niveau d’utilisation et les stratégies d’études adoptées par l’étudiant relèvent donc d’une initiative personnelle.

Un des objectifs de la présente étude est d’identifier des modes d’utilisation définis selon le temps consacré à différentes activités d’utilisation du guide. Deux facteurs caractérisent cette étude.

Le premier facteur est que les traces journalisées contiennent le détail de l’interaction avec l’exerciseur. Des événements captent les activités de consultation des notes et des exercices. Une analyse chronologique détaillée de ces événements est effectuée afin d’identifier des patrons d’utilisation.

Le second facteur est la nature de l’évaluation des réponses aux exercices. Plutôt que de laisser le système évaluer l’exactitude de la réponse, l’interface offre d’afficher la réponse de chaque problème et laisse l’utilisateur indiquer lui-même s’il a réussi ou non l’exercice. Cette approche a un impact à la fois sur la fiabilité des réponses et le temps d’exécution des exercices. L’utilisation des traces journalisées de cette étude doit donc être analysée et interprétée dans le contexte particulier défini par ces facteurs.

Nous décrivons dans ce qui suit l’application du guide d’étude et les traces qui sont recueillies puis analysées. La méthodologie d’analyse et les résultats sont ensuite détaillés.

3. Guide d’étude de mathématiques de niveau préuniversitaire

L'École polytechnique de Montréal offre à tous ses étudiants admis aux programmes de premier cycle une épreuve de mathématique en ligne d’une heure. Ce test vise à identifier les forces et faiblesses en mathématiques dans les compétences préalables aux cours communs de la majorité des programmes de l’École. Pour ceux qui ont des faiblesses à combler ou qui veulent améliorer leur performance, l’École offrait jusqu’à l’an dernier un cours de révision intensive des notions mathématiques, au rythme de six heures par jours, cinq jours par semaine pendant quatre semaines. Ce mode intensif n’étant vraisemblablement pas adéquat pour une grande partie des étudiants visés, l’École a abandonné cette formule. Le guide vise à combler ce retrait du cours avec une formule autonome et plus flexible.

Une fois l’épreuve de prétest mathématique complétée, l’étudiant reçoit par courriel une évaluation diagnostique du niveau de maîtrise de six sujets fondamentaux : algèbre, trigonométrie, géométrie, calcul différentiel et intégral, algèbre linéaire. Il est invité à utiliser le guide. Mais la décision de l’utiliser et les modalités d’utilisation sont laissées à sa discrétion. Aucune pénalité, ni aucune récompense ne sont associées à l’utilisation du guide.

Le guide est un exerciseur comportant 1030 exercices répartis en dix thèmes assortis d’une section de documentation théorique. La section documentation est constituée des notes du cours que le guide remplace. Ces notes reprennent les mêmes dix thèmes que les exercices. Les notes correspondant à chaque exercice sont accessibles par hyperlien. Il est donc facile pour l’étudiant de consulter la théorie sous-jacente à chaque exercice. Elle correspond à 150 pages en format papier.

La figure 1 représente une page d’exercices qui compte quatre items regroupés dans un sujet. La figure 2 illustre la fenêtre de dialogue qui apparaît lorsque l’utilisateur clique sur « Valider la réponse 2... ». C’est à l’utilisateur lui-même d’indiquer s’il a réussi ou non l’exercice. Cette approche suscite la responsabilité de l’étudiant dans son apprentissage et évacue les tentatives de soutirer la réponse par différents autres moyens que l’on associe à des désengagements. Si l’étudiant répond « Oui », la réponse est alors affichée en permanence dans la page d’exercices correspondante et un indicateur en marge de la section affichée dans la navigation lui indique le nombre d’exercices terminés : par exemple, les exercices 1 et 2 de la figure 1 affichent la réponse et la fraction « 2/4 » dans la navigation de gauche indique la proportion d’exercices effectués.

Figure 1 • Page d’exercices 

Figure 2 • Boite de dialogue de réponse à un exercice 

La figure 3 représente une page de notes correspondant aux exercices de la page d’exercices illustrée à la figure 1.

L’application est implémentée en langage PHP et elle est accessible à distance avec un fureteur Web. Son utilisation nécessite un identificateur unique pour chaque étudiant et l’identificateur est associé à chaque événement dans les fichiers journaux.

Le guide d’étude a été mis en ligne en juin 2012 et les traces retenues ont été recueillies durant cinq mois d’utilisation. Il a été offert à ceux qui avaient accepté de compléter l’épreuve de mathématique et aux étudiants de première année qui suivaient un cours de mathématiques. On dénombre 107 étudiants qui ont utilisé l’application à différents niveaux de durée complète d’utilisation.

Figure 3 • Page de notes 

4. Analyse de la journalisation

Le guide d’étude enregistre les événements dans un fichier texte. Le format des événements enregistrés est décrit dans la prochaine section et le type d’analyse effectué est ensuite détaillé.

4.1. Format des traces

Les traces soumises à l’analyse sont enregistrées dans deux journaux dont les noms de fichier correspondent à un identifiant unique pour chaque utilisateur. Le premier journal recueille les événements de navigation dans l’application et de manipulation des menus. Un exemple du contenu de ce fichier est présenté dans le tableau 1. La première ligne correspond à l’ouverture de l’application. La deuxième ligne correspond à un défilement de la page des exercices de 102 pixels. À la cinquième ligne, l’utilisateur a caché un élément de menu de la page des exercices. À la septième ligne, l’utilisateur demande l’affichage des exercices du sujet 2, du sous-sous-module 1, du sous-module 1 du module 2. À la huitième ligne, l’utilisateur est à la page des exercices, mais demande de consulter la sous-sous-section 1 de la sous-section1 de la section 2 du module 2 des notes et ainsi de suite.

Tableau 1 • Exemple de traces dans le journal des événements

L’autre journal contient les réponses de l’utilisateur à la boîte de dialogue de validation de chacun des exercices. Par exemple, une ligne de ce fichier se lirait ainsi : ligne 2012-06-04 14:25,2,1,1,1,1,1,4. Le tableau 2 donne les correspondances de ces valeurs. Le résultat peut avoir pour valeur « 1 » si l’étudiant juge avoir résolu le problème et « 2 » s’il ne l’a pas résolu.

Tableau 2 • Exemple de trace dans le journal des exercices

4.2. Méthode d’analyse

Une étape de prétraitement est effectuée pour l’ajout d’information implicite pour distinguer les enregistrements en trois types d’événements :

- navigation : consultation de notes ou navigation dans la page des exercices ;

- exercice exécuté ;

- pause : ajout défini par une durée déterminée qui indique que l’utilisateur n’est pas actif.

4.2.1. Traitement de la durée et des pauses

La durée de l’événement est calculée en premier lieu en soustrayant le temps de l’événement à celui du précédent. Ceci amène à des événements pouvant avoir des durées très grandes lorsqu’il y a de longues interruptions, par exemple lorsque l’étudiant reprend les exercices après une pause pour l’heure du dîner. Des sessions sont créées et des événements de pause sont insérés pour éviter ces durées excessives associées à différents événements

Les événements de type navigation et exercices durant lequel l'utilisateur est présumé se consacrer entièrement à l'application sont regroupés pour faire une session. Ainsi, les durées de plus de 1 800 secondes (30 min) sont repérées et une nouvelle session est démarrée : les événements qui suivent sont associés à une nouvelle session. Cette durée s’aligne sur le temps maximal qu’on peut s’attendre à devoir consacrer aux exercices les plus longs et il est corroboré par les durées mesurées des exercices qui sont suivis d’autres événements. C’est le temps de désengagement pour déconnexion de système fixé par Cocea et Weibelzahl (Cocea et Weibelzahl, 2006).

Puis, pour les événements de navigation dont la durée est supérieure à 300 secondes (5 min), un événement pause est alors inséré après 300 secondes (5 min) de l’occurrence de cet événement et les temps sont réajustés en conséquence. En d’autres termes, on considère que la consultation d’un écran sans défilement ne peut excéder 300 secondes (5 min). C’est un compromis si on considère les données de Cocea (Cocea, 2011) qui fixait entre 100 secondes et 400 secondes (6,6 min) la durée normale de lecture d’une page. À noter que ces pauses ne sont pas ajoutées aux événements de type exercice car il est possible que des exercices nécessitent une plus grande durée. Leur durée sera alors limitée par le seuil de 1 800 secondes (30 min) d’inactivité pour le démarrage d’une nouvelle session.

4.2.2. Analyse de séquences

Une des originalités de l’étude consiste à analyser des séquences d’événements. Ces séquences permettent d’obtenir une vue globale de l’activité de l’apprenant et caractérisent les sessions d’interaction avec l’application.

La méthode d’analyse consiste à échantillonner, à intervalle régulier, l’événement qui correspond à la dernière action effectuée afin de faciliter l’affichage des séquences d’actions. Pour nos analyses, les intervalles varient de deux à 10 secondes. Il est évidemment possible que durant un intervalle, deux types d’activités s’intercalent. L’activité dont la durée est entièrement à l’intérieur de l’intervalle de temps sera alors passée inaperçue, d’où l’importance de prendre des intervalles relativement courts, tout en permettant d’afficher des activités sur une période comme la durée des sessions d’interactions.

Les analyses ont été réalisées dans l’environnement d’analyse statistique R (Venables et al., 2012). Le logiciel TraMineR a été utilisé pour l’analyse des séquences d’actions (Gabadinho et al., 2011). Le code des analyses de même que les données sont mis à la disposition de la communauté au lien : http://datapublication.tge-adonis.fr/author/a-001-089/p-001-018.

5. Analyse de l’utilisation

Nous décrivons dans un premier temps des statistiques descriptives de l’utilisation de l’application avant l’analyse des séquences afin d’identifier des modes d’utilisation assez tôt dans le cycle d’interaction.

5.1. Statistiques descriptives

Le tableau 2 rapporte quelques statistiques générales de l’utilisation de l’exerciseur. Des 107 étudiants qui ont utilisé l’application (Ν), 49 d’entre eux ont effectué des exercices (n1). Les autres n’ont effectué que du furetage à travers les exercices et les notes, sans jamais tenter de répondre à un exercice (n2). Ce groupe est en fait plus nombreux que les utilisateurs qui ont effectué des exercices : 49 contre 58. Les valeurs et représentent le nombre moyen de sessions des utilisateurs n1 et n2 respectivement. On remarque donc une différence marquée du nombre moyen de sessions d’utilisation entre ceux qui ont réalisé des exercices et ceux qui n’en ont pas effectué.

Statistique

Description

Nombre

N

Utilisateurs qui ont accédé à l’application

107

n1

Utilisateurs qui ont effectué un ou plusieurs exercices

 49

n2

Utilisateurs qui ont uniquement exploré l’application sans effectuer d’exercices (remarque : N = n1 + n2)

 58

S

Sessions au total

719

Moyenne des sessions par utilisateurs qui ont effectué des exercices, n1

10,9

Moyenne des sessions par utilisateurs qui n’ont effectué que du furetage, n2

2,1

Tableau 2 • Statistiques générales d'utilisation de l'application

Le niveau d’utilisation a varié considérablement entre les utilisateurs. Le graphique de la figure 4 donne la distribution du nombre d’exercices exécutés selon le nombre d’utilisateurs. On peut voir que 22 (10 + 12) d’entre eux ont fait moins de 10 exercices. À l’autre extrême, un étudiant a effectué plus de 1 000 exercices, c’est-à-dire qu’il a couvert l’ensemble de tous les exercices. Un autre groupe de 11 étudiants a effectué entre 100 et 1 000 exercices.

La répartition du temps d’utilisation par utilisateur est illustrée sur la figure 5. Les 107 utilisateurs se retrouvent inclus dans l’histogramme et leur utilisation est donnée en heures. La grande majorité a consacré moins d’une heure à l’application (x < 0), alors qu’une dizaine y a consacré plus de 10 heures, dont un individu qui y a consacré plus de 100 heures.

Figure 4 • Nombre d’exercices exécutés par utilisateur

Figure 5 • Distribution du temps d’utilisation

La répartition des exercices effectués selon les modules présentée à la figure 6 indique que la très grande majorité des exercices effectués est concentrée sur le module 2, tandis que la grande majorité des utilisateurs n’ont consulté qu’un seul module. Le module 2 est celui qui comporte le plus grand nombre d’exercices et le premier dans l’ordre présenté aux utilisateurs.

Figure 6 • Exercices exécutés par module

Les différentes mesures présentent donc un portrait global où une majorité d’étudiants a fait un usage limité de l’exerciseur. On peut présumer qu’il s’agit d’utilisateurs curieux, mais qui n’avaient pas l’intention de poursuivre une mise à niveau mathématique. Peut-on conclure qu’il s’agit d’étudiants qui maîtrisent déjà la matière? Il en sera question dans la section ‎8.

La prochaine étape de l’étude porte sur l’analyse des séquences d’activités des utilisateurs telles que reconstruites à partir des traces. Une question qui se pose est de savoir si ces séquences peuvent nous instruire sur les catégories d’utilisation, notamment sur les utilisateurs qui ont fait un usage substantiel de l’exerciseur par rapport aux autres.

6. Analyse de séquences d’activités

Les séquences d’activités sont une manière de visualiser le déroulement des activités de l’étudiant à travers le temps comme présenté à la section ‎4.2.2. L’analyse est effectuée dans le but d’identifier les caractéristiques du comportement des utilisateurs qui ont fait un usage de l’application. Nous définissons donc dans un premier temps des niveaux d’utilisation afin de visualiser les activités des utilisateurs dans le temps sous la forme de séquences.

6.1. Niveaux d’utilisation

Pour les besoins de cette étude, des niveaux d’utilisation par étudiant sont définis selon le temps total consacré à l’application. Une mesure simple de cette utilisation est la durée d’activité en excluant les pauses. Ainsi, les niveaux d’utilisation sont définis sur une échelle croissante, mais non linéaire, de quatre niveaux d’utilisation :

- Évaluation rapide de l’application : moins de 1 minute,

- Évaluation de l’application : de 1 à 10 minutes,

- Utilisation ponctuelle : de 10 minutes à 2 heures et

- Utilisation intensive : plus de 2 heures.

Les étudiants sont regroupés selon ces quatre niveaux. La figure 7 présente le nombre d’utilisateurs dans chaque groupe. À noter que même si le groupe du niveau 4 semble moins nombreux, la très grande partie du temps d’utilisation global des utilisateurs se retrouve dans cette catégorie. Les niveaux 1 et 2 ne comptent en fait que pour une mince proportion de l’utilisation étant donné la très faible quantité d’activité de ces utilisateurs.

Figure 7 Niveaux d’utilisation de l’application selon 4 niveaux d’utilisation

La figure 8 illustre la répartition de toutes les sessions de tous les utilisateurs regroupées par niveaux d’utilisation. Les durées des sessions correspondent à une teinte de gris exprimée en minutes dans chacune de neuf colonnes.

Figure 8 • Distributions des durées de session en minutes

Ainsi, les colonnes les plus pâles indiquent les durées de session plus longues. Le graphique du haut donne des durées normalisées et représente une densité proportionnelle de distribution de temps où la somme des colonnes est 1. Il permet de comparer la proportion des durées de session entre elles par niveau. Le graphique non normalisé représente des durées absolues. Il permet de comparer la durée des sessions d’un niveau à l’autre. Ainsi, on y constate que la durée des sessions augmente avec le niveau d’utilisation.

Le graphique normalisé permet de constater que la durée des sessions augmente avec le niveau d’utilisation. En d’autres termes, plus l’utilisateur consacre de temps à l’application, plus la durée des sessions augmente.

6.2. Séquences d’activités

Figure 9 • Séquences d'actions par niveau d'utilisation

Les analyses des séquences permettent d’afficher le déroulement d’activités en fonction du temps. Les trois graphiques de la figure 9 illustrent les séquences d’activités par session pour les trois niveaux d’utilisation 2, 3 et 4. Le niveau 1 ne comporte que des activités en mode exploration. Chaque ligne horizontale représente une session et une couleur est utilisée pour illustrer la durée de chaque type d’activité. Le temps se déroule de gauche à droite et il est divisé en au plus 300 segments de 5 secondes, soit 25 minutes chacun selon la durée des sessions. Les sessions de plus de 1 500 secondes sont tronquées dans ces graphiques.

Chaque graphique comporte un échantillon aléatoire de 50 sessions pour chaque niveau d’utilisation. Le niveau 1 n’est pas affiché car les sessions sont majoritairement très courtes. Les sessions sont triées par ordre de durée.

Les couleurs utilisées sont les même pour ces trois figures. Trois types d’activités sont définis :

- Exploration : navigation dans les exercices ou dans les notes.

- Exercices : l’utilisateur est dans le module exercice et a répondu à une question en activant bouton « Valider la réponse n.. ».

- Pause : l’utilisateur était en mode Exploration mais a été inactif pendant plus de 300 secondes (5 min). L’activité « pause » est insérée 10 secondes après l’événement pour lequel la période d’inactivité a commencé.

6.3. Analyse des premières sessions et densité des activités

Figure 10 • Première session des utilisateurs

Une analyse peut être faite selon la densité des activités. Dans un premier temps, pour cette analyse, la première session de chaque utilisateur est sélectionnée en ne retenant que celles dont la durée dépasse 180 s (3 minutes) et en excluant la durée pour les pauses, afin d’avoir une quantité significative d’activités.

Figure 11 • Densité de la première session des utilisateurs

Les 19 sessions du niveau 2 comportent une plus grande proportion d’exploration que celles des niveaux 3 et 4. À l’exception d’une d’entre elles, elles sont toutes l’unique session des utilisateurs. Environ, la moitié ont exécuté quelques exercices, mais en consacrant toujours plus de temps d’exploration que d’exercices. Le niveau 3 se compose de 27 sessions dont 11 sont les seules sessions effectuées par les étudiants de ce niveau.

La figure 11 regroupe les graphiques représentant la densité d’activité, c’est-à-dire la proportion relative de chaque activité à tout moment lors de la première session. La densité s’exprime donc sur une échelle [0,1] et chaque tranche verticale représente la proportion d’activités pour un intervalle donnée. Le graphique de densité affiche une exploration au début. Par la suite, environ la moitié des utilisateurs se consacrent aux exercices, puis d’un retour vers l’exploration pour la majorité après 25 minutes (5 *× 300 s). Les étudiants du niveau 4 se consacrent plus rapidement aux exercices en moyenne et continuent d’en effectuer dans la même proportion après 25 minutes. Il faut toutefois signaler de fortes différences individuelles : certains étudiants consacrent une majorité des 25 minutes à des exercices, tandis que d’autres n’en effectuent aucun aux niveaux 3 et 4.

La figure 12 et la figure 13 regroupent les mêmes graphiques pour la deuxième session des utilisateurs. On y constate qu’un seul étudiant a effectué une brève session au niveau 2, tandis que les niveaux 3 et 4 affichent des comportements relativement similaires en termes de densité d’activités, mais toujours caractérisés par de fortes différences individuelles. Certains consacrent presque la totalité des 25 minutes à l’exploration et d’autres aux exercices. On remarque aussi que certains alternent fréquemment entre les exercices et l’exploration aux niveaux 3 et 4.

Figure 12 • Deuxième session des utilisateurs

Figure 13 • Densité de la deuxième session des utilisateurs

La figure 14 et la figure 15 regroupent les mêmes graphiques pour la troisième session des utilisateurs. À la troisième session, seuls les niveaux 3 et 4 comportent des données. Les 27 étudiants du niveau 3 ne sont plus que 8 et ce sont les dernières sessions pour 6 d’entre eux. On constate donc un phénomène semblable à celui observé pour ceux qui arrêtent d’utiliser l’application à la première session : plusieurs terminent par de l’exploration.

Figure 14 • Troisième session des utilisateurs

Figure 15 • Densité de la troiisème session des utilisateurs

 

De manière générale, on constate que tous les niveaux commencent par une activité d’exploration durant quelques minutes.

L’analyse des séquences démontre la pertinence de cette méthode pour visualiser rapidement et en détail les sessions des utilisateurs d’un exerciseur. Elle permet d’identifier visuellement des constances. On pourrait les mettre à profit pour définir des règles d’intervention ou simplement pour obtenir un portrait global de l’utilisation d’un exerciseur ou de toute autre application où l’on peut identifier des catégories d’activités.

7. Comparaison avec le temps d’exécution de l’expert

Une des façons d’identifier des désengagements de l’utilisateur consiste à comparer le temps d’exécution des exercices avec des temps de référence (Cocea, 2011). L’écart entre les deux temps peut indiquer un désengagement (Baker, 2007) ; (Walonoski et Heffernan, 2006).

Ainsi, une comparaison du temps d’exécution des exercices des utilisateurs a été faite avec celui d’un expert. Un expert a effectué l’ensemble des exercices et son temps a été enregistré. Les corrélations entre le temps de chaque étudiant et celui de l’expert sont affichées sur le graphique de la figure 16. Chaque point représente un exercice réalisé par un étudiant. Le temps de l’utilisateur est en abscisses et celui correspondant à l’expert en ordonnées. Ils sont présentés selon une échelle logarithmique. Un léger bruit gaussien a été ajouté afin de mieux distinguer les points qui se superposent.

Certaines durées de l’expert sont supérieures à 1 000 s (16,6 min). À l’inverse, plusieurs temps sont inférieurs à celui de l’expert. Cette variabilité dans les durées d’exécution des exercices ne permet pas de tirer des conclusions sur la difficulté relative des exercices et encore moins sur la motivation de l’utilisateur compte tenu du volume de données disponibles.

Figure 16 • Durée d’exécution des exercices des utilisateurs et de l’expert

La corrélation des temps est de 0,37 après élimination des temps 0 des utilisateurs provenant des pauses artificielles. Elle est de 0,38 en éliminant les valeurs extrêmes de plus de 1000 s et de moins de 3 s qui pourraient comporter des biais : pause ou réponse sans résolution du problème. Cette corrélation est significative (p < 0, 001) mais relativement faible pour fins de prédiction du temps d’un étudiant à partir du temps de l’expert. Même en utilisant le temps moyen par exercice et en éliminant les valeurs extrêmes, la corrélation n’atteint que 0,45 (p < 0, 0001).

Ces données sont intéressantes puisqu’elles nous fournissent l’information sur le temps nécessaire pour faire les exercices et la variabilité de ce temps pour les étudiants. Il serait possible, à partir de plusieurs observations, de tenter de prédire les durées de désengagement à partir de l’écart avec le temps moyen ou le temps de l’expert car ils sont souvent un indice du désengagement (Cocea, 2011). Cependant, il n’y a pas suffisamment d’étudiants qui ont effectué des exercices pour en tirer une mesure fiable.

8. Performance au prétest et continuité d’utilisation

La continuité d’utilisation correspond à la persistance à vouloir utiliser l’application. Dans ce cas-ci, de faibles résultats au prétest devraient inciter l’étudiant à utiliser le guide d’étude. Pour valider cette hypothèse, les résultats au pré-test de mathématique parmi les étudiants qui l’ont effectué avant d’utiliser le guide peuvent être utilisés. Ces résultats sont rapportés à la figure 17 qui présente les histogrammes des notes pour chacun des niveaux d’activités. La moyenne est indiquée sous chaque histogramme. La moyenne de ceux qui ont été invités à utiliser le guide et qui ne l’ont pas fait est de 0,62. Les moyennes des niveaux 3 et 4 (0,54 et 0,47) sont donc en dessous de ceux qui n’ont pas utilisé le guide et des niveaux 1 et 2. La différence entre les niveaux est tout juste significative (F = 4, 0, dl=1, p < 0, 049).

Figure 17 Note du prétest par niveau d’utilisation

On peut donc conclure qu’il y a un faible soutien pour l’hypothèse que la continuité d’utilisation est motivée par la perception qu’une mise à niveau mathématique est utile. Il y a une faible tendance en ce sens. Néanmoins, les résultats démontrent clairement que des étudiants de tous les niveaux se retrouvent dans chaque catégorie et confirment ici aussi une grande variabilité individuelle.

9. Conclusion

Cette étude rapporte une analyse des traces d’utilisation d’un guide d’étude comprenant un exerciseur conçu pour l’auto-apprentissage. Il a la particularité de laisser l’étudiant déterminer lui-même le résultat de résolution des problèmes choisis ainsi que de lui laisser une totale liberté d’explorer les sections théoriques et d’effectuer les exercices pratiques. Ce niveau exceptionnel d’autonomie a différentes conséquences sur l’utilisation. D’une part, il respecte la démarche d’apprentissage de l’étudiant et lui donne une très grande flexibilité d’utilisation. Cette flexibilité et cette autonomie sans contrainte a aussi des effets collatéraux et c’est possiblement ce que nous observons dans les traces. Ainsi, près de la moitié des étudiants se limitent à moins de dix minutes d’utilisation après une brève exploration. Ces étudiants prennent parfois le temps de résoudre quelques exercices, mais l’analyse des traces démontre qu’ils ne s’engagent pas à compléter les exercices des sections systématiquement.

Le quart des étudiants ont suivi une démarche d’apprentissage qui dépasse deux heures. Néanmoins, un petit nombre d’étudiants complètent systématiquement l’ensemble des exercices. Une conclusion ressort cependant des résultats de la figure 17, ce n’est pas le besoin d’une mise à niveau qui est déterminant pour l’utilisation de l’exerciseur, même s’il a une certaine influence.

Des améliorations pourraient être apportées au guide d’étude afin d’améliorer la continuité d’utilisation des étudiants. De nombreux facteurs interviennent dans de telles applications : la perception de l’efficacité et de l’utilité du système, le degré d’encadrement pour faciliter l’interaction avec les pairs et avec les enseignants ou l’utilisabilité de l’application (Chiu et al., 2005) ; (Kefi, 2010) ; (Lee, 2010) ; (Liaw, 2008) ; (Liaw et Huang, 2013).

Les graphiques des séquences d’activités permettent de percevoir d’un coup d’œil le comportement d’un ensemble d’utilisateurs. Nous avons utilisé ce type de graphiques dans le but de détecter ce qui nous permettrait de caractériser les comportements des utilisateurs. Les graphiques révèlent la grande diversité des comportements individuels à l’intérieur des niveaux d’activités. Cela limite les possibilités de développer une mesure de classification et de prédiction du niveau d’utilisation qui permettrait de détecter ceux qui persisteront à utiliser l’application de ceux qui ne le feront pas. Des modèles plus sophistiqués, comme les modèles de Markov latents utilisés pour classifier le comportement des apprenants (Beal et al., 2007; Jeong et al., 2008) sont des pistes de recherches intéressantes. Les graphiques de visualisation de séquences d’activités s’avèrent ici des outils complémentaires au développement de ces modèles statistiques.

BIBLIOGRAPHIE

ABBOTT, A. (1995). Sequence analysis: new methods for old ideas. Annual review of sociology, p. 93-113.

ABBOTT, A. et TSAY, A. (2000). Sequence Analysis and Optimal Matching Methods in Sociology Review and Prospect. Sociological Methods & Research, 29(1), p. 3-33.

AGOSTI, M., CRIVELLARI, F. et DI NUNZIO, G. (2011). Web log analysis: a review of a decade of studies about information acquisition, inspection and interpretation of user interaction. Data Mining and Knowledge Discovery, p. 1-34.

AGOSTI, M. et DI NUNZIO, G. (2007). Gathering and Mining Information from Web Log Files In C. Thanos, F. Borri & L. Candela (dir.), Digital Libraries: Research and Development. (Vol. 4877, pp. 104-113): Springer Berlin / Heidelberg.

ALEKS CORPORATION. (2013, 2013-04-24). About Us. About Us.  Tiré de http://www.aleks.com/about_us

ARMENTANO, M. et AMANDI, A. (2012). Modeling sequences of user actions for statistical goal recognition. User Modeling and User-Adapted Interaction, 22(3), p. 281-311.

AZEVEDO, R. (2009). Theoretical, conceptual, methodological, and instructional issues in research on metacognition and self-regulated learning: A discussion. Metacognition and Learning, 4(1), p. 87-95.

BAKER, R. (2007). Modeling and understanding students' off-task behavior in intelligent tutoring systems. Proceedings of the SIGCHI conference on Human factors in computing systems, San Jose, California, USA.  

BAKER, R. et YACEF, K. (2009). The State of Educational Data Mining in 2009: A Review and Future Visions. 1(1), p. 3-17.

BAUDOUIN, C., BENEY, M., CHEVAILLIER, P. et LE PALLEC, A. (2007). Recueil de traces pour le suivi de l'activité d'apprenants en travaux pratiques dans un environnement de réalité virtuelle. Sciences et Technologies de l'Information et de la Communication pour l'Éducation et la Formation (STICEF), 14, 1-16.  http://sticef.univ-lemans.fr/num/vol2007/07-baudouin/sticef_2008_baudouin_07.htm

BEAL, C., MITRA, S. et COHEN, P. R. (2007). Modeling learning patterns of students with a tutoring system using Hidden Markov Models. Proceedings of the 2007 conference on Artificial Intelligence in Education: Building Technology Rich Learning Contexts That Work,  

BEAL, C., QU, L. et LEE, H. (2006). Classifying learner engagement through integration of multiple data sources. PROCEEDINGS OF THE NATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE.(Vol. 21, pp. 151): Menlo Park, CA; Cambridge, MA; London; AAAI Press; MIT Press; 1999.

BECK, J. E. (2005). Engagement tracing: using response times to model student disengagement. In C. K. Looi, G. McCalla, B. Bredeweg & J. Breuker (dir.), Artificial Intelligence in Education: Supporting Learning through Intelligent and Socially Informed Technology. (Vol. 125, pp. 88-95). Amsterdam: I O S Press.

BROISIN, J. et VIDAL, P. (2007). Une approche conduite par les modèles pour le traçage des activités des utilisateurs dans des EIAH hétérogènes. Revue des Sciences et Technologies de l'Information et de la Communication pour l'Education et la Formation (STICEF), 14, p. 18 pages.

CARBERRY, S. (2001). Techniques for plan recognition. User Modeling and User-Adapted Interaction, 11(1-2), p. 31-48.

CHIU, C.-M., HSU, M.-H., SUN, S.-Y., LIN, T.-C. et SUN, P.-C. (2005). Usability, quality, value and e-learning continuance decisions. Computers &amp; Education, 45(4), p. 399-416.

CHOQUET, C. et IKSAL, S. (2007). Modélisation et construction de traces d'utilisation d'une activité d'apprentissage : une approche langage pour la réingénierie d'un EIAH. Revue des Sciences et Technologies de l'Information et de la Communication pour l'Education et la Formation (STICEF), 14, p. 24 pages.

COCEA, M. (2011). Disengagement Detection in Online Learning: Validation Studies and Perspectives. IEEE Transactions on Learning Technologies, 4, p. 114-124.

COCEA, M. et WEIBELZAHL, S. (2006). Can Log Files Analysis Estimate Learners' Level of Motivation? Lernen – Wissensentdeckung – Adaptivität (LWA), Hildesheim, Ge.  

COCEA, M. et WEIBELZAHL, S. (2009). Log file analysis for disengagement detection in e-Learning environments. User Modeling & User-Adapted Interaction, 19(4), p. 341-385.

CONEJO, R., GUZMÁN, E., MILLÁN, E., TRELLA, M., PÉREZ-DE-LA-CRUZ, J. L. et RÍOS, A. (2004). SIETTE: A Web-Based Tool for Adaptive Testing. International Journal of Artificial Intelligence in Education, 14(1), p. 29-61.

CRAM, D., JOUVIN, D. et MILLE, A. (2007). Visualisation interactive de traces et réflexivité : application à l'EIAH collaboratif synchrone eMédiathèque. STICEF, (Numéro spécial Analyse des traces d'interactions dans les EIAH), 14, p.

CSIKSZENTMIHALYI, M. (2008). Flow : the psychology of optimal experience (1st Harper Perennial Modern Classicse éd.). New York: Harper Perennial.

DELESTRE, N. et MALANDAIN, N. (2007). Analyse et représentation en deux dimensions de traces pour le suivi de l'apprenant. Revue des Sciences et Technologies de l'Information et de la Communication pour l'Education et la Formation (STICEF), 14, p. 21 pages.

DESHPANDE, M. et KARYPIS, G. (2004). Selective Markov models for predicting Web page accesses. ACM Transactions on Internet Technology (TOIT), 4(2), p. 163-184.

DESMARAIS, M., GIROUX, L. et LAROCHELLE, S. (1989). Plan recognition in HCI: the parsing of user actions. Selected papers of the 8th Interdisciplinary Workshop on Informatics and Psychology: Mental Models and Human-Computer Interaction 2.(pp. 291-311): North-Holland Publishing Co.

DURBIN, R., EDDY, S. R., KROGH, A. et MITCHISON, G. (1998). Biological sequence analysis: probabilistic models of proteins and nucleic acids: Cambridge university press.

EBBINGHAUS, H. (1885). Memory: A Contribution to Experimental Psychology. Classics in the History of Psychology. Consulté le  2013-02-27,  Tiré de http://psychclassics.yorku.ca/Ebbinghaus/

FALMAGNE, J.-C., COSYN, E., DOIGNON, J.-P. et THIÉRY, N. (2006). The Assessment of Knowledge, in Theory and in Practice Formal Concept Analysis. (pp. 61-79).

FENG, M., BECK, J., HEFFERNAN, N. et KOEDINGER, K. (2008). Can an Intelligent Tutoring System Predict Math Proficiency as Well as a Standardized Test. In Baker & Beck (Eds.). Proceedings of the First International Conference on Educational Data Mining,  

GABADINHO, A., RITSCHARD, G., MÜLLER, N. S. et STUDER, M. (2011). Analyzing and Visualizing State Sequences in R with TraMineR. Journal of Statistical Software, 40(4), p. 1-37.

GINON, B. et JEAN-DAUBIAS, S. (2012). Prise en compte des connaissances, capacités et préférences pour une personnalisation multi-aspects des activités sur les profils d’apprenants. Revue STICEF, 9.  Tiré de Internet.  http://sticef.org

HADWIN, A., NESBIT, J., JAMIESON-NOEL, D., CODE, J. et WINNE, P. (2007). Examining trace data to explore self-regulated learning. Metacognition and Learning, 2(2), p. 107-124.

HARDY, M. E. (2004). Use and evaluation of the ALEKS interactive tutoring system. J. Comput. Small Coll., 19(4), p. 342-347.

JANSEN, B. J. (2009). Understanding User-Web Interactions via Web Analytics. Synthesis Lectures on Information Concepts, Retrieval, and Services, 1(1), p. 1-102.

JARUŠEK, P. et PELÁNEK, R. (2012) Analysis of a simple model of problem solving times. 11th International Conference on Intelligent Tutoring Systems, ITS 2012: Vol. 7315 LNCS (pp. 379-388). Chania, Crete.

JEAN-DAUBIAS, S., GINON, B. et LEFEVRE, M. (2011). Modèles et outils pour prendre en compte l'évolutivité dans les profils d'apprenants. STICEF, 18, p. 23.

JEONG, H., GUPTA, A., ROSCOE, R., WAGSTER, J., BISWAS, G. et SCHWARTZ, D. (2008). Using Hidden Markov Models to Characterize Student Behaviors in Learning-by-Teaching Environments. In B. Woolf, E. Aïmeur, R. Nkambou & S. Lajoie (dir.), Intelligent Tutoring Systems. (Vol. 5091, pp. 614-625): Springer Berlin Heidelberg.

KEFI, H. (2010). Mesures perceptuelles de l'usage des systèmes d'information : Application de la théorie du comportement planifié. Cahiers de Recherche du CEDAG(G 2010 - 04), p. 21.

KÖCK, M. et PARAMYTHIS, A. (2011). Activity sequence modelling and dynamic clustering for personalized e-learning. User Modeling and User-Adapted Interaction, 21(1), p. 51-97.

KOEDINGER, K., ANDERSON, J., HADLEY, W. et MARK, M. (1995). Intelligent Tutoring Goes to School in the Big City. Proceedings of the 7th World Conference on {AIED}, p.

KOSALA, R. et BLOCKEEL, H. (2000). Web mining research: A survey. ACM SIGKDD Explorations Newsletter, 2(1), p. 1-15.

LEE, M.-C. (2010). Explaining and predicting users’ continuance intention toward e-learning: An extension of the expectation–confirmation model. Computers &amp; Education, 54(2), p. 506-516.

LI, C. et YOO, J. (2006). Modeling student online learning using clustering. Proceedings of the 44th annual Southeast regional conference.(pp. 186-191): ACM.

LIAW, S.-S. (2008). Investigating students’ perceived satisfaction, behavioral intention, and effectiveness of e-learning: A case study of the Blackboard system. Computers &amp; Education, 51(2), p. 864-873.

LIAW, S.-S. et HUANG, H.-M. (2013). Perceived satisfaction, perceived usefulness and interactive learning environments as predictors to self-regulation in e-learning environments. Computers &amp; Education, 60(1), p. 14-24.

LINDEN VAN DER, W. J., SCRAMS, D. J. et SCHNIPKE, D. L. (1999). Using Response-Time Constraints to Control for Differential Speededness in Computerized Adaptive Testing. Applied Psychological Measurement, 23(3), p. 195-210.

MCMILLAN, J. H. et HEARN, J. (2008). Student Self-Assessment: The Key to Stronger Student Motivation and Higher Achievement. Educational Horizons, 87(1), p. 40-49.

MERCERON, A. et YACEF, K. (2005). TADA-Ed for Educational Data Mining. Interactive Multimedia Electronic Journal of Computer-Enhanced Learning, 7(1).  http://www.imej.wfu.edu/articles/2005/1/03/index.asp

PERRY, N. E. et WINNE, P. H. (2006). Learning from Learning Kits: gStudy Traces of Students’ Self-Regulated Engagements with Computerized Content. Educational Psychology Review, 18(3), p. 211-228.

QIQI, J., CHUAN-HOO, T., CHEE WEI, P. et WEI, K. K. (2012). Using Sequence Analysis to Classify Web Usage Patterns across Websites. System Science (HICSS), 2012 45th Hawaii International Conference on.(pp. 3600-3609).

RITTER, F. E. et SCHOOLER, L. J. (2001). Learning Curve, The. In J. S. Editors-in-Chief:  Neil & B. B. Paul (dir.), International Encyclopedia of the Social & Behavioral Sciences. (pp. 8602-8605). Oxford: Pergamon.

SCHRAW, G. (2007). The use of computer-based environments for understanding and improving self-regulation. Metacognition and Learning, 2(2), p. 169-176.

SNODDY, G. S. (1926). Learning and stability: a psychophysiological analysis of a case of motor learning with clinical applications. Journal of Applied Psychology, 10(1), p. 1-36.

SRIVASTAVA, J., COOLEY, R., DESHPANDE, M. et TAN, P.-N. (2000). Web usage mining: Discovery and applications of usage patterns from web data. ACM SIGKDD Explorations Newsletter, 1(2), p. 12-23.

STAMPER, J., LOMAS, DEREK, CHING, D., RITTER, S., KOEDINGER, K. et STEINHART., J. (2012). The Rise of the Super Experiment Proceedings of the 5th International Conference on Educational Data Mining., Chania, Greece.   http://educationaldatamining.org/EDM2012/uploads/procs/EDM_2012_proceedings.pdf

TAN, K. H. K. (2012). Student self-assessment : assessment, learning and empowerment. Singapore: Research Publishing.

TARABAN, R., RYNEARSON, K. et STALCUP, K. (2001). Time as a variable in learning on the World-Wide Web. Behavior Research Methods, 33(2), p. 217-225.

THOMPSON, J. J., YANG, T. et CHAUVIN, S. W. (2009). Pace: An Alternative Measure of Student Question Response Time. Applied Measurement in Education, 22(3), p. 272-289.

TOLLE, J. E. (1983). Transaction log analysis online catalogs. SIGIR Forum, 17(4), p. 147-160.

VENABLES, W. N., SMITH, D. M. et TEAM, R. D. C. (2012). An Introduction to R: Notes on R: a Programming Environment for Data Analysis and Graphics, Version 2.15.1: Network Theory.

WALONOSKI, J. et HEFFERNAN, N. (2006). Detection and Analysis of Off-Task Gaming Behavior in Intelligent Tutoring Systems. Intelligent Tutoring Systems. In M. Ikeda, K. Ashley & T.-W. Chan (dir.). (Vol. 4053, pp. 382-391): Springer Berlin / Heidelberg.

WANG, T. et HANSON, B. A. (2005). Development and Calibration of an Item Response Model That Incorporates Response Time. Applied Psychological Measurement, 29(5), p. 323-339.

WINNE, P. H., NESBIT, J. C., KUMAR, V., HADWIN, A. F., LAJOIE, S. P., AZEVEDO, R. et PERRY, N. E. (2006). Supporting self-regulated learning with gStudy software : The learning kit project. Tech., Inst., Cognition and Learning, 3 :, . Technology, Instruction, Cognition and Learning, 3(1-2), p. 105-113.

WISE, S. L. et KONG, X. (2005). Response Time Effort: A New Measure of Examinee Motivation in Computer-Based Tests. Applied Measurement in Education, 18(2), p. 163-183.

WRIGHT, T. P. (1936). Factors Affecting the Cost of Airplanes. Journal of Aeronautical Sciences, 3, p. 122-128.

A propos des auteurs

François LEMIEUX est un informaticien spécialiste de la modélisation de l’utilisateur. Il a été assistant de recherche à la Maison des technologies de formation et d'apprentissage Roland-Giguère. Il a été concepteur d’interfaces-utilisateurs notamment chez Loto-Québec et à la Fédération des Caisses populaires Desjardins. Il est détenteur d’un doctorat et d’une maîtrise en génie informatique de l’École polytechnique de Montréal, d’un B.SC.A. en informatique de gestion de l’université du Québec à Montréal et d’un B.A. en psychologie de l’université McGill. Il a été président de la Société Saint-Jean-Baptiste de Montréal.

Adresse : 80 croissant Cassino, Laval, Qc H7E 2K4

Courriel : Francois.Lemieux@polymtl.ca
Michel DESMARAIS est professeur titulaire au département de génie informatique à Polytechnique Montréal. Il a oeuvré dans les domaines des interactions humain-ordinateur, des environnements d'apprentissage et de l'intelligence artificielle. Il a été chercheur principal du groupe interface-personne systèmes de 1990 à 1998 au CRIM (Centre de recherche informatique de Montréal), et gestionnaire dans une entreprise de développement web de 1998 à 2002.

Adresse : École polytechnique Montréal, C.P. 6079, succ. Centre-Ville, Montréal Québec, Canada, H3C 3A7

Courriel : Michel.Desmarais@polymtl.ca

Toile : http://www.professeurs.polymtl.ca/michel.desmarais/desmarais_michel_c.html

Pierre N. ROBILLARD est professeur titulaire en génie logiciel à Polytechnique Montréal. Ses recherches portent sur l'étude des interactions humaines au sein des équipes de développement logiciel. En particulier, ses travaux récents couvrent  les questions des relations qui existent entre le flux d'information généré par les interactions au sein des équipes et la qualité des artefacts résultants. Les mécanismes d'acquisition de l'information sont au cœur de ses problématiques.

Adresse : Département de génie informatique et de génie logiciel, Polytechnique Montréal,Canada

Courriel : Pierre.Robillard@polymtl.ca

 

 
Référence de l'article :
François LEMIEUX, Michel C. DESMARAIS, Pierre-N. ROBILLARD, Analyse chronologique des traces journalisées d’un guide d’étude pour apprentissage autonome, Revue STICEF, Volume 20, 2013, ISSN : 1764-7223, mis en ligne le 11/03/2014, http://sticef.org
[Retour en haut de cette page] Haut de la page
Mise à jour du 11/03/14