Retour à l'accueil Sciences et Technologies
de l´Information et
de la Communication pour
l´Éducation et la Formation
version pleine page
version à télécharger (pdf)

Volume 14, 2007
Article de recherche



Contact : infos@sticef.org

Design Patterns en EIAH : vers un langage de Patterns pour l'évaluation des apprenants1

 

Élisabeth Delozanne  CRIP5, Paris

 Françoise Le Calvez   LIP6, Paris

 Agathe Merceron  TFH, Berlin

 Jean-Marc Labat  LIP6, Paris

 

RÉSUMÉ : Dans cet article nous présentons un premier ensemble de 17 Design Patterns (DP) pour la conception d’EIAH qui évaluent des apprenants en situation de résolution de problèmes, par exemple des problèmes mathématiques, logiques ou de programmation. La démarche d’évaluation décrite par ces DPs comporte trois étapes : premièrement, recueil et analyse des informations sur un seul apprenant pour un seul exercice, deuxièmement construction d’une vue générale sur l’activité individuelle d’un apprenant sur un ensemble d’exercices et, troisièmement élaboration d’une vue générale sur l’activité de toute une classe sur un même ensemble d’exercices. Nous montrons comment cet ensemble de DPs mis au point pour capitaliser l’expérience de plusieurs projets menés par les co-auteurs rend compte également de la conception de l’évaluation des apprenants dans d’autres EIAH décrits dans la littérature. Nous soutenons que l’approche Design Pattern facilite la communication entre les disciplines intervenant dans la conception des EIAH et permet de capturer leur expérience de conception afin de faciliter la réutilisation dans des projets à venir, de cumuler les résultats de recherche et de participer à la formation des jeunes chercheurs du domaine. L’ensemble de DPs présentés ici est un premier pas en ce sens.

MOTS CLÉS : Design Patterns, Langage de Design Patterns, évaluation des apprenants, Résolution de problème, Diagnostic cognitif, Environnements Informatiques pour l’apprentissage Humain (EIAH)

ABSTRACT : This paper presents a structured set of 17 Design Patterns (DP for short). These DPs target the design of learning systems that assess learners while solving problems, for example problems in mathematics, logic or programming. Learners' assessment is a three step approach: first collect and analyse data while a learner solves a problem, second overview of a learner's activity across a set of exercises and third overview of the activity of a group of learners on a set of exercises. This set of DPs has emerged as a way of capitalizing on the work done by the co-authors while sharing their experience in this area. We show that these DPs do account for other experiences taken from the literature. In our opinion, writing sets of DPs is a way to facilitate communication in pluridisciplinary teams for the design of e-learning systems, to create a research memory, and to training and education in the field. The present set is a step in that direction.

KEYWORDS : Design Patterns, Design Pattern Language, Students’ Assessment, Problem solving, Cognitive Diagnosis, Technology Enhanced Learning

 

1. Introduction

La recherche pour la conception de systèmes informatiques destinés à favoriser des apprentissages a maintenant plus de vingt ans. Depuis quelques années, de nombreux efforts sont entrepris pour capitaliser les expériences et définir des méthodes de conception plus systématiques. Le travail présenté ici va dans ce sens. Nous faisons l’hypothèse que l’approche Design Patterns (DP) est un moyen pour recueillir et partager des expériences, pour mener une réflexion en profondeur et pour capitaliser et partager des résultats obtenus sur des projets de recherches spécifiques.

C’est l’architecte Alexander (Alexander et al., 1977) qui a initié cette approche. L'intention d'Alexander était de faciliter la participation de tout un chacun à la conception de l’espace dans lequel il vit. La définition qu’Alexander a donnée d’un DP fait encore référence aujourd’hui : « chaque pattern décrit un problème qui se pose de façon récurrente dans notre environnement puis il décrit l’essentiel de la solution de ce problème et ce de façon que l’on puisse réutiliser cette solution un million de fois sans jamais la reproduire à l’identique » (Alexander et al., 1977 p. x). Ainsi, un DP n'est pas une prescription mais un outil conceptuel pour aborder la résolution d'un problème. Un DP n’est jamais utilisé de façon isolée. Il fait partie d’un réseau de DPs qui crée ce qu’Alexander appelle un langage. « Il s’agit de présenter chaque pattern en relation avec les autres patterns, de façon à ce que l’on comprenne la collection des patterns comme un tout, un langage à partir duquel on puisse créer une infinie variété de combinaisons » (Alexander et al., 1977 p. xv). Dans l'optique de conception participative qui est celle d'Alexander, ce langage peut être utilisé par tout individu (particulier ou professionnel), qu’il construise lui-même sa propre maison ou qu’il travaille dans une équipe d’architectes concevant des bureaux ou des espaces publics.

Depuis 30 ans, l’approche DP a fait son chemin et est utilisée dans de nombreuses disciplines : en architecture (Alexander et al., 1977) mais aussi en Génie Logiciel et particulièrement en programmation objet (Gamma et al., 1995), (Buschmann et al., 1996), (Schmidt et al., 2000), (Larman, 2003), en Interaction Humain-Machine (Chung et al., 2004), (Deng et al., 2005), en conception de sites Internet (Van Duyne et al., 2002), (Van Welie, 2004) par exemple, et même des Patterns pour écrire des Patterns (Meszaros et Doble, 1998). Dans les domaines de la pédagogie et des EIAH, des collections de DPs sont maintenant disponibles ; par exemple, des collections de DPs ont été publiées dans le cadre des projets Pedagogical Patterns Project (PPP, 2000), E-Learning Expertise European Network (E-LEN, 2003), (Avgeriou et al., 2003) et Pattern Language for Architectures of Intelligent Tutoring systems, PLAIT (Devedzic, 2001), (Devedzic et Harrer, 2005).

Dans le cadre du réseau d’excellence européen Kaléidoscope, le projet DPULS Design Patterns for recording and analysing Usage of Learning Systems (Choquet, 2004), avait pour objectif d’identifier un ensemble de DPs pour l’analyse des traces d’activité d’apprenants interagissant avec des EIAH. Comme dans E-LEN, l’objectif était de fournir des outils conceptuels pour systématiser la conception d’EIAH, mais aussi de fournir un support pour partager des expériences et pour construire des références communes dans un consortium regroupant des équipes de différentes nationalités, différentes disciplines et différentes cultures. Dans la continuité des travaux des projets PPP et E-LEN, le projet DPULS s'est lui centré sur le recueil et l’analyse de données sur l’activité des apprenants.

Dans cet article, nous présentons le sous-ensemble des DPs sur lequel l’équipe AIDA2 a particulièrement travaillé dans le cadre du projet DPULS. Nous avons appelé cet ensemble : évaluation de l’Apprenant (DP EA). Il concerne l’analyse des traces des apprenants dans un EIAH pour détecter les savoirs, savoir-faire et stratégies mis en œuvre par des apprenants lors de la résolution de problèmes dans des domaines comme les mathématiques, la logique ou la programmation. Dans un premier temps, en nous appuyant sur l’expérience acquise par d’autres équipes dans la mise en évidence de DPs, en particulier en EIAH, nous précisons nos objectifs de recherche et la méthodologie que nous avons employée. Puis, après avoir présenté trois expériences de conception qui nous ont servi de références pour dégager des invariants et identifier des DPs, nous détaillons l’ensemble des DPs que nous avons mis au point. Ensuite une discussion montre la généralité de notre approche en la comparant avec des travaux similaires. Enfin nous abordons les perspectives ouvertes par ce travail.

2. L’approche Design Pattern

Les communautés de recherche qui ont adopté l’approche DP sont assez consensuelles sur la définition d’un DP comme une solution à un problème récurrent dans un contexte donné (Goodyear et al., 2004). Cependant, chaque communauté a adapté l’approche d’Alexander à ses besoins et les points de vue diffèrent sur de nombreux points, par exemple :

- Pourquoi créer des ensembles de DPs ? Les objectifs varient d’un projet à l’autre : il s’agit (i) de créer un langage commun dans une équipe pluridisciplinaire ou multiculturelle, (ii) de capturer ou disséminer une expertise, (iii) de capitaliser des expériences passées, (iv) d’améliorer la qualité du produit (par exemple en standardisant les solutions apportées à un problème ou en automatisant certains processus récurrents) ou (v) d’enseigner la conception de systèmes. Dans le travail présenté ici, nous nous sommes limités, pour l’instant, aux trois premiers objectifs.

- Qui sont les utilisateurs des DPs ? Les ensembles de DPs sont mis au point pour assister des experts, des chercheurs, des membres d’une communauté de pratique ou d’une équipe pluridisciplinaire, les utilisateurs finaux du produit de la conception ou, même, des programmeurs chargés de la mise en œuvre de la solution. Par exemple, les DPs d’Alexander, dans une approche participative de la conception, avaient pour cible principale les habitants − non-architectes − des bâtiments à concevoir ; les célèbres DPs (Gamma et al., 1995) surnommés DPs de la « bande des quatre » (Gang of Four ou GoF) sont eux, destinés à des programmeurs professionnels. Dans notre travail, les utilisateurs visés sont d'une part, les différents membres d'une équipe pluridisciplinaire de conception afin de créer un langage commun et, d'autre part, les chercheurs en EIAH afin de capturer, de disséminer une expertise et de capitaliser des expériences passées.

- Comment créer des DPs ? L’approche la plus fréquente est une approche ascendante qui consiste à identifier dans des expériences passées des solutions efficaces à des problèmes récurrents : les patterns ne sont pas inventés mais sont « découverts » (Devedzic et Harrer, 2005) dans une approche de Pattern Mining (Avgeriou et al., 2003). Certains auteurs recommandent une approche descendante (Hernandez-Leo et al., 2005) ou une approche ascendante dirigée par la théorie (E-LEN, 2003), c'est-à-dire qui consiste à étudier les expériences passées en se référant à des approches théoriques (pour ces auteurs, il s’agit d’approches socioconstructivistes). Étant donné le contexte pluriculturel et pluridisciplinaire de notre travail, nous nous situons dans la première approche : nous avons cherché des invariants dans les solutions apportées à des problèmes récurrents.

- Quel est le format d’un DP ? Dans toutes les collections publiées de DPs, tous les DPs sont présentés selon un format prédéfini, mais selon les objectifs et les utilisateurs visés, les formats varient. Ils peuvent être informels quand ils sont destinés à être utilisés par des humains, semi-formels (par exemple sous forme de diagramme UML) ou formels (sous forme de fichier XML par exemple) quand ils sont destinés à être mis en œuvre par des machines. Leur structure reflète des variations autour d’un noyau commun : le format défini par Alexander. Ainsi un pattern est composé presque toujours d’un nom, de la description du problème, de la description des solutions, de la description d’exemples de conception réussie où ce pattern a été détecté ou a été utilisé et, enfin, d’une liste de patterns apparentés. Ensuite, selon les domaines d’autres composants sont ajoutés : par exemple, une description du contexte, des dessins ou des photos, une catégorie. Certains auteurs (E-LEN, 2003) (Landay et Van Duyne, 2004) soulignent qu’un des écueils est de passer trop de temps à discuter de la structure au détriment du contenu des DPs, alors que d’autres auteurs s’attachent à donner une définition formelle de la structure des DPs (Borchers, 2001). Les partenaires du projet DPULS ont mis au point une version formelle du format des DPs sous forme de schéma de fichier XML afin de permettre des traitements automatiques sur la collection de DPs par un navigateur de DPs (DPULS - 7, 2005). Dans ce papier, afin d’en faciliter la lecture, nous présentons une version simplifiée de la structure en nous limitant aux composants utiles pour la compréhension humaine.

- Quel nom adopter pour un DP ? Le nom doit permettre d’identifier rapidement le contenu du DP et devenir une expression du langage de conception (Alexander et al., 1977), (Meszaros et Doble, 1998). Plusieurs façons de nommer les DPs sont en concurrence : adopter une métaphore liée au domaine (par exemple dans PPP, le pattern Early Bird indique que, dans la mise en place d’un cours semestriel, il est conseillé d’évoquer les notions importantes le plus tôt possible), référer au problème ou référer à la solution. L'utilisation de métaphores nous est vite apparue inadaptée dans notre contexte multiculturel. Nous avons donc choisi d'utiliser le nom des problèmes ou des solutions. Comme dans (Van Duyne et al., 2002), nous leur avons associé une abréviation qui rend compte de leur catégorie (cf. section 6).

- Comment évaluer un DP ? Plusieurs façons de valider un DP sont présentées dans la littérature. Certains auteurs suggèrent qu'un patron peut être accepté par la communauté s'il vérifie « la règle de trois », c’est-à-dire s’il a été mis en évidence ou utilisé avec succès dans trois expériences autres que celle de son auteur. Cette règle est soutenue, en autres, par (Buschmann et al., 1996), (Landay et Van Duyne, 2004), (Chung et al., 2004), (Devedzic et Harrer, 2005). Certains auteurs distinguent la découverte d’un pattern (à partir de deux occurrences de la solution) de son utilité (évaluée par le nombre d’usages connus de ce pattern). Une fois un pattern « découvert », il fait l’objet de critiques par des pairs ou par des professionnels avant d’être publié (Landay et Van Duyne, 2004). Remarquons que l’expression « usage d'un DP » recouvre deux sens différents : d'une part, les « découvreurs » d'un DP reconnaissent le schéma de solution dans des expériences de conception et, d'autre part, une fois le DP publié, des concepteurs revendiquent son utilisation (par exemple, en modélisation objet, les concepteurs utilisent le DP « fabrique » de GoF). (Devedzic et Harrer, 2005) parlent de « l'évidence » d'un DP ou de sa « récurrence ». L'approche DP en EIAH en étant à ses balbutiements, il ne peut s'agir, dans ce texte, que de la première acception. Les DPs que nous proposons satisfont au moins à la règle de trois. Ils ont été validés en interne par une revue critique par au moins trois équipes différentes au sein du projet et ont été mis en évidence au moins une fois dans des travaux de chercheurs extérieurs au projet (cf. section 7).

- Comment créer un langage de patterns ? Alexander estimait que des patterns isolés n’étaient pas d’une grande utilité, mais qu’en connectant ensemble des patterns apparentés et en montrant comment les composer, on pourrait créer un véritable langage de conception. Ainsi, certains auteurs parlent de langage de Design Patterns pour désigner des collections structurées de DPs − par exemple, (Van Duyne et al., 2002), alors que d’autres parlent plus modestement d’ensembles ou de collections de patterns (par exemple GoF). Après avoir identifié des patterns dans un domaine, il faut les organiser soit en une hiérarchie, soit en un réseau. Les critères d’organisation sont très variés. Tous les auteurs mentionnent qu’il existe plusieurs façons d’organiser un ensemble de DPs, l’essentiel étant de faciliter leur repérage pour organiser une conception cohérente. (Gamma et al. 1995) classent leurs DPs selon deux critères : le rôle (créateur, structurel, comportement) et le domaine (classe ou instances). Toujours en génie logiciel, il est d’usage de distinguer des patterns d’analyse et des patterns de conception (Fowler, 1997), (Devedzic et Harrer, 2005). (Borchers, 2001) et (Van Duyne et al., 2002) font intervenir plusieurs dimensions dans leur classification : le niveau d’abstraction (tâche ou style), la fonction (perception, manipulation et navigation) et le rendu effectif (dimension spatiale ou temporelle). Cependant (Devedzic et Harrer, 2005) notent que si les noms des patterns et leur organisation sont importants pour aborder un langage de patterns et s’y orienter, dans la pratique, ce sont les contenus qui sont importants pour l’analyse, pour l’utilisation des patterns et pour l’étude d’alternatives ou de variantes. En ce qui nous concerne, l’approche DP en EIAH étant récente, nous préférons garder le terme de collection, plutôt que de parler de langage de DPs qui sous-entend un consensus qui n’existe pas encore. Quant à la structuration de la collection, elle a donné lieu à beaucoup de discussions au sein des membres du projet sans doute pour arriver à s’expliquer et à négocier un langage commun entre les différentes équipes et cultures. La structure que nous présentons résulte de l’obtention d’un consensus (cf. section 4). Elle a permis aux différentes équipes de reconnaître leurs expériences et de les situer par rapport aux autres. Dans le navigateur de patterns mis au point dans la suite du projet, c’est l’utilisateur qui crée sa propre structure en suivant les liens entre patterns apparentés. C’est un avantage de l’approche DP de permettre cette flexibilité dans la structuration.

3. Exemples de collections de DPs en EIAH

Dans les domaines de l’éducation et des EIAH, trois projets ont popularisé l’approche DP en publiant des collections de DPs : les projets PPP, E-LEN et PLAIT.

Le Pedagogical Patterns Project (PPP, 2000) a mis en ligne trois ensembles de DPs de scénarios pédagogiques. Ce sont des patterns assez généraux qui élicitent l’expérience d’enseignants. Ils sont exprimés selon le format proposé par Alexander et sont décrits en langage naturel sous forme narrative en s’adressant directement aux enseignants ou aux formateurs : les tournures impersonnelles sont remplacées par des formes actives : « vous voulez...», « votre problème...», « vous allez...». Le premier ensemble de 14 DPs est présenté comme une première étape vers un langage de DP pour développer des cours d’informatique ; il est organisé suivant les thèmes suivants : Enseigner selon différentes perspectives, Apprentissage Actif, Rétroaction, Apprentissage par l’expérience, Tirer profit de différentes perspectives. Un second ensemble de 48 patterns concerne la mise en place de séminaires et enfin un ensemble de cinq patterns la mise en place d’un cours.

Le projet E-LEN (Avgeriou et al., 2003), (Avgeriou et al., 2004), (Goodyear et al., 2004), (E-LEN, 2003) a développé une banque de 40 DPs regroupés en quatre centres d’intérêt (SIG, Special Interest Groups) : Ressources d’apprentissage pour les plateformes du e-learning, Apprentissage tout au long de la vie, Apprentissage collaboratif et Apprentissage adaptatif. L’objectif de ce projet est de construire une base de connaissances pour les concepteurs pédagogiques. Cette équipe de chercheurs recommande l’approche DP pour recueillir et disséminer l’expertise de conception, pour partager l’expérience et favoriser le travail dans des équipes pluridisciplinaires. Ils ont mis au point un guide pour l’écriture de DPs pour le e-learning (E-LEN, 2003). Les utilisateurs cibles de leurs DPs sont les concepteurs de plateformes de e-learning. Leurs DPs sont aussi très généraux. Par exemple, le DP « Pister l’étudiant » suggère des fonctionnalités devant être implémentées dans un système, mais ne précise pas comment les implémenter. Le concepteur est responsable de la génération d’une solution adaptée à son contexte. Éventuellement, il définira un pattern plus spécialisé s’il détecte des invariants dans sa solution. « Un pattern suggère une solution plutôt qu’il ne la prescrit » (E-LEN, 2003).

Le projet PLAIT (Devedzic, 2001), (Devedzic et Harrer, 2005) propose des patterns concernant les architectures logicielles des ITS. Contrairement aux deux projets précédents qui s’adressent à des enseignants ou des pédagogues, les DPs de PLAIT s’adressent aux informaticiens qui mettent en œuvre des ITS. Les auteurs ont « découvert » ces patterns à partir d’une étude sur 96 articles dans les conférences et journaux de la communauté AIED-ITS et à partir de leur connaissance des DPs du génie logiciel. Leur objectif principal est de contribuer à une meilleure compréhension des architectures des différents ITS et de promouvoir une approche de conception plus systématique. Pour chaque type d’ITS étudié, ils présentent les modules de base et les variantes. Ils étudient, par exemple, l’architecture classique des ITS, l’architecture fondée sur différentes vues sur les modèles de connaissances, l'architecture de systèmes d’apprentissage collaboratif, et l'architecture de systèmes utilisant des agents pédagogiques ou des compagnons virtuels.

4. Objectifs de recherche et méthodologie

Dans le cadre du projet DPULS, l’équipe AIDA s’est focalisée sur l’analyse des traces pour l’évaluation des apprenants. L’objectif à long terme est, comme dans les projets précédents, de capitaliser l’expérience des membres de l’équipe, de fertiliser les recherches par le partage d’expériences et, plus généralement, de supporter d’autres concepteurs d’EIAH qui ont à évaluer des apprenants. Nous ne nous situons pas au niveau de la conception objet du logiciel, mais au niveau de la démarche générale pour aborder la conception d’un système d’évaluation. Plus précisément nous avons cherché à :

- Trouver des invariants dans les solutions expérimentées par les membres du projet pour résoudre des problèmes récurrents pour l’évaluation de l’apprenant ;

- Étudier dans quelle mesure ces invariants se rencontrent dans d’autres expériences pour résoudre des problèmes similaires ;

- Présenter un ensemble cohérent de DPs exprimant ces invariants.

A titre d’exemple, voici un scénario qui illustre le genre de problème qu’un concepteur peut avoir à résoudre pour concevoir un système qui rende compte de l’activité d’un apprenant dans un EIAH.

Scénario 1 : Sarah est une enseignante qui organise une séance de TP pour un groupe d’apprenants. A la fin de la séance, elle voudrait une vue générale de l’activité des apprenants pour adapter le cours suivant à leur évolution. Plus précisément, elle veut un rapport lui indiquant si certaines compétences sont acquises et avoir un aperçu des différentes stratégies de résolution utilisées par les apprenants.

L’approche que nous proposons dépasse les limites des approches de l’évaluation proposées par de nombreuses plateformes d’enseignement en ligne où l’évaluation consiste à affecter une note ou un taux de réussite après avoir évalué l’apprenant à travers un quizz, un questionnaire à choix multiples, des réponses numériques ou de simples clics, − cf. par exemple le DP Management of on-line questionnaire (Avgeriou et al., 2003). Nous avons pour objectif d’évaluer aussi les productions des apprenants quand ils effectuent des tâches spécialement conçues pour donner du sens à la connaissance enseignée et où ils ont à réaliser des opérations cognitives complexes. De nombreux travaux en EIAH, par exemple nos propres travaux au sein de AIDA mais aussi (VanLehn et al., 2005), (Nicaud et al., 2005), montrent l’intérêt de ne pas se contenter d’analyser une simple réponse mais également le raisonnement qui a conduit à cette réponse. Ce type d’évaluation nécessite plus qu’une évaluation en termes de réponse « correcte/incorrecte ». Il nécessite une analyse multidimensionnelle fondée sur des études pédagogiques, didactiques ou psychologiques précises de l’activité de l’apprenant. Dans notre scénario, ceci peut être illustré de la façon suivante :

Scénario 1 bis : Sarah est enseignante expérimentée. A partir de sa propre expérience et d’études didactiques, elle est capable d’identifier les différentes interprétations personnelles que les apprenants se construisent généralement sur les problèmes qu’elle leur pose. Elle s’est forgée une typologie des réponses et veut grouper les apprenants selon le type de leurs réponses.

Les DPs sont généralement conçus et mis au point via un processus de collaboration assez long comprenant plusieurs étapes, en particulier avec des révisions critiques. L’ensemble de DPs produits dans le projet DPULS capture l’expérience d’équipes pluridisciplinaires et multiculturelles. Nous avons adopté une méthodologie en cinq étapes, chaque étape nécessitant des interactions entre les différents partenaires européens du projet. Chaque équipe participante a d’abord exposé ses expériences (DPULS - 2, 2005) et, parallèlement nous avons établi un état de l’art sur notre sujet (DPULS - 3, 2005). Puis, à partir des relations d’expériences, nous avons mis en évidence un ensemble de problèmes récurrents et chaque équipe a établi une liste de ses savoir-faire pour résoudre ces problèmes. Cette première liste était donc encore très spécifique aux expériences locales des équipes (DPULS - 4, 2005). Ensuite une étape, difficile, a consisté à travailler sur la description de l’énoncé des problèmes et des solutions en des termes à la fois assez généraux pour couvrir chaque expérience et assez concrets pour ne pas vider la solution de toute substance. Dans cette troisième étape, nous avons, en parallèle, négocié un format pour exprimer l’ensemble des DPs (DPULS - 5, 2005) et pour la conception d’un navigateur destiné à la consultation des DPs (DPULS - 7, 2005). Dans une quatrième étape, nous avons travaillé pour obtenir un consensus sur la structuration des patterns dégagés dans l’étape précédente et pour les intégrer en un ensemble cohérent. Cette étape de structuration a provoqué la réécriture de certains patterns, leur éclatement en plusieurs patterns plus spécifiques ou au contraire leur regroupement en un seul. De plus, certains aménagements ont été apportés au format de description des patterns. Des itérations ont donc été nécessaires entre les étapes trois et quatre. Dans la cinquième étape, une fois que nous sommes arrivés à un ensemble structuré assez stable pour rendre compte de différentes expériences traitant des problèmes similaires, les DPs ont été saisis dans le navigateur (DPULS - 6, 2005).

5. Expériences de référence

Ce qui caractérise un ensemble de DPs, ce n’est pas l’originalité des démarches qu’il propose : « Les patterns n’énoncent pas des idées nouvelles, ils codifient des principes de base très utilisés. Un expert les trouvera très basiques et très familiers. C’est leur objectif » (Larman, 2002, p. 239). En revanche, le mérite d’un ensemble de DPs est de rassembler et de structurer un ensemble de bonnes pratiques. Dans le travail présenté ici, nous avons d’abord généralisé à partir de l’expérience des membres de l’équipe AIDA dans la conception de l’évaluation des apprenants dans six EIAH : Combien? (Combien?, 2000), Diane (Hakem et al., 2005), Java-En-Ligne (Duval et al., 2005), le Logic-ITA (Merceron et Yacef, 2004), Pépite (Pépite, 2000), Math Logs (Vandebrouck et Cazes, 2005). Dans la section suivante, nous présentons Combien?, Pépite et le Logic-ITA pour que les lecteurs puissent mettre des exemples assez différents sur le contenu des DPs.

5.1. Expérience 1: Le projet Combien? (Combien?, 2000)

Combien? entraîne les étudiants à résoudre des exercices de dénombrement et à justifier leur solution. En dénombrement (compter le nombre de façons d’arranger des objets d’une façon donnée) l’essentiel du processus de résolution ne vient pas d’une façon astucieuse de mener des calculs ou d’enchaîner des inférences, mais réside dans la construction d’une représentation adaptée de la situation et en sa transformation en représentations équivalentes. Ce projet se fonde donc sur l’importance des représentations de situations dans la résolution d’un problème. Combien? s’appuie sur la « méthode constructive » (Le Calvez et al., 2003), une méthode de résolution mise au point par des enseignants et qui tient compte des conceptions usuelles des étudiants pour leur donner accès à la théorie mathématique de ce domaine.


 
Figure 1: Une étape de résolution dans Combien?

Combien? demande aux étudiants de construire un élément générique (appelé configuration) de l’ensemble solution. Ils doivent décrire leur construction sous la forme d’un ensemble (appelé univers des solutions) et d’un ensemble de contraintes sur cet ensemble. Pour trouver la solution numérique, ils doivent raisonner sur leur construction. Les exercices sont classés par référence au type de leurs solutions ; Combien? propose une interface différente pour la résolution de chaque classe d’exercices.

A chaque étape de la construction, le système détermine automatiquement si la solution engagée par l’étudiant mène à une construction correcte ou non et, dans ce dernier cas, il fournit des indices pour aider l’étudiant à identifier ses erreurs. Tous les ans, une centaine d’étudiants de seconde année d’université utilisent le système en TP. Ils peuvent aussi utiliser Combien? pour s’entraîner par eux-mêmes en libre service ou chez eux. Toutes les actions des étudiants (tout ce qu’ils saisissent qu’ils aient validé ou non) ainsi que l’heure de l’action sont enregistrées afin de pouvoir rejouer la session de l’étudiant. Combien? détecte les erreurs, les classifie et mémorise leur type et leur caractérisation. Toutes ces informations sont enregistrées dans des fichiers XML qui sont analysés a posteriori. Deux types d’analyse sont menés. Premièrement, chaque étudiant obtient un compte-rendu détaillé de sa session : pour chaque exercice, le temps passé, le nombre d’erreurs et leur type, le nombre d’hésitations, si l’exercice a été terminé ou abandonné et le nombre de consultations du support de cours. Ce premier type d’analyse concerne aussi bien l’apprenant que l’enseignant. Deuxièmement, les enseignants disposent des exercices classés selon leur niveau de difficulté et de groupes d’étudiants classés selon leur taux de réussite et les types d’erreurs qu’ils ont commises.

5.2. Expérience 2 : Le projet Pépite (Pepite, 2000)

Le logiciel Pépite recueille et analyse les réponses des élèves à une série d’exercices spécialement conçus pour permettre un diagnostic cognitif en algèbre élémentaire (Jean, 2000), (Delozanne et al., 2005). Ce travail s’appuie sur une analyse didactique (Grugeon, 1995) qui ne s’intéresse pas seulement aux erreurs des élèves mais détecte des cohérences dans les conceptions des élèves afin soit de les renforcer pour consolider un apprentissage en cours, soit de les déstabiliser quand ces conceptions sont inadaptées et font obstacle à l’apprentissage. Les réponses des élèves sont exprimées de diverses manières : par des expressions algébriques, par un raisonnement algébrique, par des explications librement formulées en français, par des choix multiples, des clics ou des glisser-déplacer. L’évaluation d’un élève se fait en trois étapes. Tout d’abord chaque réponse est codée en fonction d’un ensemble de 36 critères regroupés sur 6 dimensions (cf. Figure 2). Ainsi, Pépite commence par créer, pour chaque élève, un fichier XML contenant les réponses et le code attribué par le système à chaque réponse. Une interface graphique permet à l’enseignant de vérifier ou corriger ce codage automatique (Cf. Figure 2). Puis, pour obtenir un aperçu de plus haut niveau sur l’activité de l’élève, le profil cognitif est construit en cumulant, sur l’ensemble des exercices les codes identiques ou en associant ou opposant certains codes. La méthode de cumul et d’association des critères est fondée sur une expertise didactique. Ce profil est exprimé par des taux de réussite, par les points forts et points faibles sur trois dimensions (usage de l’algèbre, calcul algébrique et traduction d’une représentation en une autre). Enfin, en utilisant ce profil, Pépite situe l’élève sur une échelle de compétence sur chacune de ces dimensions en la classant dans une classe de profils (appelée stéréotype).


Figure 2: Le diagnostic automatique de Pépite sur 6 dimensions, modifiable par un évaluateur humain.

Un enseignant dispose ainsi de trois types de résultats calculés par Pépite :

- un regroupement des élèves selon leurs points forts et leurs points faibles sur plusieurs dimensions qui permet à l’enseignant d’avoir une vue générale sur les compétences de la classe en situant chaque élève par rapport à une grille de compétence ;

- un rapport détaillé sur le profil cognitif de chaque élève (qui permet aussi au système de calculer les groupes) ;

- une liste d’activités d’apprentissage adaptées à chaque groupe.

Cinq cents élèves ont passé le test avec Pépite. Les utilisateurs de Pépite sont principalement des enseignants pour d’une part, organiser les activités d’apprentissage en classe et d’autre part, pour établir des bilans individualisés afin de favoriser une métaréflexion sur la compétence algébrique. Des chercheurs ont utilisé les corpus recueillis avec Pépite pour des recherches en linguistique, en didactique ou en informatique. Quant aux concepteurs, ils ont utilisé ces expériences pour améliorer la conception du logiciel et fiabiliser le diagnostic.

5.3. Experience 3 : Le Logic-ITA.

Le Logic-ITA (Merceron et Yacef, 2004) est un système d’enseignement en ligne qui permet à des étudiants de s’entraîner à la démonstration formelle en logique des propositions. Il s’appuie sur la théorie de la charge cognitive selon laquelle la pratique d’exercices permet aux étudiants de se construire des schémas de résolution de problèmes (Sweller et al., 1998).


Figure 3: Copie d’un écran du Logic-ITA quand un étudiant approche de la conclusion.

Le Logic-ITA a été utilisé par environ huit cents étudiants de seconde année à l’université de Sydney où il était à la disposition des étudiants en complément d’un cours et de TD traditionnels. Le système se compose d’une base d’exercices, d’un générateur d’exercices et les étudiants peuvent également entrer leurs propres formules à prouver. Une preuve formelle consiste à dériver une formule appelée conclusion à partir d’un ensemble de formules appelées prémisses. Un exercice consiste ainsi à appliquer, pas à pas, des règles logiques pour produire des formules nouvelles jusqu’à l’obtention de la conclusion. Le système dispose d’un module expert qui évalue automatiquement chaque étape de solution proposée par l’étudiant. En particulier, il vérifie si la règle choisie est applicable sur la (ou les) formule(s) sélectionnée(s) par l’étudiant et il fournit une rétroaction avec éventuellement une indication en cas d’erreur. Les étudiants s’exercent quand ils le souhaitent, à leur rythme et ils choisissent l’ordre et le nombre d’exercices qu’ils traitent ; les sessions ne sont pas notées et n’interviennent pas dans l’évaluation.

Une base de données conserve pour chaque exercice et pour chaque étudiant la date, le temps passé, les règles correctement appliquées, les erreurs, le nombre de pas pour arriver à la conclusion et si l’étudiant a ou non terminé l’exercice. La base de données a été interrogée par des experts humains en utilisant soit des requêtes classiques de bases de données soit des techniques de fouille de données pour obtenir des informations à valeur pédagogique ayant pour but d'améliorer l’enseignement. Par exemple, une simple requête permet de connaître les règles de logique avec lesquelles les étudiants commettent le plus d'erreurs. La technique de fouille de données appelée règles d'association permet de trouver des corrélations entre les erreurs commises. Ces résultats ont conduit à changer la présentation des différentes règles de logique en cours.

6. Un ensemble structuré de Design Patterns

Dans cette section nous présentons l’ensemble de DPs que nous avons mis au point à partir de notre expérience. Le format défini dans le projet DPULS avait pour objectif de permettre la mise au point d’un outil pour faciliter la navigation et la recherche dans l’ensemble de DPs. Nous avons adopté ici un format simplifié pour faciliter la lecture. Notre ensemble de DPs est structuré en cinq hiérarchies dont la racine décrit un problème d’évaluation et les descendants décrivent des approches alternatives ou complémentaires pour résoudre ce problème. Chaque DP a un nom qui décrit à la fois le problème et la solution (Alexander et al., 1977), (Meszaros et Doble, 1998).

En combinant les noms, on obtient un langage, i.e. un concepteur peut utiliser les noms des DPs pour décrire une solution du problème d’évaluation dans son contexte (Van Duyne et al., 2002, chapitre 2). Nous ne prétendons pas que l’ensemble de DPs présenté, en l’état actuel, constitue un langage, mais le scénario suivant − qui reprend le problème de Sarah présenté dans les scénarios 1 et 1 bis − illustre comment il pourrait servir de langage de conception, i.e. comment les DPs peuvent être combinés entre eux pour donner une démarche de conception.

Scénario 2 : Aminata est un ingénieur travaillant sur l’adaptation de l’environnement numérique de travail au contexte de l’établissement où enseigne Sarah. Pour fournir à Sarah une vue générale de l’activité de son groupe de TP, Aminata considère d’abord le DP « Bilan d'un groupe d'apprenants sur un ensemble d'exercices » (DP EA4, racine de la quatrième hiérarchie). En lisant la description de la solution, elle est amenée à considérer plusieurs types de bilans (DP descendants) en fonction des objectifs des utilisateurs du bilan. Elle pense qu’elle va pouvoir utiliser des méthodes de « classification automatique» (DP EA 4. 1). Elle étudie les prérequis de ce DP : il utilise les résultats du DP « Bilan individuel sur un ensemble d'exercices» (DP EA2, racine de la deuxième hiérarchie). De même, plusieurs solutions sont envisageables pour présenter un bilan (DP descendants) : le DP « point forts et points faibles d’un apprenant » lui semble adapté à la situation de Sarah. En fait ce DP nécessite d’abord une « Analyse multidimensionnelle de la solution d'un apprenant à un seul exercice » (DP EA1, racine de la première hiérarchie). Comme précédemment ce DP propose plusieurs approches pour obtenir des informations pertinentes à partir des traces recueillies sur l’activité de l’apprenant : « Analyse par comparaison avec des schémas de solutions » (DP EA 1.2), « Analyse par utilisation de logiciel spécifique » (DP EA 1.2), « Analyse semi-automatique supervisée par un humain » (DP EA1.3).

La Figure 4 montre les noms d’un premier ensemble de DPs concernant l’évaluation de l’apprenant3. Dans la section suivante, nous détaillons seulement certains patterns, ceux que nous avons cités dans le scénario 2. Chaque DP est illustré à l’aide des expériences Combien?, Pépite, le Logic-ITA.


 
Figure 4: Les DPs sur l’évaluation de l’apprenant(en gras ceux qui sont présentés ci-dessous)

6.1. DP EA1 Analyse multidimensionnelle de la solution d'un apprenant à un seul exercice

Résumé Ce patron décrit plusieurs approches pour évaluer automatiquement la solution d'un apprenant à un problème résolu en ligne. Vous pouvez simplement valider la solution ou enrichir l'évaluation sur d'autres dimensions, par exemple : catégoriser les erreurs, évaluer la stratégie de résolution utilisée, les savoir-faire ou compétences mis en œuvre, leur degré de maîtrise etc.

Contexte L'apprenant a répondu à une seule question ou a résolu un seul exercice. Sa réponse peut être simple (e.g. choix multiple, réponse numérique) ou complexe (e.g. programme, raisonnement algébrique, langage naturel). Le système a enregistré la réponse ainsi que des données d'usage (temps passé, actions, hésitations, demandes d'aide, etc.). Vous voulez mettre au point une analyse locale de la réponse en temps réel (cas d'un système qui donne un retour immédiat à l'apprenant) ou différé (cas d'un système de diagnostic).

Problème Comment évaluer automatiquement la solution d'un apprenant à un exercice (ou à une question d'un exercice) ou bien, si ce n'est pas possible, comment assister un évaluateur humain ? Comment votre système peut-il analyser, corriger, commenter ou classifier la réponse de l'apprenant ? Si votre système demande aux apprenants de résoudre des problèmes complexes, il permet aussi probablement aux apprenants de construire leur propre solution ; dans ce cas, il est souvent impossible d'anticiper la forme exacte d'une réponse en raison de l'explosion combinatoire des possibilités et de la diversité cognitive des apprenants.

Solution Si votre objectif est d'évaluer la validité de la solution, alors vous pouvez générer un indicateur comme une note ou un code (par exemple correct, partiellement correct, incorrect ou 0, 5, 10). Si votre objectif est de fournir une rétroaction ou un diagnostic cognitif, vous avez besoin d'une caractérisation plus approfondie de la réponse de l’apprenant. Par exemple vous pouvez avoir besoin d'information sur la stratégie suivie par l'apprenant, sur les savoir-faire mis en évidence par sa réponse, sur les types d'erreurs qu’il a commises ou sur ses hésitations. Une caractérisation multidimensionnelle de la réponse dépend en général du domaine. Votre système va construire un indicateur composite qui rend compte de cette analyse multidimensionnelle de la réponse. C’est souvent une suite de codes identifiant les caractéristiques cognitives de l'apprenant ou une liste des erreurs qu’il a commises.

Résultats Si vous implémentez ce patron, vous caractériserez la réponse de l'apprenant avec certains des items suivants :

- Une note. Une note peut-être une lettre comme A, B, C ou D ou un code ou un message comme correct, partiellement correct, incorrect.

- Des caractéristiques cognitives.

- Un code ou un ensemble de codes pour identifier le processus de résolution.

- Une liste d'erreurs.

Discussion Vous devrez vous adjoindre un ou plusieurs experts (enseignant expérimenté, psychologue, didacticien) pour définir différents modèles (comme un modèle de compétences, un modèle des tâches ou une typologie des erreurs) qui fonderont l’analyse mise en œuvre par votre système.

Exemples

- Pépite calcule automatiquement un code pour évaluer une réponse selon plusieurs dimensions : la validité, la signification des lettres en algèbre (inconnue, variable, nombre généralisé, abréviation, unités), le calcul algébrique (usage des parenthèses, règles de calcul etc.), la traduction entre plusieurs représentations (graphique, géométrique, algébrique, langage naturel), le type de justification (par l'exemple, algébrique, par explication, par règles incorrectes) et le calcul numérique (cf. Figure 2). Par exemple, une réponse qualifiée de « partiellement correcte, usage incorrect des parenthèses et justification algébrique » est codée « T2 M31 R1 » . De façon similaire, « T3 M4 R3 » signifie « incorrect, identification incorrecte de + et x, justification par exemple numérique ».

- Combien? fournit un retour immédiat à l'apprenant en fonction de la validité de la réponse ou du type d'erreur. Pour chacune des quinze classes de problèmes, Combien? prend en compte en moyenne vingt types d'erreurs. Combien? enregistre aussi des données d'usage : action, heure, type d'action (entrée de l'étudiant, demande d'aide, demande de tirage au hasard etc.), et paramètres d'action.

- Le Logic-ITA fournit un retour immédiat à l'étudiant sur la validité de sa réponse et sur le type d'erreur. Il enregistre le temps passé à résoudre le problème, la liste des erreurs commises ainsi que la liste des règles correctement utilisées et calcule les statistiques correspondantes (nombre d'utilisations correctes pour chaque règle, nombre d'occurrences des erreurs etc.).

Patrons voisins : DP EA1.1, DP EA1.2, DP EA1.3.

6.2. DP EA1.1 Analyse par comparaison avec des schémas de solutions

Résumé Dans certains cas, l'approche par comparaison avec des schémas de solutions peut vous aider à évaluer automatiquement la solution de l'apprenant.

Contexte Même contexte que DP EA1. Cette analyse est pertinente quand vous disposez d’une grille d'analyse de l'exercice qui donne des modèles de réponse. C'est en particulier le cas pour les questions à choix multiples ou pour les expressions arithmétiques ou algébriques.

Problème Comment utiliser une approche par comparaison avec des schémas de solutions pour vous aider à évaluer automatiquement la solution de l'apprenant ?

Prérequis Vous avez besoin de créer un indicateur à partir d'une analyse pédagogique, didactique ou cognitive. Vous disposez par exemple :

- D’une grille de réponses correctes. Si la solution correcte s’exprime de façon unique, une grille d'analyse fournit les réponses correctes et incorrectes. Cette grille de réponses doit être fournie au système.

- Des schémas de réponses correctes ou de réponses courantes. Quand il existe plusieurs façons d'exprimer la solution, un schéma peut donner un modèle général de solutions.

Solution Pour une classe de problèmes, une analyse didactique, cognitive ou pédagogique vous précise les critères pour caractériser un schéma de solution. Ainsi si vous instanciez un schéma de solution avec la réponse de l'apprenant, vous la caractérisez en utilisant les critères correspondants.

Résultats Voir DP EA1.

Discussion Pour des questions ouvertes, définir un schéma de solution est un travail délicat. Cependant, c'est possible dans certains cas : par exemple en programmation on définit des schémas pour les itérations, en algèbre on définit des règles de réécriture pour caractériser des transformations correctes ou incorrectes.

Exemples Voici un exemple simple tiré du système Pépite. Dans un exercice l’élève doit traduire algébriquement la phrase « il y a six fois plus d’élèves que de professeurs » : E = 6 x P est une réponse correcte ; le système accepte aussi E = 6P, P = E / 6 etc. Ainsi E = 6 x P est un schéma de réponse correcte. Toute réponse équivalente à l'expression algébrique E = 6 x P est correcte et évaluée par le système comme cette réponse « correct, traduction français vers algébrique, usage correct des lettres ». Par contre P = 6 E ou bien E + P = 6 sont incorrectes et évaluées par le système comme « incorrect, traduction par abréviation, lettres utilisées comme des labels ».

Patrons voisins Ce patron est une spécialisation de DP EA1.

6.3. DP EA1.2 Analyse par utilisation de logiciel spécifique

Résumé Pour vous aider à analyser la solution de l'apprenant, vous pouvez utiliser des logiciels spécifiques au domaine.

Contexte Même contexte que DP EA1. Dans certains domaines spécifiques comme la programmation, la logique formelle ou les mathématiques, un logiciel spécifique (par exemple un compilateur, un résolveur de problèmes, un système expert, un logiciel de calcul formel) peut évaluer la validité de la réponse et, le cas échéant, donner des informations sur les erreurs.

Problème Comment utiliser un logiciel spécifique pour analyser la solution de l'apprenant ?

Solution Vous pouvez utiliser un logiciel spécifique pour vérifier la validité de la solution. Si ce logiciel donne des messages d'erreurs, vous pouvez les utiliser pour caractériser la solution.

Résultats Voir DP EA1.

Exemples Combien? et le Logic-ITA utilisent un logiciel spécifique.

- Avec Combien? l'apprenant construit une solution pour un exercice de combinatoire. Chaque étape de la solution est analysée par le système selon une « méthode de détection ciblée » (Giroire et al., 2002). Si la construction de l'apprenant ne peut pas aboutir à la solution, Combien? affiche un message adapté à l’erreur détectée pour guider l'étudiant. Combien? enregistre dans la trace la réponse de l’étudiant et le type éventuel de l’erreur détectée.

- Un exercice du Logic-ITA est une preuve formelle. L'apprenant dérive pas à pas la conclusion à partir des prémisses en utilisant des règles de logique, ce qui l'amène à dériver des formules intermédiaires. Un système expert examine chaque formule intermédiaire entrée par l'étudiant et donne un retour adéquat. S'il n'y a pas d'erreur, le système enregistre l'usage correct de la règle de logique. En cas d'erreur, une aide appropriée est fournie à l'apprenant pour l'aider à entrer une formule correcte. L'erreur et son type sont enregistrés par le système.

Patrons voisins Ce patron est une spécialisation de DP EA1.

6.4. DP EA1.3 Analyse semi-automatique supervisée par un humain

Résumé Soit l'enseignant (ou un chercheur) évalue lui-même la réponse, soit il complète, vérifie ou corrige l'évaluation automatique.

Contexte Même contexte que DP EA1. Cette analyse est à l’heure actuelle la seule possible quand, sur des questions très ouvertes, la réponse de l’apprenant est composite ou si l'apprenant répond en utilisant ses propres termes, ou bien si le diagnostic n'a pas encore été complètement formalisé ou si le diagnostic automatique est en cours de validation ou encore pour des besoins de formation des enseignants.

Problème Comment évaluer la solution de l'apprenant s'il n'y a pas de diagnostic automatique ou si ce dernier n'est pas complètement fiable ?

Solution Votre système fournit une interface pour qu’un assistant humain complète, vérifie et corrige le diagnostic automatique. Cette interface fournit une liste des exercices où le diagnostic automatique a échoué ou est non fiable.

Résultats Voir DP EA1.

Discussion Si votre système doit traiter un grand nombre d’apprenants ou si les enseignants sont très occupés (ce qui est souvent le cas) cette solution n'est réaliste que dans la mesure où le nombre d’échecs du diagnostic est faible. Cependant elle est indiquée pour obtenir une évaluation très précise des apprenants dans un contexte de recherche ou de formation des enseignants.

Exemples Pépite évalue 80 % des réponses mais n'évalue pas entièrement les solutions dans lesquelles l'apprenant utilise le langage naturel ; Pépite fournit une interface pour que l’enseignant puisse corriger, vérifier ou compléter le diagnostic automatique.

Patrons voisins Ce patron est une spécialisation de DP EA1.

6.5. DP EA2 Bilan individuel sur un ensemble d'exercices

Résumé Ce patron décrit plusieurs approches pour présenter un bilan du travail d'un apprenant sur un ensemble d'exercices. Ces approches dépendent des objectifs des destinataires de ce bilan.

Contexte L'apprenant a résolu en ligne des problèmes complexes et le système a recueilli et analysé ses réponses. Pour diverses raisons on vous demande de fournir un bilan du travail de cet apprenant : constituer des groupes de remédiation, faire prendre conscience à l'apprenant de ses points forts et de ses points faibles, situer un apprenant sur une échelle de compétences, évaluer l'évolution d'un savoir-faire au cours du temps etc.

Problème Comment le système peut-il établir un bilan du travail de l'apprenant, de ses succès et échecs ou son profil cognitif ? Dans un système de diagnostic, le bilan est un instantané des compétences de l'apprenant. Dans un système d'apprentissage l'évolution de l'apprenant dans le temps peut être analysée. Si le destinataire du bilan doit prendre des décisions stratégiques à partir du bilan, celui-ci doit contenir une description de haut niveau de l'activité de l'apprenant. Par exemple pour concevoir des situations d'apprentissage personnalisées, les enseignants ont besoin d'une vue synthétique de l'activité d'un apprenant ou d'un bilan de son évolution. Le classement d'un apprenant sur une échelle de compétences peut être utile pour organiser des groupes de travail ou pour les apprenants eux-mêmes pour se situer par rapport aux compétences attendues. Vous voulez ainsi définir les traits essentiels qui résument les compétences d'un apprenant.

Prérequis Voir résultats DP EA1.

Solution Pour résoudre ce problème vous avez d'abord recueilli les réponses d'un apprenant à un ensemble de questions ou d'exercices qui portent sur un thème donné ou sur un cours tout entier. Puis vous avez analysé chaque réponse pour chaque question ou chaque exercice. Maintenant, en fonction des objectifs des différents destinataires du bilan, vous devez mettre au point (avec des enseignants et des chercheurs) les dimensions nécessaires et calibrer l'agrégation des indicateurs locaux en des indicateurs plus généraux. Vous pouvez vous contenter de cumuler les résultats locaux. Vous pouvez aussi déterminer les points forts et les points faibles de l'apprenant, situer l'apprenant sur une échelle de compétences ou établir un bilan de l'évolution durant un cours etc.

Résultats Un bilan du travail de l'apprenant.

Discussion Il est essentiel de définir les dimensions du bilan qui sont très dépendantes du domaine et de tenir compte des besoins des personnes qui utiliseront ce bilan. Une autre difficulté consiste à savoir comment agréger les indicateurs locaux en indicateurs généraux.

Exemples

- Combien? et Le Logic-ITA présentent le temps total passé, le nombre d'exercices essayés, réussis, ratés, les erreurs commises, les règles correctement utilisées etc.

- Pépite construit un profil cognitif de l'apprenant en algèbre en le situant sur une échelle de compétences et en précisant, sur chaque dimension, ses points forts et ses points faibles (voir résultats de DP EA2.1).

Patrons voisins DP EA1, DP EA2.

6.6. DP EA2.1 Points forts et points faibles d'un apprenant

Résumé Une façon fréquente de présenter un bilan du travail de l'apprenant consiste à mettre en lumière ses points forts et ses points faibles manifestés sur un ensemble d'exercices.

Contexte Même contexte que DP EA2. L'apprenant a résolu plusieurs exercices mettant en jeu différentes compétences.

Problème Comment définir les points forts et les points faibles de l'apprenant ?

Prérequis Voir résultats DP EA1.

Solution Après avoir analysé chaque réponse pour chaque exercice, vous voulez mener une analyse sur une session entière ou sur une certaine période. D'abord vous calculez le taux de succès pour chaque compétence en jeu et le taux d’apparition des erreurs. Parfois il vous faut aussi tenir compte du contexte où les erreurs ont été commises ou bien où les compétences ont été mises en évidence. Dans ce cas, vous aurez besoin d’établir des catégories d’exercices et d’erreurs.

Résultats

- Listes de compétences et taux de succès sur ces différentes compétences.

- Listes d'erreurs, taux d'occurrences et/ou contexte d'occurrence de ces erreurs.

Discussion Il est essentiel d'avoir aussi les points forts et pas seulement les faiblesses de l'apprenant. Si vous établissez un rapport, mettre en lumière ses points forts encourage l'apprenant et, secondairement, aussi l'enseignant. Si vous voulez aider l'apprenant dans ses progrès, les stratégies d'enseignement peuvent différer selon ses points forts sur lesquels vous pourrez vous appuyer pour faire évoluer ses conceptions.

Exemples Pépite offre un bilan en trois dimensions (usage de l'algèbre, traduction d’une représentation à une autre, calcul algébrique) et, pour chaque dimension, indique d’une part les taux de réussite sur les types d’exercices concernant ces dimensions et, d’autre part, les points forts (liste de compétences acquises ou en cours d’acquisition avec taux de succès et contexte dans lesquelles elles ont été mises en évidence) et les points faibles (liste d'erreurs typées avec fréquence et contexte d'occurrence).

Patrons voisins Ce patron est une spécialisation de DP EA2.

6.7. DP EA4 Bilan d'un groupe d'apprenants sur un ensemble d'exercices

Résumé Ce patron permet de concevoir un bilan sur le travail d'un groupe d'apprenants sur un ensemble d'exercices.

Contexte Un ensemble d'apprenants a résolu un ensemble d'exercices et votre système a analysé toutes leurs réponses.

Problème Comment le système peut-il construire un bilan du travail d'un groupe d'apprenants sur un ensemble d'exercices ? Si le destinataire du bilan doit prendre des décisions stratégiques à partir du bilan, celui-ci doit contenir une vue synthétique du travail des apprenants pour une activité complète. Par exemple cette vue peut aider à organiser des sessions adaptées au niveau d'une classe ou à organiser des groupes de travail dans une classe. Elle peut aussi aider les enseignants à réfléchir à la qualité et à la pertinence des exercices et des supports de cours dans le cas où votre système repérerait que certaines erreurs sont très fréquentes ou qu’elles se produisent souvent ensemble. Ainsi elle fournit aux concepteurs et aux enseignants des informations susceptibles de les aider à évaluer ou à améliorer leur conception ou leur enseignement (voir aussi DP MV1 (DPULS - 6, 2005)).

Prérequis Voir résultats DP EA2.

Solution Elle est fonction de vos objectifs. Pour situer les apprenants sur une échelle de compétences ou en fonction de la réalisation d'objectifs pédagogiques, vous pouvez proposer une cartographie de la classe. Une telle carte classifie les apprenants en différents groupes. Pour cela, vous pouvez par exemple utiliser des stéréotypes prédéfinis. Un stéréotype est un moyen d'identifier des groupes d'apprenants ayant les mêmes caractéristiques. Ces caractéristiques peuvent être aussi simples qu’une note. Dans ce cas, vous obtiendrez des groupes en fonction de leur réussite, par exemple : le groupe des bons, le groupe des moyens et le groupe des faibles. Un stéréotype peut être plus précis et décrire les apprenants ayant acquis certaines compétences mais pas d’autres ou bien ayant acquis certaines compétences mais présentant encore telles et telles faiblesses. Puis en fonction du bilan de compétence personnel de l’apprenant, vous lui attribuerez un stéréotype.

Pour définir ces stéréotypes, une première solution consiste à faire appel à des experts. Vous pouvez aussi laisser le système grouper lui-même les apprenants par exemple en utilisant des algorithmes de classification de fouilles de données.

Si votre objectif est d'obtenir un bilan des résultats, vous pouvez produire des statistiques et diagrammes qui groupent les exercices par chapitre ou sujet.

Si votre objectif est de détecter des associations telles que « si les apprenants font l'erreur A, alors ils font aussi l'erreur B » ou « si les apprenants ratent l'exercice E, alors ils ratent aussi l'exercice F » vous pouvez utiliser des algorithmes de règles d'association de fouilles de données.

Résultats Si vous implémentez ce patron, vous caractériserez le bilan de votre groupe d'apprenants avec certains des items suivants.

- Un cahier de notes et de statistiques sur les performances des apprenants.

- Une carte de la classe groupant les apprenants par compétences, par type d'erreur, par stéréotypes.

- Une catégorisation des erreurs ou des habiletés co-occurrentes.

Discussion Les stéréotypes peuvent être simples (élèves bons, moyens, faibles), multidimensionnels (plaçant les apprenants sur une grille de compétences) ou peuvent décrire des usages (joueur, apprenant systématique, papillon etc.).

Exemples

- Pépite utilise des stéréotypes définis à partir d’une analyse didactique pour classer les apprenants par groupes d'habiletés et pour présenter une carte cognitive de la classe en vue d’adapter l’enseignement à chacun des groupes.

- Le Logic-ITA utilise une classification automatique pour regrouper les apprenants en fonction des erreurs qu’ils ont commises afin d’adapter l’enseignement pour chacun de ces groupes.

Patrons voisins Ce patron est spécialisé par les patrons DP EA4.1 et DP EA4.2. Si votre objectif est d'améliorer le cours, consultez aussi DP MV1 (DPULS - 6, 2005).

6.8. DP EA4.1 Classification automatique

Résumé Les méthodes de classification automatique permettent de dresser un bilan de l'activité d'un groupe d'apprenants sur un ensemble d'exercices.

Contexte Même contexte que DP EA4. Si vous caractérisez chaque apprenant par un ensemble d'attributs comme le nombre d'exercices réussis ou ratés, le nombre d'erreurs commises, les compétences manifestées ou non, vous pouvez utiliser la classification automatique pour partitionner le groupe d'apprenants en sous-groupes homogènes.

Problème Comment construire des groupes d'apprenants en utilisant la classification automatique ? Est-il mieux de faire des groupes homogènes ou hétérogènes ? Ceci est une question pédagogique. Dans tous les cas, il vous faut connaître les groupes homogènes, c'est-à-dire des groupes composés d'apprenants avec des attributs similaires. Cependant vous n'avez pas de stéréotypes prédéfinis ou vous voulez essayer d'autres formes de groupements. Vous pouvez avoir recours à la classification automatique.

Prérequis Comme pour DP EA4.

Solution Votre système a analysé chaque réponse de chaque apprenant. Vous agrégez ces analyses pour obtenir une caractérisation de chacun. Par exemple, chaque apprenant peut être caractérisé par les exercices qu'il a réussis et ratés. Une autre caractérisation simple est le nombre total d'erreurs commises sur tous les exercices. Parmi ces caractéristiques (ou attributs), vous sélectionnez celles que vous voulez utiliser pour la classification automatique. L'algorithme de classification automatique produit des classes d'apprenants. Les apprenants dans une même classe sont similaires par rapport aux caractéristiques retenues.

Résultats Groupes homogènes d'apprenants.

Discussion Pour utiliser la classification automatique de façon sensée, vous devez avoir un minimum d'expertise dans le domaine de la fouille de données. Construire et sélectionner les caractéristiques ou attributs pertinents est crucial pour le résultat et n'est pas nécessairement évident.

Exemples La classification automatique a été utilisée avec le Logic-ITA pour voir si les apprenants en situation d'échec (ceux qui commencent des exercices sans arriver à les finir correctement) peuvent être regroupés de façon homogène. En utilisant comme attribut le nombre d’erreurs, la classification a produit deux groupes, les étudiants faisant beaucoup d'erreurs et ceux en faisant peu. Au sein du premier groupe les chercheurs ont pu identifier les apprenants qui utilisaient une stratégie « par devinette » qui consiste à systématiquement utiliser toutes les règles de logique du système jusqu'à rencontrer la bonne pour dériver la prochaine formule.

Patrons voisins Ce patron est une spécialisation de DP EA4.

7. Discussion

Comment évaluer un ensemble de patrons ? C'est un sujet de discussion parmi les promoteurs de l’approche DP (Avgeriou et al., 2004), (Buschmann et al., 1996), (Chung et al., 2004), (Salingaros, 2000), E-LEN project (E-LEN, 2003), (Todd et al., 2004). La plupart des patrons décrits dans la littérature ont été validés par une révision entre pairs. Certains auteurs (Avgeriou et al. 2003), (Devedzic et Harrer, 2005) suggèrent qu'un patron peut être accepté par la communauté s'il vérifie « la règle de trois ». Dans notre travail, nous avons vérifié la validité de nos patrons en trois étapes. Dans une première étape, les patrons ont été discutés au sein de l'équipe AIDA. Dans une seconde étape, les patrons ont été discutés et raffinés au sein du projet DPULS. Dans une troisième étape, nous avons pris en compte les contributions à l'atelier AIED'05 Usage Analysis (Choquet et al., 2005) ayant trait à l'évaluation et avons examiné dans quelle mesure les expériences décrites étaient en accord avec nos patrons. Remarquons que sur les 6 contributions étudiées dans cet atelier, une seule faisait partie du projet DPULS.

Les patrons proposés dans notre article généralisent des expériences fructueuses réalisées au sein de l'équipe AIDA, à savoir les trois expériences mentionnées dans la section 2 et également trois autres: Diane, Math Logs et Java-En-Ligne.

Diane est un système de diagnostic. Il identifie les stratégies adéquates ou erronées ainsi que les mécanismes cognitifs impliqués dans la résolution de problèmes d'arithmétique chez les élèves de l'école primaire (8-10 ans) (Hakem et al., 2005). DP EA1 et DP EA2 décrivent l'approche de Diane pour le diagnostic cognitif.

Math Logs (Vandebrouck et Cazes, 2005) apporte aux chercheurs des informations concernant l’utilisation de la plateforme Wims pour des TD de Mathématiques par des étudiants. Les expressions mathématiques entrées par les étudiants sont vérifiées par un logiciel de calcul formel tel que MUPAD, PARL ou Maxima, approche proposée par DP EA1.2. Math Logs affiche à l'enseignant les notes moyennes, le temps moyen passé par type d'exercice et des indicateurs sur l'évolution des notes dans le temps. Il détecte des stratégies d'usage suivies par certains étudiants telles que se concentrer sur des exercices faciles ou préférer les exercices avancés (DP EA2, DP EA3 et DP EA4). Il permet une classification automatique des exercices en fonction de deux indicateurs, à savoir la difficulté et le rendement (DP MV1, amélioration des supports, (DPULS - 6, 2005)).

Java-En-Ligne est un cours en ligne d'introduction à la programmation avec le langage Java. Les étudiants écrivent des (morceaux de) programmes et les soumettent pour compilation et exécution. Les erreurs signalées par le compilateur (DP EA1.2) sont enregistrées par le système. Pour chaque exercice et chaque étudiant, le système affiche un bilan comprenant le nombre de fois où l'exercice a été consulté, essayé, réussi, le nombre d'erreurs commises, le temps passé. Il fournit également un bilan par chapitre et pour le cours entier (DP EA2).

Dans l'atelier AIED'05 “Usage Analysis”, six contributions concernaient l'évaluation des apprenants.

(Kumar, 2005) présente un Tuteur pour la programmation en C++. Chaque exercice est défini à partir d’un schéma d’exercice qui concerne exactement un objectif d'apprentissage. Le système vérifie automatiquement si la réponse de l'étudiant est correcte, partiellement correcte, incorrecte, absente ou si l'exercice n'a pas été abordé (DP EA1). Ensuite un bilan individuel indique pour chaque objectif d'apprentissage le taux de réussite, de réussite partielle etc. (DP EA2). La moyenne de la classe pour chaque exercice (DP EA3) et la performance moyenne de la classe pour chaque objectif d'apprentissage (DP EA4) sont calculées. Les concepteurs utilisent ces résultats pour affiner les schémas et générer automatiquement des exercices en accord avec les objectifs (DP MV1, amélioration des supports (DPULS - 6, 2005)).

(Feng et Heffernan, 2005) présentent Assistment, un tuteur en ligne pour les mathématiques qui fournit à l'enseignant un bilan sur l'activité des apprenants et aux apprenants une assistance quand ils sont bloqués sur une tâche. Cette assistance est donnée sous forme de questions non seulement pour aider l'étudiant mais aussi pour aider le système à discerner les éléments de connaissance impliqués dans le blocage quand la tâche mets en jeu plusieurs éléments (DP EA1). Ensuite le système produit un cahier de notes qui présente à l'enseignant tous les résultats des apprenants (DP EA2) ainsi qu'un bilan de la classe (DP EA4). Une analyse des points abordés aide à déterminer les difficultés des apprenants dans le but d'améliorer l'enseignement et les supports de cours (DP MV1, amélioration des supports (DPULS - 6, 2005)).

(Nicaud et al., 2005) modèlent le comportement des apprenants en calcul algébrique dans Aplusix, un système pour apprendre l'algèbre élémentaire. Le diagnostic est un processus en deux phases. La première phase est une analyse locale des transformations d'une expression algébrique proposées par un élève. En utilisant une bibliothèque de règles correctes et incorrectes, le système détermine la séquence de règles utilisées par l'apprenant lors d'une transformation. Le système détermine aussi le type d'exercice et le contexte algébrique dans un Local Behaviour Vector (LBV) (DP EA1). La deuxième phase utilise un réseau de concepts pour construire un bilan des compétences acquises par l'apprenant à partir de différents LBV résumant un ensemble de transformations algébriques (DP EA2). Aplusix offre à l'enseignant une carte des compétences de la classe entière (DP EA4).

(Heraud et al., 2005), (Stefanov et Stefanova, 2005), ainsi que (Mühlenbrock, 2005) ne sont pas centrés sur l'évaluation de l'apprenant. Ils décrivent des approches pour construire un bilan de l'apprenant selon plusieurs perspectives. Ils considèrent des traces d'apprenants collectées dans des plates-formes d’enseignement en ligne. Les traces rendent compte, par exemple, des réussites, des tâches achevées, du temps passé, des consultations d'aide (DP EA1). Dans Virtuoso, Stefanov et Stefanova utilisent une approche « objet pédagogique » pour fournir aux apprenants, enseignants et concepteurs des statistiques sur les points forts et points faibles des étudiants (DP EA2.1), sur les taux de réussite et d'échec pour chaque objet pédagogique (DP EA3) et pour améliorer le cours (hiérarchie DP MV (DPULS - 6, 2005)). (Mühlenbrock, 2005) utilise des arbres de décision pour classer les apprenants en trois catégories : faible, moyen et fort (DP EA4). Pour obtenir le bilan de l'activité d'un apprenant sur une session, (Heraud et al., 2005) comparent la trace de l'apprenant avec le scénario d'apprentissage prescrit. Leur système affiche une comparaison graphique du temps passé pour chaque tâche avec le temps prescrit. Une « barre d'ombre » indique une différence entre le temps enregistré dans la trace et le temps prescrit. Alerté par cette barre d'ombre, l'évaluateur humain, appelé le « compositeur de trace », peut alors consulter d'autres sources d'informations comme les logs du serveur ou de la station de travail de l'apprenant ou encore un observateur humain. Cette expérience suggère d’affiner notre hiérarchie en prenant en compte des données d'usage alors que nous nous sommes plutôt concentrés sur des données cognitives précises jusqu'à maintenant.

Dans cette section nous avons étudié dans quelle mesure l’ensemble de DPs pour l’évaluation de l’apprenant que nous avons identifié décrit des invariants dans des systèmes existants. Notre objectif était de capitaliser des expériences afin d’aider des concepteurs à construire des systèmes de qualité ; d’autres expériences de conception d’EIAH prenant en compte l’évaluation des apprenants pourront amener à développer ce premier ensemble de DPs.

La revue de systèmes que nous venons de présenter montre que notre premier objectif est atteint au moins en ce qui concerne les domaines des mathématiques et de la programmation. Une étude plus approfondie serait nécessaire pour étudier la pertinence de notre approche dans d’autres domaines. Toutefois les tests standards de compétence en langue étrangère (e.g. TOEFL, TOEIC, IELTS, TFI) (IELTS, 2006) utilisent une approche similaire. En s’appuyant sur les résultats de l’apprenant, ils le classifient sur une échelle prédéfinie de compétences sur plusieurs dimensions : écouter, lire, écrire, parler.

Pour l’instant il est prématuré de dire si notre objectif d’assister les concepteurs est atteint. Notre ensemble de DPs est accessible sur Internet (DPs-DPULS, 2006) et sera utilisé en particulier dans le cadre de l’école doctorale virtuelle du réseau Kaléidoscope ce qui devrait nous permettre d’avoir des retours intéressants et sans doute d’enrichir ce premier ensemble de DPs concernant l’évaluation des apprenants. Plus généralement, l’aide à la conception d’EIAH est un problème très actuel. L’approche IMS-LD (Koper et al., 2003) attire beaucoup de chercheurs et commence à donner lieu à des réalisations intéressantes. Dans un article récent (McAndrew et al., 2006) proposent une intéressante discussion sur le positionnement réciproque des approches Design Pattern et IMS-LD et illustrent leur propos par le développement d’une activité d’apprentissage collaboratif en ligne. Afin d’aider les concepteurs, en particulier des enseignants non spécialistes, ils proposent d’intégrer les deux approches : l’approche DP permettant plus facilement un partage des conceptions par les humains et une grande flexibilité dans l’adaptation à des contextes particuliers et l’approche LD fournissant une description plus formelle pour des traitements automatiques par des machines. Dans un article prospectif (Brouns et al., 2005) envisagent deux idées d’utilisation complémentaires de ces deux approches. Tout d’abord, ils suggèrent d’utiliser des techniques d’induction automatique pour détecter des patterns d’apprentissage à partir de traces d’usage effectif de cours conçus en utilisant les spécifications IMS-LD ; ensuite ils envisagent la perspective d’utiliser les patterns d’apprentissage pour des ingénieries pédagogiques ultérieures.

8. Conclusion

Dans cet article, nous avons proposé un ensemble de dix-sept DPs concernant l’évaluation en ligne des apprenants. Cet ensemble représente une partie des DPs élaborés dans le cadre du projet européen (DPULS – 6, 2005). Un des résultats de notre travail est la mise en évidence de principes de base pour la conception de systèmes qui ont pour objectifs de mettre à disposition un « bilan sur l’activité d’un groupe d’apprenants sur un ensemble d’exercices », DP EA4. Une étape essentielle est de mener une « Analyse multidimensionnelle de la solution d'un apprenant à un seul exercice » (DP EA1). Ce DP est spécialisé en plusieurs DPs qui décrivent chacun une approche pour mener cette analyse. Ces approches peuvent être adoptées soit pour obtenir un « Bilan individuel sur un ensemble d'exercices » (DP EA2) soit pour obtenir « Bilan d’un groupe d’apprenants sur un seul exercice » (DP EA3).

Ces DPs sont assez généraux. Une perspective que nous envisageons consiste à définir des DPs plus spécifiques pour décrire comment mettre en œuvre les différentes approches. Par exemple nous pourrions préciser comment établir des bilans sur un groupe d’apprenants (DP EA4 et DP EA3) à l’aide des techniques de fouilles de données. Il est nécessaire d’étudier plus précisément ce qui, dans l’évaluation est indépendant du domaine d’activité pour identifier des fonctionnalités qui pourraient être proposées dans les plates-formes de formation : par exemple un cahier de notes augmenté comme présenté dans Assessment (Feng et Heffernan, 2005) ou un drapeau de retro-action (un drapeau vert pour une bonne réponse et rouge pour une mauvaise) comme le suggère (VanLehn et al., 2005). Plus généralement, des DPs sur les interfaces de présentation des bilans ou de travail sur les bilans ou sur l’évolution du travail de groupe d’apprenants (Guéraud et al., 2004) enrichiraient l’ensemble que nous proposons ici. Nous estimons aussi que des patterns spécifiques à des domaines de formation seraient une aide efficace pour les concepteurs par exemple sur l’analyse de programmes ou d’expressions algébriques.

Ce travail nous a montré que l’approche DP est très fructueuse pour amener des équipes hétérogènes à partager des expériences et à les capitaliser. Mettre en évidence des DPs est une technique d’intégration efficace en ce sens qu’elle oblige à distiller les expériences sur des projets spécifiques pour ne garder que les invariants des conceptions de qualité. « Les patterns sont vivants et évoluent » (Alexander et al., 1977). Dans cet esprit nous attendons des retours d’usages de nos DPs pour développer et enrichir cette première proposition de DPs sur l’évaluation des apprenants en ligne.

Pour conclure, bien que les DPs présentés ici ne soient pas des DPs de génie logiciel, nous faisons nôtre la conclusion du GoF (Gamma et al., 1995, p. 409) : « on peut prétendre que ce livre n’a pas apporté grand-chose. Après tout, il ne propose aucun algorithme ou technique de programmation qui n’ait été déjà utilisé (...) Il ne fait que documenter des conceptions existantes. (...) Nous espérons que ce sera le début d’un mouvement pour la documentation du savoir-faire des praticiens. »

BIBLIOGRAPHIE

ALEXANDER C., ISHIKAWA S., SILVERSTEIN M., JACOBSON M., FIKSDAHL-KING I., ANGEL S. (1977). A pattern language: towns, buildings, construction. New York: Oxford University Press.

AVGERIOU P., PAPASALOUROS A., RETALIS S., SKORDALAKIS M. (2003). Towards a Pattern Language for Learning Management Systems, Educational Technology & Society, 6(2), p.11-24.

AVGERIOU P., VOGIATZIS D., TZANAVARI A., RETALIS S., (2004). Towards a pattern language for adaptive web-based educational systems, Advanced Technology for Learning, 1(4), ACTA Press.

BORCHERS J., (2001). A Pattern Approach to Interaction Design. Wiley, Chichester, England.

BROUNS F., KOPER R., MANDERVELD J., VAN BRUGGEN J., SLOEP P., VAN ROSMALEN P, TATTERSALL C., VOGTEN H. (2005). A first exploration of an inductive analysis approach for detecting learning design patterns. Journal of Interactive Media in Education (Advances in Learning Design. Special Issue, eds. Colin Tattersall, Rob Koper), 2005/03. ISSN:1365-893X

BUSCHMANN F., MEUNIER R., ROHNERT H., SOMMERLAD P., STAL M. (1996). Pattern-Oriented Software Architecture, Volume 1: A System of Patterns. John Wiley & Sons.

CHOQUET C., LUENGO V., YACEF K., Eds. (2005). Proceedings of « Usage Analysis in Learning Systems» workshop, held in conjunction with the 12th Conference on Artificial Intelligence in Education, Amsterdam, The Netherlands, Disponible sur internet à : http://hcs.science.uva.nl/AIED2005 /W1proc.pdf (Consulté en mars 2006)

CHOQUET C. (2004). JEIRP Design Patterns for Recording and Analysing Usage of Learning Systems proposal. Disponible sur internet à http://www.noe-kaleidoscope.org/pub/activities/jeirp/activity.php?wp=33 consulté en mars 2006.

CHUNG E.S., HONG J.I., LIN J., PRABAKER M.K., LANDAY J.A., LIU A. (2004). Development and Evaluation of Emerging Design Patterns for Ubiquitous Computing, In Proceedings of Designing Interactive Systems (DIS2004), Boston, MA. p. 233-242.

COMBIEN? Le site du projet Combien?, http://combien.lip6.fr

DELOZANNE E., PREVIT D., GRUGEON B., JACOBONI P. (2003). Supporting teachers when diagnosing their students in algebra, Workshop Advanced Technologies for Mathematics Education, supplementary Proceedings of Artificial Intelligence in Education, Sydney, July 2003, IOS Press, Amsterdam, p.461-470.

DELOZANNE E., VINCENT C., GRUGEON B., GELIS J.-M., ROGALSKI J., COULANGE, L. (2005). From errors to stereotypes: Different levels of cognitive models in school algebra, Proceedings of E-LEARN05, Vancouver, 24-28 October 2005.

DENG J., KEMP E., TODD E.G. (2005). Managing UI Pattern Collections, CHINZ’05, Auckland, NZ.

DEVEDZIC V. (2001). A Pattern Language for Architectures of Intelligent Tutors. IEEE Learning Technology Newsletter 3/3, consultable sur: http://lttf.ieee.org/learn_tech/issues/july2001/index.html#8.

DEVEDZIC V., HARRER A., Software Patterns in ITS Architectures, in IJAIED, 15, (ISSN 1560-4292), p. 63-94.

DPULS- Design Patterns Browser :
http://lucke.univ-lemans.fr:8080/dpuls/login.faces (Consulté en mars 2007).

DPULS deliverables (2005). Disponible sur internet à http://www.noe-kaleidoscope.org/intra/activity/deliverables/ (Consulté en janvier 2006)

deliverable 2: MERCERON, A., Report on partners’ experiences

deliverable 3: DAVID J.P., State of art of tracking and analyzing usage

deliverable 4: POZZI F. The set of recurrent problems and description of solutions

deliverable 5: VERDEJO M.F., CELORRIO C., The design pattern language structure

deliverable 6: DELOZANNE E., LABAT J.-M., LE CALVEZ F., MERCERON, A., The structured set of design patterns

deliverable 7: IKSAL S., ALEXIEVA A., BEALE R., BYRNE W., DUPONT F., LONDSDALE P., MILEN P., The design pattern browser

DUVAL P., MERCERON A., SCHOLL M., WARGON L. (2005). Empowering Learning Objects: an experiment with the Ganesha platform. In Proceedings of the World Conference on Educational Multimedia, Hypermedia and Telecommunications ED-MEDIA 2005, Montreal, Canada, P. Kommers and G. Richards Ed., p. 4592-4599, AACE Digital Library (http://www.aace.org)

E-LEN Le site des patterns du projet E-LEN :
http://www2.tisip.no/E-LEN/patterns_info.php (Consulté en décembre 2005)

FENG M., HEFFERNAN N. (2005). Informing Teachers Live about Student Learning: Reporting in Assistment System.25-32, Proceedings of « Usage Analysis in Learning Systems » workshop, held in conjunction with the 12th Conference on Artificial Intelligence in Education, Amsterdam, The Netherlands, p.25-32. Disponible sur internet à http://hcs.science.uva.nl/AIED2005/W1proc.pdf (Consulté en décembre 2005)

FOWLER, M. (1997). Analysis Patterns: Reusable Object Models. Reading, MA: Addison-Wesley.

GAMMA E., HELM R., JOHNSON R., VLISSIDES J. (1995) Design Patterns: Elements of Reusable Object-Oriented Software, ADDISON WESLEY

GIROIRE H., LE CALVEZ F., TISSEAU G., DUMA J., URTASUN M. (2002). "Un mécanisme de détection incrémentale d'erreurs et son application à un logiciel pédagogique", Actes de RFIA'2002, Angers, p. 1063-1072.

GOODYEAR P., AVGERIOU P., BAGGETUN R., BARTOLUZZI S., RETALIS S., RONTELTAP F., RUSMAN E. (2004). Towards a Pattern Language for Networked Learning, Proceedings of Networked Learning 2004, Lancaster UK.

GRUGEON B. (1995) Étude des rapports institutionnels et des rapports personnels des élèvesà l’algèbre élémentaire dans la transition entre deux cycles d’enseignement : BEP et Première G, Thèse de doctorat, Université Paris VII.

GUÉRAUD V., ADAM J.-M., PERNIN J.-Ph., CALVARY G., DAVID J.-P. (2004) L'exploitation d'Objets Pédagogiques Interactifs à distance : le projet FORMID, Revue STICEF, Volume 11, mis en ligne le 25/05/2004, http://sticef.org

HAKEM K., SANDER E., LABAT J-M. (2005). DIANE, a diagnosis system for arithmetical problem solving. Proceedings of Artificial Intelligence in EDucation 2005, Looi, McCalla, Bredeweg, Breuker eds, IOS Press, Amsterdam, Holland, p. 258-265.

HERAUD J.M., MARTY J.C., FRANCE L., CARRON T. (2005). Helping the Interpretation of Web Logs: Application to Learning Scenario Improvement, Proceedings of « Usage Analysis in Learning Systems » workshop, held in conjunction with the 12th Conference on Artificial Intelligence in Education, Amsterdam, The Netherlands, p. 41-48, Disponible sur internet à : http://hcs.science.uva.nl/AIED2005/W1proc.pdf (Consulté en décembre 2005)

HERNANDEZ-LEO D., ASENSIO-PEREZ J. I., DIMITRIADIS Y. (2005). Computational Representation of Collaborative Learning, Flow Patterns using IMS Learning Design. Educational Technology & Society, 8 (4), p.75-89.

IELTS International Language Testing System (British Council ielts), http://www.britishcouncil.org/learning-ielts.htm (Consulté en mars 2006)

JEAN S., (2000) PÉPITE : un système d'assistance au diagnostic de compétences, Thèse de doctorat de l'Université du Maine, 21 janvier 2000

KALEIDOSCOPE Le site du réseau Kaleidoscope, http://www.noe-kaleidoscope.org/ (Consulté en mars 2006)

KOPER R., OLIVIER B., ANDERSON T. eds. (2003). IMS Learning Design. Information Model, Best Practice and Implementation Guide, Binding document, Schemas. Consulté en octobre 2003 à http://www.imsglobal.org/learningdesign/index.cfm

KUMAR A. (2005). Usage Analysis in Tutors for C++ Programming, Proceedings of « Usage Analysis in Learning Systems » workshop, held in conjunction with the 12th Conference on Artificial Intelligence in Education, Amsterdam, The Netherlands, p.57-64. Consulté en décembre 2005 à :http://hcs.science.uva.nl/AIED2005/W1proc.pdf

LANDAY J., VAN DUYNE D.K. (2004). Design Patterns for Customer-Centred Web Design, tutorial in the CHI 2004 international conference, Vienna, Austria.

LARMAN C. (2003). UML et les Design Patterns Campus Press. Paris.

LE CALVEZ F., GIROIRE H., DUMA J., TISSEAU G., URTASUN M. (2003). Combien? a Software to Teach Learners How to Solve Combinatorics Exercises. Workshop Advanced Technologies for Mathematics Education, supplementary Proceedings of Artificial Intelligence in Education, Sydney, Australia, IOS Press, Amsterdam, p. 447-453.

McANDREW P., GOODYEAR P., DALZIEL J., (2006). Patterns, designs and activities: unifying descriptions of learning structures, International Journal of Learning Technology 2006 - Vol. 2, No.2/3 p. 216 - 242

MERCERON A., YACEF K. (2004). Mining Student Data Captured from a Web-based Tutoring Tool: Initial Exploration and Results, in Journal of Interactive Learning Research Special Issue on Computational Intelligence in Web-Based Education, 15(4), p.319-346.

MESZAROS G., DOBLE J. (1998). A Pattern Language for Pattern Writing, in Pattern Languages of Program Design 3 (Software Patterns Series), Addison-Wesley, Consulté en décembre 2005 à http://hillside.net/patterns/writing/patterns.htm

MÜHLENBROCK M. (2005). Automatic Action Analysis in an Interactive Learning Environment, Proceedings of « Usage Analysis in Learning Systems » workshop, held in conjunction with the 12th Conference on Artificial Intelligence in Education, Amsterdam, The Netherlands, p.73-80. Consulté en décembre 2005 à : http://hcs.science.uva.nl/AIED2005/W1proc.pdf.

NICAUD J.-F., CHAACHOUA H., BITTAR M., BOUHINEAU D. (2005). Student’s modelling with a lattice of conceptions in the domain of linear equations and inequations Proceedings of « Usage Analysis in Learning Systems » workshop, held in conjunction with the 12th Conference on Artificial Intelligence in Education, Amsterdam, The Netherlands, p.81-88. Consulté en décembre 2005 à :http://hcs.science.uva.nl/AIED2005/W1proc.pdf.

PÉPITE Le site du projet Pépite, http://pepite.univ-lemans.fr

PPP The Pedagogical Patterns Project site, http://www.pedagogicalpatterns.org/ (Consulté en décembre 2005)

SALINGAROS N. (2000). The Structure of Pattern Languages. Architectural Research Quarterly, 4, p.149-161.

SCHMIDT D., STAL M., ROHNERT H., BUSCHMANN F. (2000). Pattern-Oriented Software Architecture, vol.2, Patterns for Concurrent and Networked Objects. Wiley.

STEFANOV K., STEFANOVA E. (2005). Analysis of the Usage of the Virtuoso System, Proceedings of « Usage Analysis in Learning Systems » workshop, held in conjunction with the 12th Conference on Artificial Intelligence in Education, Amsterdam, The Netherlands, p. 97-104. Consulté en décembre 2005 à :http://hcs.science.uva.nl/AIED2005/W1proc.pdf

SWELLER J., VAN MERRIENBOER J.G., PAAS, F.G.W.C. (1998). Cognitive architecture and Instructional Design. Educational Psychology Review, 10( 3), p. 251-295.

TODD E., KEMP E., PHILIPS C. (2004). What makes a good user interface pattern language? The 5th Australasian User Interface Conference, Dunedin, Australian Computer Society, p. 91-100.

VANDEBROUCK F., CAZES C. (2005) Analyse de fichiers de traces d’étudiants : aspects didactiques, Revue STICEF, Volume 12, ISSN : 1764-7223, mis en ligne le 18/01/2006, http://sticef.org

VAN DUYNE D. K., LANDAY J., HONG J. I. (2002) The Design of Sites: Patterns, Principles, and Processes for Crafting a Customer-Centered Web Experience. ADDISON WESLEY

VANLEHN K., LYNCH C., SCHULZE K., SHAPIRO J.A., SHELBY R., TAYLOR L., TREACY D., WEINSTEIN A., WINTERSGILL M. (2005). The Andes Physics Tutoring System: Lessons Learned.  International Journal of Artificial Intelligence and Education, 15 (3) p.147-204.

VAN WELIE M. (2004). Patterns in Interaction Design. Extrait en 2006 de http://www.welie.com/index.html.

Wims Le site de la plateforme Wims http://wims.unice.fr/wims

 


1 Cet article est une version française profondément remaniée de l’article É. Delozanne, F. Le Calvez, A. Merceron, J.-M. Labat, (2007), A Structured set of Design Patterns for Learners’ Assessment, Journal of Interactive Learning Research (JILR), (2007) 18(2), 309-333.

2 AIDA (Approche Interdisciplinaires pour des Dispositifs informatisés d’Apprentissage) est un PPF (Programme PluriFormation) financé par le Ministère français de la Recherche et regroupant sept équipes de recherche de différents laboratoires de la région parisienne.

3 La version complète du premier ensemble de DP mis au point dans le cadre du projet DPULS est présenté dans (DPULS-6, 2005).


A propos des auteurs

Elisabeth DELOZANNE est docteur en informatique de l'université du Maine depuis 1992. Chercheure en EIAH, elle travaille sur des projets pluridisciplinaires qui visent à produire des logiciels pour assister les enseignants dans la prise en compte de la diversité cognitive de leurs élèves, spécialement en mathématiques. Membre du Conseil National des Universités, elle est actuellement Maître de Conférences à l'Université Pierre et Marie Curie. Elle est très concernée par la dissémination des résultats de la recherche dans l'enseignement secondaire et universitaire.

Adresse : L'UTES, Université Pierre et Marie Curie, 4 place Jussieu 75270 Paris cedex 05

Courriel : Elisabeth.Delozanne@upmc.fr

Toile : www.math-info.univ-paris5.fr/~delozanne/

Françoise LE CALVEZ est maître de conférences à l'université Paris 6 et chercheur dans l'équipe MOCAH (Modèles et Outils en ingéniérie des Connaissances pour l'Apprentissage Humain). Ces dernières années ses recherches ont porté sur la méthodologie de conception de différents composants d'un EIAH dans le cadre du groupe Combien? (http://combien.lip6.fr). Elle s'intéresse aussi à la définition et à l’indexation de ressources pédagogiques et au diagnostic des activités de l’apprenant en situation de résolution de problèmes.

Adresse : LIP6, Université Pierre et marie Curie, 104 avenue du président Kennedy, 75016 Paris

Courriel : Francoise.Le-Calvez@lip6.fr

Toile : http://webia.lip6.fr/~lecalvez/

Agathe MERCERON est professeur d'informatique à la Technische Fachhochshule Berlin (University of Applied Sciences TFH Berlin). Elle a un doctorat en 3ème cycle spécialité sciences de l'informationet de la documentation de l'université Paris 7 et un doctoratd'Etat spécialité sciences informatiques del'université Paris XI. Ses recherches en EIAH concernent particulièrement les fouilles de données éducationnelles. Elle est associée honoraire de l'Université de Sydney

Adresse : Technische Fachhochschule Berlin, Luxemburgerstrasse 10, 13353 Berlin, Germany

Courriel : merceron@tfh-berlin.de

Toile : http://www.tfh-berlin.de/~merceron/

Jean-Marc LABAT a soutenu une thèse en intelligence artificielle (90) portant sur les environnements informatiques pour l’apprentissage humain, puis une habilitation à diriger des recherches (97), il a ensuite été promu professeur d’informatique à l’université René Descartes où il a dirigé pendant 4 ans le laboratoire Crip5. Depuis février 2005, il a rejoint l’université Pierre et Marie Curie. Il est responsable d’une équipe de recherche au sein du Lip6 et dirige L’UTES, un service commun de l’université. Il est l’actuel président de l'ATIEF. Ses travaux portent sur la modélisation et le suivi de l’apprenant, et plus généralement sur la modélisation cognitive de l’utilisateur en situation de résolution de problèmes.

Adresse : L'UTES, Université Pierre et Marie Curie, 4 place Jussieu 75270 Paris cedex 05

Courriel : Jean-Marc.Labat@upmc.fr

Toile : http://www.lutes.upmc.fr/labat/index.html

 
Référence de l'article :
Élisabeth Delozanne, Françoise Le Calvez, Agathe Merceron, Jean-Marc Labat, Design Patterns en EIAH : vers un langage de Patterns pour l'évaluation des apprenants, Revue STICEF, Volume 14, 2007, ISSN : 1764-7223, mis en ligne le 7/12/2007, http://sticef.org
[Retour en haut de cette page] Haut de la page
Mise à jour du 12/12/07