Contact :
infos@sticef.org
|
Détection de déficits d'auto-évaluation
et d'auto-efficacité et remédiation dans un EIAH
Thomas SERGENT (Sorbonne Université, CNRS, LIP6, F-75005 Paris, France
— Lalilo), Morgane DANIEL (Lalilo), François BOUCHET, Thibault
CARRON (Sorbonne Université, CNRS, LIP6, F-75005 Paris,
France)
|
RÉSUMÉ : Des
travaux de recherche montrent que la capacité à autoréguler
son apprentissage a un impact significatif positif sur les résultats
scolaires. Nous présentons ici une étude visant à
détecter des déficits d'autorégulation de l'apprentissage
pour de jeunes élèves, dans le contexte d'une application web
d'apprentissage de la lecture. À partir des réponses de
467 116 élèves à deux questions évaluant la
difficulté perçue et la difficulté voulue, nous proposons
une définition opérationnelle de différentes formes de
déficits et mesurons ensuite l'impact de deux stratégies de
remédiation pour les réduire. Les résultats soulignent la
possibilité d'étayer les compétences d'apprentissage
autorégulé dans une application Web dès le plus jeune
âge, tout en apprenant une autre compétence.
MOTS CLÉS : Apprentissage
autorégulé, Big data, fouille de données éducatives,
école primaire, apprentissage de la lecture. |
Detection and remediation of self-evaluation and self-efficacy deficits in an ITS |
|
ABSTRACT : Research
shows that the ability to self-regulate one's learning has a significant
positive impact on academic outcomes. Here, we present a study to detect some
self-regulated learning (SRL) deficits for young students, in the context of a
web-based literacy application. Based on the responses from 467,116 student to
questions assessing perceived and desired difficulty, we propose an operational
definition of different forms of deficits and then measure the impact of two
remediation strategies to address them. The results demonstrate that scaffolding
SRL skills in a web-based application at an early age, while learning another
skill, is indeed possible.
KEYWORDS : Self-regulated
learning, Big data, educational data mining, primary school, reading
learning. |
1. Introduction
L'apprentissage
autorégulé (AAR) est un cycle en trois phases qui se
répète à chaque nouvelle tâche à laquelle
l'apprenant est confronté (Zimmerman, 2008).
Zimmerman identifie la phase d'anticipation pendant laquelle l'apprenant se
prépare à la tâche (par ex. choix d'objectifs
d'apprentissage ou activation de connaissances antérieures relatives
à la tâche), puis la phase de performance pendant laquelle
l'apprenant exécute la tâche et où il poursuit ses
progrès vers son objectif d'apprentissage, et enfin, la phase
d'autoréflexion qui consiste notamment à évaluer son
efficacité d'apprentissage afin de tirer des conclusions pour
l'apprentissage futur.
L'amélioration des compétences des enfants en matière
d’AAR est essentielle pour améliorer les performances scolaires car
les élèves autorégulés savent globalement mieux
comment apprendre, ce qui peut avoir un impact positif dans toutes les
disciplines (Zimmerman, 2008).
Plus les enfants commencent à développer ces compétences
tôt, plus l'impact sur l'ensemble de leur scolarité peut se faire
sentir. Ainsi, des programmes de formation à l'autorégulation pour
les élèves de l'école primaire ont déjà
été élaborés dans ce but (Dignath et al., 2008).
Néanmoins, il peut être difficile pour les enseignants de se
concentrer sur l'aide individualisée à apporter à chaque
élève, à la fois sur la tâche à accomplir (par
exemple, apprendre à lire) et sur leurs compétences
d'autorégulation. Il serait donc préférable que cet
apprentissage puisse se faire de manière transverse, en parallèle
de l’acquisition des compétences du socle commun.
Nous nous concentrons ici sur la phase d'autoréflexion qui permet de
travailler les compétences d'autorégulation sans interférer
avec la tâche à accomplir. Dans ce contexte, nous visons plus
particulièrement deux aspects : l'auto-évaluation qui
concerne les jugements relatifs à sa propre performance (Schunk, 1996) et
l'auto-efficacité qui concerne les réactions à ces
jugements et la perception de ses propres compétences à accomplir
une tâche (Bandura, 2010).
En effet, l'amélioration du sentiment d'auto-efficacité est
corrélée avec des gains d'apprentissage accrus (Jackson, 2002) et l'auto-évaluation est un processus clé de
l'autorégulation (Schunk et Zimmerman, 2012).
De plus, l'auto-évaluation est une capacité qui se
développe progressivement, mais dont peuvent déjà disposer
des jeunes enfants dès l’âge de 5 ans (Stipek et al., 1992),
tout comme l'auto-efficacité dans des domaines liés à
l'apprentissage de l'écriture (Kim et Lorsbach, 2005).
Lalilo est l'une des nombreuses applications accessibles en ligne
utilisées par les enseignants en classe pour les aider à mettre en
place une pédagogie différenciée lors de
l’apprentissage de la lecture – pour d’autres
applications soutenant l’apprentissage de la lecture en français,
voir par exemple Ecalle et al. (Ecalle et al., 2016).
Elle est actuellement utilisée par 40 000 classes de maternelle et
élémentaire anglophones et francophones chaque semaine pour
renforcer l'alphabétisation en proposant une série d'exercices
adaptés au niveau des élèves, tout en offrant à
l'enseignant un tableau de bord pour suivre les activités et les
progrès des élèves. Il s'agit donc d'un terrain d'essai
pertinent pour évaluer puis essayer de corriger les capacités
d'auto-évaluation et d'auto-efficacité. Un défi
supplémentaire est qu'il n'existe à notre connaissance pas
d'études sur l'application de ces approches aux enfants de cet âge
(5-7 ans), d'où le besoin de savoir si l'on peut identifier en contexte
ces phénomènes (pour ensuite tenter d'y remédier) et
estimer correctement leur fréquence (pour savoir quels déficits
viser en priorité).
Plus précisément, nous examinerons quatre questions de
recherche :
- (QR1) Comment mesurer les capacités
d'auto-évaluation et d'auto-efficacité des jeunes
élèves qui apprennent avec une application informatique ?
- (QR2) Les déficits d'auto-évaluation et
d'auto-efficacité sont-ils des problèmes courants pour les jeunes
élèves qui apprennent à lire ?
- (QR3) Peut-on, par un étayage, aider les
élèves à améliorer leur capacité
d’auto-évaluation ?
- (QR4) Une remédiation orale peut-elle aider les
élèves à réduire l’apparition de
déficits d‘auto-évaluation et d’auto-efficacité
précédemment identifiés ?
Dans la suite de cet article, nous commencerons par examiner les travaux
connexes sur la mesure et l'entraînement des capacités d'AAR dans
le cas des jeunes enfants, en particulier dans le contexte
d’environnements informatiques pour l’apprentissage humain (EIAH).
En section 3, nous présenterons le fonctionnement de l’application
d’apprentissage de la lecture Lalilo, l'intégration des
évaluations des compétences d’auto-évaluation et
d’auto-efficacité ainsi que les déficits
d'autorégulation détectés et leur fréquence. En
section 4, nous présenterons les étayages et rétroactions
et discuterons de leur impact sur la fréquence des déficits
détectés. Enfin, nous conclurons et présenterons les
perspectives de ce travail en section 5.
2. Travaux connexes
Dans le contexte de l'apprentissage sur ordinateur,
l'autorégulation de l’apprentissage peut être soutenue par
différents types d'étayages (scaffolding) (Azevedo et Hadwin, 2005) comme des invites (prompts) (Bouchet et al., 2016) ou des rétroactions (feedback) automatisées (Bimba et al., 2017) ;
une méta-analyse des dispositifs informatiques mis en place
jusqu'à 2016 pour aider l'autorégulation de l'apprentissage montre
leur effet positif significatif sur la progression (Zheng, 2016).
Cependant, ces aides à l’autorégulation sont incluses dans
des logiciels pour des élèves plus âgés
(au-delà du CM2) ; elles soutiennent l’autorégulation
uniquement pendant la phase de performance ; enfin la mesure
utilisée est celle de la progression dans la tâche cognitive
soutenue ou non, et non la progression des capacités
d'autorégulation elles-mêmes. En effet, l'autorégulation de
l’apprentissage est surtout vue comme soutenant l'apprentissage,
plutôt que comme une compétence à évaluer et à
entraîner en tant que telle. Dans cet article, nous envisageons un autre
angle : celui de la mesure directe de capacités d'AAR et de
l’amélioration de celles-ci.
Pour mesurer ces capacités, on a parfois recours – hors
cadre informatique – à des journaux d'apprentissage
(learning diaries) (Schmitz et Perels, 2011),
car les traces de systèmes informatiques sont souvent difficiles à
interpréter en matière d'autorégulation (Molenaar et al., 2019).
Comme précédemment mentionné, des programmes
d'entraînement à l'autorégulation de l’apprentissage
ont montré leur effet positif significatif chez des enfants à
l’école primaire, mais ces travaux ont été
menés en dehors d’un contexte informatique (Dignath et al., 2008).
D'autres, comme MetaTutor, mesurent et entraînent l'autorégulation
mais pour des étudiants du supérieur (Azevedo et al., 2012).
De plus, une des conclusions d’Azevedo et al. souligne la
nécessité d'un temps long pour mesurer un impact, d'où la
pertinence de mesurer l'autorégulation dans un logiciel tel que Lalilo
utilisé pendant une, voire plusieurs années scolaires (de la
Grande Section au CE1 c’est à dire de 5 à 7 ans). Le travail
de recherche mené par Molenaar et al. (Molenaar et al., 2020) vise à entraîner les capacités d'autorégulation
d'élèves de CM2 via des tableaux de bord. Les auteurs montrent une
amélioration des capacités d'autorégulation des
élèves ayant accès au tableau de bord, notamment par
l'usage de la forme des Moment by Moment Learning Curves – une
courbe représentant la progression de l’élève au
cours du temps, démontrant ainsi également qu'on peut mesurer
l'autorégulation chez des enfants assez jeunes avec une approche
informatique. Ils proposent ainsi une métrique basée sur les
courbes d'apprentissage.
L'auto-évaluation est définie comme la capacité
à évaluer correctement ses performances. Elle permet à un
élève de comparer la représentation de sa performance avec
les résultats attendus avant l'exercice, et de réagir pertinemment
à sa performance. La sous-évaluation peut empêcher un
élève d'obtenir une récompense intrinsèque lorsqu'il
a bien réussi un exercice sans en être conscient, et donc ralentir
indirectement ses progrès. La surévaluation peut également
avoir des effets négatifs en incitant une personne à essayer des
exercices plus difficiles sans avoir encore maîtrisé les exercices
faciles, augmentant ainsi le risque d'échecs futurs. L'objectif pour un
apprenant est d'être capable de s'autoévaluer correctement avec
aussi peu d'informations que possible sur sa performance dans la tâche,
c'est-à-dire d'internaliser le processus d'auto-évaluation avec
aussi peu d'échafaudage externe que possible. Dans la littérature,
l'auto-évaluation a été étudiée comme la
possibilité pour les élèves de se noter eux-mêmes (Brown et al., 2015) ou comme une métrique qualitative pour soutenir la motivation des
élèves (Chang, 2005).
Nous avons ici une autre perspective, en nous concentrant sur la capacité
à s'autoévaluer, c'est-à-dire en s'assurant que la
performance d'un élève sera proche de la représentation
qu'il s'en fait, afin que l'élève soit conscient de son
véritable niveau.
L'auto-efficacité est définie par la façon dont
une personne réagirait à sa performance ou à la
représentation de sa performance en termes de confrontation à la
difficulté (Dweck, 2014). Des
recherches antérieures (Hattie et Clarke, 2018) font référence aux trois zones qu'une enseignante d'école
primaire utilisait avec ses élèves : la zone de confort, la
zone d'apprentissage et la zone de panique. Le fait de demander à ses
élèves de réfléchir à la zone dans laquelle
ils se trouvaient après avoir abordé un exercice a
entraîné : (a) une diminution du nombre d'élèves
choisissant volontairement des exercices faciles parce qu'ils seraient capables
d'en faire beaucoup et (b) une augmentation du nombre d'élèves
déclarant qu'ils ne feraient pas de progrès s'ils avaient des
exercices trop faciles. Par conséquent, demander aux élèves
de réfléchir à la difficulté des exercices qu'ils
abordent semble pertinent pour améliorer leur auto-efficacité.
Certains travaux ont déjà tenté d'évaluer l'effet
des invites d'autorégulation pour montrer leurs effets positifs sur
l'auto-efficacité (Schmitz et Wiese, 2006).
Par exemple, Müller et Seufert (Müller et Seufert, 2018) ont montré que poser des questions d’autorégulation à
des étudiants universitaires avait un impact immédiat qui ne se
transférait pas dans le temps. Hoffman et Spatariu (Hoffman et Spatariu, 2008) ont également montré un impact positif des invites sur
l'auto-efficacité, mais avant l'accomplissement de la tâche, et a
mesuré l'impact sur la performance plus que sur l'auto-efficacité
elle-même. Plus généralement, une méta-analyse (Panadero et al., 2017) a montré qu’encourager l'auto-évaluation des apprenants a un
impact positif sur leur auto-efficacité.
3. Évaluer l’auto-évaluation et
l’auto-efficacité des élèves
3.1. Contexte
Le logiciel d’apprentissage de la lecture
Lalilo possède deux interfaces : une interface élève
dans laquelle l'élève répond à des exercices et un
tableau de bord enseignant sur lequel ce dernier peut visualiser la progression
de ses élèves (non présenté ici). Cet outil
étant destiné aux élèves de 5 à 7 ans, il
dispose d'une interface volontairement facile à prendre en main. Les
consignes sont données à l’oral (et non écrites) et
réécoutables. L'application couvre une grande
variété d'exercices sur un champ de difficulté
étendu, allant de la maternelle avec des exercices d'association
graphèmes-phonèmes, jusqu'à des exercices de conjugaison et
de vocabulaire pour les CE1-CE2. La figure 1 fournit deux exemples
d’exercices, l’un où l’élève doit trier
des mots en fonction de leur champ sémantique (gauche) et l’autre
où il doit relier un son à la lettre correspondante (droite).
Figure 1 • Exemples d’exercices
dans Lalilo en français
Le déroulement typique d'une session (figure 2) est la
réalisation par l'élève d'une quinzaine d'exercices courts
de 3 à 7 questions chacun, choisis par un algorithme d'apprentissage
adaptatif (non détaillé ici). Pour certains types d'exercices,
l'élève peut essayer plusieurs fois de répondre à la
même question jusqu’à obtenir la bonne réponse. Les
énoncés d’autorégulation (décrits en
détail dans les parties suivantes) sont déclenchés avec une
probabilité fixée (ici 1/15).
Figure 2 • Session type d'un
élève sur Lalilo (durée moyenne : 20 minutes)
Les activités des élèves (par exemple : connexion,
temps passé sur une question/un exercice, erreurs) sont tracées.
Dans cet article, nous nous concentrerons particulièrement sur les
réponses des élèves à un exercice, nous appellerons
donc, à partir de maintenant, « trace » uniquement les réponses à cet ensemble de questions du même
type.
3.2. Méthodes
Pour évaluer certains aspects des compétences
d'autorégulation des élèves, nous avons introduit deux
énoncés (figure 3) affichés l'un après l'autre
à la fin d'un exercice à la fréquence Freqautoreg d'une fois tous les quinze exercices (Bannert et Reimann, 2012).
Chaque élève y répond donc en moyenne une fois pendant une
session d'apprentissage type. Quand ils sont affichés, la réponse
aux deux énoncés est obligatoire. Une fois qu'une réponse
est sélectionnée, un bouton de confirmation s'affiche
dessous : par exemple, à droite de la figure 3,
l'élève a sélectionné « de même
niveau ».
Figure 3 • Énoncés
d’autorégulation demandant la difficulté perçue
(gauche) puis la difficulté voulue (droite).
Tout d'abord, l'énoncé de difficulté
perçue demande à l'élève :
« Quelle était la difficulté de cet exercice pour
toi ? ». Ensuite, l'élève doit
compléter l'énoncé de difficulté
souhaitée « Tu voudrais des
exercices... ». L'énoncé de difficulté
perçue vise à mesurer la capacité d'auto-évaluation
des élèves, c'est-à-dire leur capacité à
estimer correctement la difficulté des questions auxquelles ils viennent
de répondre. L'énoncé de difficulté souhaitée
vise à mesurer leur sentiment d'auto-efficacité,
c'est-à-dire la façon dont ils réagiraient à leur
propre estimation de la difficulté.
Avant d'introduire les évaluations, nous avons vérifié
qualitativement dans une classe utilisant Lalilo que les énoncés
étaient compris par les élèves de CP. Les
élèves interagissaient avec le logiciel normalement pendant qu'un
expérimentateur était assis derrière eux et observait leur
réaction devant les deux questions. Ensuite une discussion permettait de
tester leur compréhension du concept de
« difficulté ». Bien qu'informel et sur un
échantillon réduit, ce travail a permis de vérifier que les
énoncés compris par les élèves ne
présentaient pas de décalage par rapport à l'intention
sous-jacente. Elle a aussi permis de choisir la formulation la plus claire pour
les élèves lorsque plusieurs options étaient
envisagées (détails non présentés ici).
Nous avons recueilli des traces de classes de maternelle, de CP et de CE1
basées en France, au Canada et aux États-Unis apprenant le
français (FR) ou l'anglais (EN) entre le 1er août et le
26 octobre 2020 sur la plateforme Lalilo. Cette période correspond
à un moment où les élèves se trouvaient
principalement dans les classes et non à la maison.
Nous n'avons conservé que les traces dans lesquelles les questions
d'autorégulation avaient été posées et nous allons,
jusqu’à nouvel ordre, appeler trace l'ensemble regroupant les
réponses à l'exercice et les réponses associées aux
énoncés d'autorégulation.
Nous avons limité les sources potentielles de biais dans nos
données en identifiant plusieurs phénomènes pouvant les
biaiser, notamment :
- insuffisance de réponses aux énoncés
d'autorégulation pour un élève donné ;
- ignorance ou incompréhension des questions par les
élèves, ce qui devrait entraîner une tendance à
répondre presque au hasard, puisqu'il est impossible de sauter les
énoncés d'autorégulation ou de ne pas y
répondre.
Pour le premier point, nous avons filtré les élèves
ayant eu moins de Nmin = 12 réponses aux
énoncés d'autorégulation. En effet, observer des
déficits établis nécessite de mesurer suffisamment de
données par élève. Ce seuil peut sembler
élevé : il est probable qu'un élève
présentant 5 fois un même déficit sur des questions puisse
être raisonnablement considéré comme présentant ce
déficit d'autorégulation. Néanmoins, ce choix conservateur
renforce la certitude du diagnostic quand il est posé, et limite donc le
nombre de faux positifs.
En ce qui concerne le deuxième point, nous avons supprimé les
élèves semblant répondre au hasard. Pour déterminer
si une réponse implique une part de hasard, nous considérons que
deux combinaisons de réponses sont particulièrement
incohérentes (tableau 1). Nous considérons qu'un
élève répond potentiellement au hasard si les deux combinaisons de réponses incohérentes apparaissent au
moins une fois dans ses traces. Là encore, ce choix est conservateur
(un élève peut commettre une erreur une fois sans que cela soit
significatif d'une tendance à répondre au hasard) et a vocation
à limiter le nombre de faux positifs.
Tableau 1 • Labellisation des
réponses potentiellement incohérentes
difficulté perçue |
difficulté voulue |
trop facile |
plus facile |
trop difficile |
plus difficile |
Figure 4 • Filtrage des
élèves
L'impact des 2 filtrages est résumé sur la figure 4 : le
filtre le plus important est le premier qui divise par 8 en anglais et par 18 en
français la taille de l'échantillon initial. Toutefois cela ne
signifie pas une incapacité à identifier des déficits chez
les élèves exclus par le filtrage. On pourrait en effet :
- soit abaisser le seuil de 12 (élevé, comme
susmentionné),
- soit étendre la période de collecte (2 mois
actuellement) pour qu'ils aient répondu 12 fois aux 2 questions, ce qui
devrait arriver à tout élève utilisant
régulièrement Lalilo,
- soit augmenter la fréquence de prompt
(Freqautoreg = 1 / 15 actuellement).
3.3. Caractérisation des déficits
Nous rappelons que, dans notre contexte, les traces considérées sont celles produites lorsqu'un exercice (trois
à sept questions du même type) est suivi des deux
énoncés d'autorégulation. Une trace enregistre donc les
réponses à chaque question de l'exercice, ainsi qu'aux deux
énoncés d'autorégulation. On peut alors calculer le taux de
réussite d'une trace, défini comme le nombre de réponses
correctes sur le nombre total de questions de la trace. Comme pour certains
types d'exercices, l'élève peut répondre plusieurs fois
(parfois avec des indications fournies entre les essais), nous ne prenons en
compte que la première réponse pour le calcul du taux de
réussite. À partir du taux de réussite, nous pouvons
déterminer un libellé de performance d'une trace avec l'une
des trois valeurs suivantes :
- Excellente : si la proportion de réponses correctes
est supérieure ou égale à un seuil Perf+ que l’on a choisi de fixer ici à 100 % ;
- Mauvaise : si la proportion de réponses correctes est
inférieure ou égale à un seuil Perf- fixé ici à 34 % ;
- Moyenne : si Perf ∈ ] Perf- , Perf+ [.
Nous avons choisi un seuil de 34 % pour Perf-, de
sorte que les traces qui n'ont qu'une seule bonne réponse sur 3 soient
considérées comme faibles. En effet, pour un questionnaire
à choix unique avec 3 réponses possibles, la probabilité
attendue de réussite aux questions est toujours d'au moins 1/3, ce qui
signifie que les élèves ayant un taux de réussite d'1/3 ou
moins n'obtiennent pas de meilleurs résultats que le hasard. Il convient
également de noter que le seuil Perf+est, ici encore,
assez conservateur, car un élève qui a répondu correctement
à 6 questions sur 7 pourrait être considéré comme
ayant également de très bonnes performances.
Figure 5 • Caractérisation des
déficits d'auto-évaluation et d'auto-efficacité
Notre objectif est de comparer la performance réelle d'un
élève avec la difficulté qu'il a perçue, puis sa
difficulté perçue – qui est une représentation
subjective – avec la difficulté qu'il aimerait avoir pour les
prochains exercices (figure 5). En effet, la comparaison entre la
difficulté souhaitée et la performance réelle peut ne pas
être pertinente si les élèves sont biaisés dans leur
perception de leur performance réelle ou dans la difficulté de la
tâche. À partir de la différence entre leur performance et
leur perception de la difficulté, on en déduit un libellé d'auto-évaluation (tableau 2). Ensuite, à
partir de la différence entre la difficulté perçue et la
difficulté souhaitée, on en déduit un libellé
d'auto-efficacité (tableau 3).
Tableau 2 • Libellés
d’auto-évaluation
Libellé de performance |
Difficulté perçue |
Libellé d’auto-évaluation |
excellente |
trop difficile |
sous-évaluation |
excellente |
bien |
légère sous-évaluation |
excellente |
trop facile |
cohérent |
mauvaise |
trop difficile |
cohérent |
mauvaise |
bien |
légère surévaluation |
mauvaise |
trop facile |
surévaluation |
Tableau 3 • Libellés
d’auto-efficacité
Difficulté perçue |
Difficulté voulue |
Libellé d’auto-efficacité |
trop difficile |
plus facile |
cohérent |
trop difficile |
de même niveau |
élevé |
trop difficile |
plus difficile |
très élevé |
bien |
plus facile |
faible |
bien |
de même niveau |
cohérent |
bien |
plus difficile |
élevé |
trop facile |
plus facile |
très faible |
trop facile |
de même niveau |
faible |
trop facile |
plus difficile |
cohérent |
Dans la perspective d'apporter une remédiation aux déficits
présentés, il est nécessaire d'introduire une notion de
priorité entre les déficits, car un élève peut avoir
un déficit d'auto-évaluation et d'auto-efficacité. On
introduit donc un libellé supplémentaire – le
libellé de déficit global – dont l'intérêt
est d'être orienté vers le feedback à donner (à
l'élève ou à l'enseignant). Nous pensons qu'il est d'abord
nécessaire de résoudre les éventuels déficits
d'auto-évaluation avant de résoudre les déficits
d'auto-efficacité. Ainsi, si le libellé d'auto-évaluation
de la trace montre un déficit d'auto-évaluation, alors le
déficit global de la trace est ce déficit d'auto-évaluation
(tableau 4). En effet, nous avons estimé que la difficulté
souhaitée n'était pas pertinente si les élèves
n'avaient pas une représentation correcte de la difficulté de
l'exercice qu'ils venaient de résoudre. Ce choix limite notre
intervention à essayer de résoudre un déficit à la
fois, plutôt que de s'attaquer à deux déficits potentiels
à la fois.
Tableau 4 • Triplets de traces
libellés comme ayant un déficit
Libellé de performance |
Difficulté perçue |
Difficulté voulue |
Libellé de déficit global |
excellente |
trop difficile |
toute |
sous-évaluation |
excellente |
bien |
toute |
légère sous-évaluation |
mauvaise |
trop facile |
toute |
surévaluation |
mauvaise |
bien |
toute |
légère surévaluation |
excellente |
trop facile |
plus facile |
évitant la difficulté |
excellente |
trop facile |
de même niveau |
évitant la difficulté |
mauvaise |
trop difficile |
plus difficile |
cherchant la difficulté |
mauvaise |
trop difficile |
de même niveau |
cherchant la difficulté |
S'il n'y a pas de déficit d'auto-évaluation, mais que le
libellé d'auto-efficacité montre un certain déficit, alors
deux nouveaux libellés peuvent apparaître :
« évitant la difficulté » et
« recherchant la difficulté ».
Comme nous avons défini la labellisation des traces, nous pouvons
maintenant considérer l'ensemble des N traces d'un
élève telles que N ≥ Nmin. Notre objectif
est alors de détecter certaines tendances dans les réponses de
l'élève afin de caractériser globalement son profil
d'autorégulation de l’apprentissage.
Un algorithme (figure 6) est utilisé pour déterminer si un
élève donné sera labellisé comme ayant un
déficit ou non. Il dépend de deux paramètres : FrDefmin la fréquence minimale d'un libellé de
déficit dans les traces et NDefmin le nombre minimum de
traces devant présenter un déficit pour labelliser
l'élève avec ce déficit. Ces deux paramètres sont
nécessaires pour caractériser uniquement les élèves
ayant un déficit marqué (FrDefmin) et limiter
les faux positifs qui auraient le déficit dans leurs traces par hasard
(NDefmin).
Figure 6 • Algorithme de
détection des déficits
Sur la base du nombre de libellés de déficit
d'autorégulation d'un élève (tableau 4) et du nombre de
performances faibles et excellentes de l'élève, le déficitRatio est le rapport entre le nombre de
réponses labellisées comme ayant un déficit et le nombre de
performances associées :
« surévaluation » et « cherchant la
difficulté » sont liées à de mauvaises
performances tandis que « sous-évaluation » et
« éviter la difficulté » sont liées
à d'excellentes performances.
Nous avons choisi les seuils du déficitRatio pour
qu’un déficit soit considéré présent lorsque
sa fréquence est supérieure à 50 % avec au moins deux
occurrences du déficit c'est-à-dire NDefmin = 2 et FrDefmin = 50 %. Ces valeurs sont bien
supérieures au choix aléatoire qui est de 33 % (puisque trois
réponses sont proposées sur chaque énoncé) et nous
voulions exclure les erreurs ponctuelles des élèves.
3.4. Résultats
Le tableau 5 résume nos résultats. Nous rappelons que le choix
de nos différents seuils (Perf+ = 100 %,
Perf- = 34 %, NDefmin = 2 et FrDefmin = 50 %) est assez conservateur, de
sorte que nous détectons probablement moins de déficits qu'il n'y
en a en réalité. Nous avons défini deux possibilités
de calcul des déficits de surévaluation et de
sous-évaluation. Pour le calcul de la première valeur de ces
déficits dans le tableau, seules les traces marquées comme
« surévaluation » et
« sous-évaluation » dans le tableau 4 sont
incluses ; tandis que pour la valeur entre parenthèses, les traces
marquées comme « légère
sous-évaluation » et « légère
surévaluation » sont également incluses. Cela nous
permet d'avoir une estimation des limites inférieure et supérieure
pour chacun de ces deux déficits. Les trois déficits les plus
fréquents correspondent à trois des quatre déficits
définis dans la section 3.3 :
« surévaluation », « évitant la
difficulté » et « sous-évaluation ».
L'ordre entre les trois varie si l'on tient compte des libellés
« légère surévaluation » et
« légère sous-évaluation ». En effet,
la limite supérieure de la prévalence de la sous-évaluation
est supérieure à 25 % pour les élèves
francophones (FR) et anglophones (EN), ce qui suggère qu'un nombre
important d'élèves se sous-évaluent dans une certaine
mesure. Le quatrième schéma le plus fréquemment
détecté concerne les élèves qui présentent
à la fois des déficits de « évitant la
difficulté » et de
« surévaluation ». Bien que contradictoires à
première vue, en regardant les triplets de traces associés
à ces deux déficits dans le tableau 4, on remarque qu'ils sont
associés à une difficulté perçue « trop
facile ». Nous supposons donc que les élèves
labellisés comme ayant ces deux déficits ne comprennent pas
correctement les énoncés d'autorégulation, mais cliquent
toujours sur « trop facile » ; de même, pour le
sixième déficit le plus fréquemment détecté
(« cherchant la difficulté -
sous-évaluation »), où nous supposons que ces
élèves cliquent toujours sur « trop
difficile ».
Tableau 5 • Pourcentage global
d’élèves ayant un ou plusieurs déficits (un
élève ne pouvant appartenir qu’à une seule
ligne)
Déficit(s) |
EN % (12 058 élèves) |
FR % (3 183 élèves) |
pas de déficit détecté |
72,1 % (42,5 %) |
63,1 % (38,4 %) |
surévaluation |
8,9 % (10,2 %) |
9,8 % (13,6 %) |
évitant la difficulté |
8,6 % |
12,4 % |
sous-évaluation |
5,2 % (32,6 %) |
5,3 % (26,2 %) |
évitant la difficulté – surévaluation |
3,6 % |
4,4 % |
cherchant la difficulté |
1,6 % |
3,2 % |
cherchant la difficulté – sous-évaluation |
0,5 % |
1,0 % |
autres combinaisons |
0,4 % |
0,8 % |
Enfin, les autres combinaisons de déficits dans la
dernière ligne du tableau 5 représentent très peu
d’élèves. Les triplets de réponses associés
forment des combinaisons incohérentes, ce qui pourrait correspondre
à des élèves répondant de manière
aléatoire, mais non éliminés par le filtrage initial.
L’ordre de prévalence des déficits est assez similaire
chez les élèves FR et EN. La fréquence des réponses
« évitant la difficulté » et
« cherchant la difficulté » est plus
élevée chez les élèves FR. Cela pourrait indiquer
que les élèves FR et EN ont des capacités
d’auto-évaluation comparables, mais que les élèves FR
ont plus de difficultés à se positionner par rapport à la
difficulté attendue. Bien que ce résultat puisse être
lié à des approches pédagogiques différentes, nous
restons prudents car il pourrait y avoir des biais liés aux
différences de didactique des langues (la structure didactique de la
version française du logiciel a été conçue par des
experts français et la structure didactique de la version anglaise a
été conçue par des experts américains, ce qui peut
conduire à une utilisation différente du logiciel) et au profil
des utilisateurs (âge, fréquence d’utilisation, proportion
d’élèves à besoins particuliers, nombre
d’élèves par classe, maîtrise des outils
informatiques) selon la langue utilisée.
Ces résultats montrent la possibilité de détecter de
manière fiable des déficits d’auto-évaluation et
d’auto-efficacité chez de jeunes élèves,
répondant ainsi à la question de recherche 1 (comment mesurer les
capacités d'auto-évaluation et d'auto-efficacité des jeunes
élèves qui apprennent avec une application
informatique ?).
De plus, ils permettent d’établir une estimation de la
fréquence de ces différents phénomènes,
répondant ainsi à la question de recherche 2 (les déficits
d'auto-évaluation et d'auto-efficacité sont-ils des
problèmes courants pour les jeunes élèves qui apprennent
à lire ?). Les fréquences relativement importantes
détectées – bien que les fréquences
réelles puissent différer, du fait du filtrage important pour les
traces qui ont été traitées - suggèrent
qu’il serait nécessaire d’essayer de remédier à
ces déficits, validant ainsi l’intérêt des questions
de recherche 3 et 4.
3.5. Discussion et limites
Pendant un exercice, un élève répond à des
questions de niveaux similaires et proches temporellement (une minute en moyenne
par exercice), chaque exercice possédant une consigne qui est
énoncée oralement avant un groupe de questions. Lorsque l’on
donne l’énoncé de difficulté perçue à
l’issue d’un exercice, un élève répond à
la question « quelle était la difficulté de cet exercice
pour toi ? » en fonction de sa représentation de la
difficulté de l’exercice et donne ainsi une indication sur sa
capacité à s’autoévaluer. Ainsi, le
« libellé d’auto-évaluation » porte bien
un nom correspondant à ce qu’il est censé
caractériser. En revanche, le « libellé
d’auto-efficacité » porte un nom nécessitant une
justification. En effet, Masson et Fenouillet (Masson et Fenouillet, 2013) ont conçu une échelle (figure 7) pour mesurer le sentiment
d’efficacité personnelle chez des élèves de CM2
(10-11 ans). Elle se présente sous la forme d’une échelle de
Likert contenant des affirmations pour lesquelles les élèves
doivent exprimer dans quelle mesure ils sont d’accord (de « pas
du tout vrai » à « totalement vrai ») et ce
avec six niveaux de réponse.
Figure 7 • Échelle du sentiment
d’efficacité personnelle (SEP) scolaire (Masson et Fenouillet, 2013)
Les auteurs montrent que le SEP est différent selon le contexte
(mathématique, français ou général) et que les
réponses à ce questionnaire sont relativement
corrélées à la performance réelle des
élèves. La question posée dans le logiciel « Tu
voudrais des exercices... plus faciles, de même niveau, plus
difficiles » est indirectement liée à la capacité
de l’élève à vouloir les résoudre, là
où l’échelle proposée par (Masson et Fenouillet, 2013) demande à l’élève d’exprimer explicitement leur
accord ou non avec des affirmations telles que « Même si
c’est très difficile, j’essaie plusieurs fois d’y
arriver ». La question de difficulté voulue ne porte pas
directement sur cette capacité et l’élève pourrait
cocher « plus difficiles » pour voir d’autres types
d’exercices. Plusieurs critères rentraient en jeu pour le choix de
la question de difficulté perçue :
- l’intelligibilité pour des enfants de 5 à 7
ans,
- l’intégration dans un EIAH,
- le temps passé à répondre aux questions
d’AAR par rapport aux exercices de lecture.
L’intégration dans un EIAH pour des enfants aussi jeunes nous a
conduits à simplifier au maximum les questions et à avoir trois
réponses possibles. Dans ce travail, nous avons fait
l’hypothèse que la répétition de certains motifs de
performance et de réponses aux énoncés d’AAR nous
permet de caractériser des déficits d’autorégulation
corrélés au SEP. Une perspective de ce travail est une
vérification externe de cette corrélation en comparant le SEP
mesuré de manière externe au profil établi dans un EIAH via les questions de difficulté voulue et perçue.
Notre premier objectif était de vérifier la capacité
à proposer une méthode permettant à un logiciel
d’estimer des déficits d’auto-évaluation et
d’auto-efficacité. Comme toute intervention, celle proposée
peut influencer les performances des élèves et leurs
compétences réelles d’autorégulation. Une
première limite est donc liée au compromis nécessaire entre
la valeur du seuil Freqautoreg, fréquence des mesures
et l’impact potentiel des mesures sur l’autorégulation des
élèves. L’équilibre trouvé ici garantit
qu’en général, un élève ne devrait pas
recevoir plus d’un énoncé par session d’apprentissage,
mais nous n’avons pas évalué une éventuelle
« fatigue de l’énoncé » qui peut
conduire à des réponses peu fiables.
Nous nous sommes intéressés à
l’auto-évaluation et l’auto-efficacité, d’une
part car elles ont rarement été étudiées dans le
contexte informatique pour des élèves aussi jeunes et,
d’autre part, parce qu’il était possible de le faire
techniquement avec Lalilo grâce au nombre important d’utilisateurs.
D’autres aspects liés à l’autorégulation, comme
la planification, supposent une maîtrise par l’élève
des compétences à travailler (ce qui n’est pas le cas dans
ce logiciel d’apprentissage de la lecture qui guide
l’élève avec un algorithme d’apprentissage adaptatif).
Nous détectons des réponses aléatoires via des filtres de
pré-analyse afin d'avoir des fréquences de déficit aussi
proches que possible de la réalité. Cependant, nous avons pu
observer a posteriori que des élèves ayant probablement
répondu au hasard sont encore présents (tableau 5) et ont donc pu
affecter la distribution des déficits des élèves. Nous
avons également obtenu des déficits inattendus
(répétition de réponses « trop facile »
ou « trop difficile » à la difficulté
perçue) : des analyses supplémentaires seraient
nécessaires avant de classer les élèves dans une
catégorie, si une intervention automatique ou semi-automatique
était ensuite déclenchée sur la base de ce classement.
Une limite potentielle de ce travail est liée à la valeur des
seuils. Dans notre méthode, nous avons identifié cinq
paramètres (Nmin, Perf+, Perf-,
FrDefmin et NDefmin) qui correspondent à
différentes valeurs seuils. Nous avons essayé différents
seuils pour le marquage des élèves sans impact sur la
fréquence relative des déficits, bien qu'elle varie en valeur
absolue (résultats non reportés ici). Les seuils choisis sont une
fréquence du déficit minimale de 50 % et un nombre minimum
d’occurrences de 2. Une adaptation précise des seuils devra
garantir la sensibilité et la spécificité des
déficits détectés, ainsi que le marquage des seuls
déficits les plus saillants pour ne pas surcharger le tableau de bord de
l'enseignant.
Bien que l'état de l'art le mentionne, nous n’avons pas
mobilisé la possibilité d’ajouter un tableau de bord. En
effet, ici on s'intéresse uniquement à la mesure, alors
qu’un tableau de bord serait surtout adapté à la
remédiation. De plus, les traces d'un élève liées
à son autorégulation sur un tableau de bord se heurtent à
une forte difficulté d’interprétation, surtout chez de
jeunes enfants. Nous essayons ici d’avoir une méthode de mesure des
déficits la plus objective possible.
3.6. Généralisation de la méthode
Les sections précédentes ont présenté une
méthode permettant de mesurer chez un élève la
présence de déficits d’auto-évaluation et
d’auto-efficacité. On peut généraliser cette
méthode à tout EIAH en introduisant des questions portant sur
l’autorégulation de l’apprentissage adaptées à
l’âge de l’élève (Molenaar et al., 2020).
La figure 8 représente le potentiel diagramme de séquence dans
un tel EIAH. Celui d’un élève cliquant sur
« jouer » dans Lalilo est le même excepté la
partie en orange, car le modèle de recommandation des exercices dans
Lalilo n’utilise pas encore les réponses aux questions d’AAR.
Après que l’élève a répondu aux exercices
liés au domaine d’apprentissage, un modèle détermine
la pertinence de donner des questions liées à l’AAR en
fonction de ses réponses à l’exercice et de ses
réponses précédentes aux questions d’AAR. Si la liste
de questions retournées n’est pas vide, celles-ci sont
données à l’élève. En fonction des
réponses à ces nouvelles questions et du profil passé
d’AAR, le modèle détermine la rétroaction liée
à l’AAR à donner.
Figure 8 • Diagramme de
séquence envisageable pour un EIAH souhaitant ajouter des questions
d’AAR et utiliser le profil d’AAR pour la recommandation des
exercices
4. Étayage et remédiation des déficits
Dans cette seconde étude, on ne vise plus
seulement à mesurer, mais à tenter de corriger certains
déficits identifiés, tout d’abord à l’aide
d’étayage de type indice (hint) via une jauge ou un
enregistrement audio (section 4.2), puis d’une rétroaction via un
message audio donné après la réponse aux
énoncés d’autorégulation (section 4.3).
4.1. Collecte des données
Dans les deux cas, nous travaillons sur un nouvel ensemble de traces
provenant de classes de maternelle, de CP et de CE1 basées en France, au
Canada et aux États-Unis apprenant en français (FR) ou en anglais
(EN) entre le 18 janvier et le 8 avril 2021 sur la plateforme Lalilo.
Nous n'avons conservé que les traces pour lesquelles les
élèves avaient répondu aux énoncés
d'autorégulation (soit en moyenne 1/15e de toutes les traces) et nous
appelons ci-après « traces » les réponses
à l'exercice avec les réponses associées aux
énoncés d’autorégulation.
4.2. Impact d’une jauge ou d’un enregistrement audio pendant la
réponse aux questions d’auto-évaluation
4.2.1. Méthodes
Pour répondre à notre troisième question de recherche
sur la façon dont l'étayage peut aider les élèves
présentant des déficits d'auto-évaluation, nous nous sommes
concentrés sur les déficits impliquant uniquement
l'auto-évaluation, c'est-à-dire uniquement les quatre
premières lignes du tableau 4. Afin de mesurer l'impact des indices
visuels sur les réponses à l'énoncé de
difficulté perçue (énoncé d'auto-évaluation),
les élèves ont reçu au hasard l'un des deux visuels pour
les énoncés : un visuel similaire aux énoncés
initiaux (figure 9 gauche) et un autre avec une jauge supplémentaire
affichant le nombre de réponses correctes et incorrectes dans l'exercice
précédent (figure 9 droite). Il n’y a donc pas ici de groupe
de contrôle puisqu’un même élève pouvait parfois
voir la jauge et parfois non.
Figure 9 • Énoncés
d’auto-évaluation sans et avec étayage visuel
En outre, afin de mesurer l'impact des indices auditifs, les
élèves ont reçu de manière aléatoire un
enregistrement audio indiquant leur nombre de réponses correctes et le
nombre total de réponses dans leur dernier exercice : par exemple,
« Dans le dernier exercice, tu as eu trois bonnes réponses sur
quatre questions ». Cette phrase est lue au lieu d'être
affichée, parce que les jeunes élèves peuvent ne pas
être capables de bien la lire. Pour la même raison, chaque texte
affiché sur les captures d'écran est également lu à
haute voix à l'élève, et il peut demander à
réentendre la question en utilisant le bouton en haut à droite. Le
choix de modalités alternatives est donc uniquement dû au public
particulier (jeunes lecteurs qui ne sont pas nécessairement encore
totalement autonomes), et non à une hypothèse sur les styles
d'apprentissage qui sont qualifiés de neuromythe par un certain nombre de
chercheurs (Newton, 2015).
Dans l'ensemble, lorsqu'un élève recevait un message
d'auto-évaluation, il était assigné au hasard dans l'une
des quatre conditions suivantes : (a) pas de jauge et pas d'enregistrement
audio (condition de contrôle), (b) jauge et pas d'enregistrement audio,
(c) pas de jauge mais enregistrement audio, (d) jauge et enregistrement
audio.
Ces indices visuels et audios peuvent être vus par les
élèves à la fois comme une rétroaction suite
à leur performance aux questions de lecture et comme un étayage de
type « indice » pour les aider à répondre aux
questions d’autorégulation. Nous avons choisi le terme
d’étayage de type indice, car nous nous plaçons dans la
perspective de la réponse à ces questions
d’autorégulation et non de la réponse aux exercices de
lecture. Notre hypothèse était que les étayages visuels ou
audios pouvaient soutenir plus ou moins efficacement l'auto-évaluation
des élèves.
4.2.2. Résultats
Nous avons utilisé le logiciel JASP pour nos analyses statistiques (JASP Team, 2022).
Comme nous comparions des fréquences d’apparition d’un
comportement dans deux versions différentes, nous avons utilisé le
module d’A/B test bayésien décrit dans Gronau et al. (Gronau et al., 2020) avec ses valeurs par défaut. En effet, la mauvaise interprétation
de p-values peut conduire à de mauvaises décisions (Robinson, 2019).
Dans la présentation des résultats nous utilisons la
probabilité a posteriori de l’hypothèse, sachant les
données. Par exemple dans cet article, P(augmentation|données) > 0.999 signifie que la
probabilité a posteriori que la modalité augmente la
fréquence d’un événement, sachant les données,
est supérieure à 99.9 %.
Dans cette expérience, nous n'avons conservé que la
première réponse des élèves au questionnaire
d'auto-évaluation, afin que nos données ne soient pas
biaisées par les élèves répondant de manière
répétée à l’énoncé
d'auto-évaluation et disposant ou non d'un support visuel ou audio. Cela
nous permet également d'isoler l'effet de la jauge et de l'enregistrement
audio seuls. Nous avons ensuite calculé la distribution du déficit
de réponse à l'aide du tableau 4 en fonction de la présence
de la jauge et de l'enregistrement audio. Les résultats sont
résumés dans les figures 10 et 11. Dans la figure 10 on regarde
l’impact de la présence de jauge (b + d vs. a + c), et dans la figure 11 on regarde l’impact de la
présence de l’audio (c + d vs. a + b).
Pour chaque figure, le diagramme de gauche concerne les excellentes performances
et le diagramme de droite les mauvaises performances.
La figure 10 gauche montre qu’il y a une différence dans la
distribution du déficit de réponse selon qu’il y a un
étayage visuel ou non : les élèves ayant une
excellente performance et ayant une jauge comme support visuel sont moins
susceptibles de montrer une sous-évaluation. La Réduction Absolue
(RA) du nombre d’élèves montrant une sous-évaluation
est de 0.6 %, soit une Réduction Relative (RR) de 8 %
(P(réduction|données) > 0.999). Bien que la
réduction absolue soit très faible, le nombre de traces (plus de
270 000) et le faible pourcentage initial de sous-évaluation fait
que cette réduction permet d’affirmer que la jauge conduit
très probablement à moins de sous-évaluation par les
élèves ayant une mauvaise performance.
La figure 10 droite montre qu’il existe des différences dans la
distribution du déficit de réponse lorsqu'il y a une jauge pour
les mauvaises performances. La Réduction Absolue (RA) du nombre
d’élèves montrant une surévaluation, est de 2 %,
soit une Réduction Relative (RR) de 8 %
(P(réduction|données) > 0.999). La jauge
conduit très probablement à moins de surévaluation par les
élèves ayant une mauvaise performance.
Figure 10 • Distribution du
déficit d'auto-évaluation en fonction de la présence
d’un étayage visuel suite à une excellente performance
(gauche) ou une mauvaise performance (droite), intervalle de confiance à
95 %
Nous pouvons noter que le pourcentage de traces présentant un
déficit est beaucoup plus élevé pour les
énoncés suivant des traces de mauvaises performances que pour les
énoncés suivant des traces d'excellentes performances (63 %,
voir figure 10 droite, contre 33 %, voir figure 10 gauche). Ceci est
cohérent avec le fait que les élèves ayant obtenu une
excellente performance sont plus susceptibles de s'autoévaluer
correctement. De plus, la réduction relative du nombre de traces
présentant un déficit est indépendante de la performance,
environ 8 %.
La figure 11 gauche montre qu’il y a une différence dans la
distribution du déficit de réponse selon qu’il y a un
étayage auditif ou non : les élèves ayant une
excellente performance et ayant un enregistrement du nombre de réponses
sont plus susceptibles de montrer une sous-évaluation.
L’Augmentation Absolue (AA) du nombre d’élèves
montrant une sous-évaluation est de 0.4 %, soit une
Augmentation Relative (AR) de 5 % (P(augmentation|données) >
0.999). Bien que l’augmentation absolue soit très faible, le
nombre de traces (plus de 270 000) et le faible pourcentage initial de
sous-évaluation permet d’affirmer que l’invite audio conduit
très probablement à plus de sous-évaluation
par les élèves ayant une mauvaise performance.
La figure 11 droite montre qu’il existe des différences dans la
distribution du déficit de réponse lorsqu'il y a un étayage
auditif après une mauvaise performance. La Réduction Absolue (RA)
du nombre d’élèves montrant une surévaluation est de
1.5 %, soit une Réduction Relative (RR) de 6 %
(P(réduction|données) > 0.999). L’invite
audio conduit très probablement à moins de surévaluation
par les élèves ayant une mauvaise performance.
Figure 11 • Distribution du déficit
d'auto-évaluation en fonction de la présence d’un
étayage auditif suite à une excellente performance (gauche) ou une
mauvaise performance (droite), intervalle de confiance à
95 %
Comme l'impact de la jauge semble positif pour les traces d'excellente ou de
mauvaise performance, alors que l’impact de l’audio semble
dépendre de la performance, nous avons mesuré l'impact de la
présence ou non de l'audio lorsqu'il y avait une jauge pour soutenir
l'auto-évaluation de l'élève (condition c vs. b).
Les résultats sont résumés dans la figure 12. Ils indiquent
que le fait de disposer d'un enregistrement audio indiquant le nombre de bonnes
réponses par rapport au nombre total de questions (par exemple,
« Dans le dernier exercice, tu as trouvé trois bonnes
réponses sur quatre questions ») a très probablement un
impact sur la diminution du nombre d’élèves qui se
surévaluent lorsque la performance de l'élève est mauvaise
dans le dernier exercice : la Réduction Absolue du nombre
d’élèves montrant une surévaluation est de
1.7 %, soit une Réduction Relative de 7 %
(P(réduction|données) > 0.999). En revanche,
il y a très probablement un impact sur l'augmentation du nombre
d'élèves se sous-évaluant lorsque leur performance est
excellente : l’Augmentation Absolue du nombre
d’élèves montrant une sous-évaluation est de
0.4 %, soit une Augmentation Relative de 5 %
(P(augmentation|données) > 0.999).
Figure 12 • Impact de l'étayage
visuel et auditif sur les déficits de sous-évaluation et de
surévaluation
Dans l'ensemble, nous pouvons donc répondre positivement à la
question de recherche 3 puisque les étayages visuels fournis semblent
avoir aidé les élèves à réduire leurs
déficits d'auto-évaluation. En revanche, les étayages
auditifs ont eu un impact mitigé : positif pour les
élèves ayant une mauvaise performance et négatif pour les
élèves ayant une excellente performance. On peut noter que
l’étayage visuel est instantané car il est affiché
à l’élève, alors que l’enregistrement audio a
une temporalité : pendant quelques secondes,
l’élève entend son nombre de bonnes et mauvaises
réponses. L'enregistrement audio pourrait permettre à un
élève potentiellement distrait de se concentrer à nouveau
après une mauvaise performance. Inversement, il pourrait distraire un
élève qui était concentré après une
excellente performance. L’étayage visuel a un coût en temps
quasi nul pour les élèves et permet une réduction
d’entre 5 et 8 % du nombre de déficits, c’est pourquoi
nous avons décidé à l’issue de cette étude de
l’utiliser pour l’intégralité des élèves
et des réponses.
4.3. Impact d'une rétroaction audio de remédiation sur les
déficits d'auto-évaluation et d'auto-efficacité
4.3.1. Méthodes
Pour répondre à notre quatrième question de recherche,
nous avons conçu quatre enregistrements possibles de rétroaction
de remédiation (tableau 6) à écouter après que
l'élève a montré l'un des quatre déficits du tableau
4. Les élèves qui ont présenté une
légère surévaluation ou une légère
sous-évaluation n'ont pas reçu de rétroaction de
remédiation.
Dans cette expérimentation, la moitié des élèves
reçoit toujours une remédiation lorsqu'ils présentent une
auto-évaluation ou un déficit d'auto-efficacité (groupe de
remédiation) et l'autre moitié n'en reçoit jamais (groupe
témoin).
Tableau 6 • Les quatre
rétroactions audio de remédiation
libellé de déficit |
enregistrement audio |
sous-évaluation |
Tu as dit que c’était trop difficile alors que tu as
très bien réussi. L’exercice était probablement trop
facile pour toi. |
surévaluation |
Tu as dit que c’était trop facile alors que tu n'as pas
très bien réussi. L’exercice était probablement trop
difficile pour toi. |
évitant la difficulté |
Tu as dit que c'était trop facile, mais pourtant tu as dit vouloir
des exercices plus faciles. Il faudrait plutôt des exercices plus
difficiles car tu as raison les exercices étaient en effet trop
faciles. |
cherchant la difficulté |
Tu as dit que c'était trop difficile, mais pourtant tu as dit vouloir
des exercices plus difficiles. Il faudrait plutôt des exercices plus
faciles pour le moment car tu as raison les exercices étaient en effet
trop difficiles. |
4.3.2. Résultats
4.3.2.1. Impact de la remédiation de la
sous-évaluation
Afin de mesurer l'impact de la remédiation de la
sous-évaluation, nous avons sélectionné les traces avec une
excellente performance pour les élèves du groupe de contrôle
et du groupe de remédiation. Dans ces traces, nous avons
sélectionné les élèves dont la première trace
avec une excellente performance présentait une sous-évaluation
(voir tableau 4 pour la définition des déficits).
Nous avons ensuite calculé la distribution des déficits sur
leur trace suivante avec une excellente performance où ils ont eu une
question d'auto-évaluation. Les résultats pour les deux groupes
sont présentés dans la figure 13 (à gauche). Nous rappelons
que tous les élèves ont montré un déficit de
sous-évaluation dans leur première réponse à
l’énoncé d'auto-évaluation. Nous remarquons que le
nombre d’élèves montrant à nouveau une
sous-évaluation est plus faible pour les élèves du groupe
de remédiation que pour les élèves du groupe contrôle
(RA = 6.6 %, RR = 20 %, P(réduction|données) > 0.999). À
l'inverse, il y a plus d'élèves pour lesquels nous ne
détectons aucun déficit (AA = 4.3%,
AR = 12%, P(augmentation|données) > 0.999).
Il y a aussi plus d’élèves pour lesquels nous avons
détecté une légère sous-évaluation
(AA = 2.3 %, AR = 7 %, P(augmentation|données) > 0.999)., ce qui correspond aux
élèves pour lesquels le déficit n'a été que
partiellement traité (en effet, les élèves avec une
légère sous-évaluation n'ont pas reçu de feedback,
il n'y a donc aucune raison de s'attendre à un changement).
Figure 13 • Impact des
remédiations auditives sur les déficits de sous-évaluation
et de surévaluation
4.3.2.2. Impact de la remédiation de la surévaluation
Nous avons effectué la même analyse pour mesurer l'impact de la
remédiation de la surévaluation. Dans ces traces, nous avons
sélectionné les élèves des deux groupes dont la
première trace avec une mauvaise performance montrait une
surévaluation. Nous avons ensuite calculé la distribution des
déficits sur leur trace suivante avec une mauvaise performance où
ils ont eu une nouvelle question d'auto-évaluation. Les résultats
pour les deux groupes sont présentés dans la figure 13 (à
droite). Nous remarquons que le nombre d’élèves montrant à nouveau une surévaluation est plus faible pour les
élèves du groupe de remédiation que pour les
élèves du groupe contrôle (RA = 8.2 %,
RR = 17 %, P(réduction|données) > 0.999). À
l'inverse, il y a plus d'élèves pour lesquels nous ne
détectons aucun déficit (AA = 4.1 %,
AR = 13 %, P(augmentation|données) > 0.999). De
même, il y a plus d’élèves pour lesquels nous
détectons une « légère
surévaluation », ce qui signifie qu'ils ont eu une mauvaise
performance, mais ont déclaré que la difficulté de
l'exercice qu'ils ont obtenu était adaptée
(AA = 4.1 %, AR = 20 %, P(augmentation|données) > 0.999). Nous pouvons supposer
qu’il s’agit d’élèves qui peuvent se sentir
proches de la réussite à cet exercice, même si leur
performance actuelle n'est pas encore bonne. Par exemple, un élève
qui a eu 3 questions dans le dernier exercice et qui a obtenu deux mauvaises
réponses puis une bonne réponse peut penser que la
difficulté est adaptée (« bien ») car sa
dernière réponse était correcte, bien que sa performance
soit considérée comme « mauvaise ».
4.3.2.3. Impact de la remédiation du déficit «
évitant la difficulté »
Nous avons effectué une analyse similaire pour mesurer l'impact de la
remédiation pour les élèves cherchant à
éviter les difficultés. Nous avons sélectionné dans
les deux groupes les traces avec une excellente performance et dans ces traces,
nous avons sélectionné les élèves dont la
première trace avec une excellente performance montrait qu'ils voulaient
éviter la difficulté. Nous avons ensuite calculé la
distribution du déficit de réponse sur leur trace suivante avec
une excellente performance où ils ont obtenu les énoncés
d’autorégulation de l’apprentissage. Les résultats
sont présentés dans la figure 14 (à gauche). Nous pouvons
remarquer que le nombre d’élèves détectés
comme voulant éviter la difficulté diminue lorsqu’ils
bénéficient d’une remédiation (RA = 11.1%,
RR = 33 %, P(réduction|données) > 0.999). Cependant, nous
détectons également une augmentation du nombre
d’élèves montrant une certaine sous-évaluation. Ce
point sera abordé dans la section Discussion.
Figure 14 • Impact des
remédiations auditives sur les déficits « évitant
la difficulté » et « cherchant la
difficulté »
4.3.2.4. Impact de la remédiation du déficit
« cherchant la difficulté »
Enfin, nous avons effectué une analyse similaire pour mesurer l'impact
de la remédiation pour les élèves cherchant la
difficulté. Dans les deux groupes, nous avons sélectionné
les traces présentant une performance « mauvaise »
et, dans ces traces, nous avons sélectionné les
élèves dont la première trace montrait qu'ils voulaient
rechercher la difficulté (tableau 4). Nous avons ensuite calculé
la distribution des déficits sur la trace suivante où les
énoncés d’autorégulation ont été
donnés. Les résultats sont présentés dans la figure
14 (à droite). Nous pouvons observer qu'il n'y a pas de différence
suffisante entre la distribution des réponses du groupe de
remédiation et la distribution des réponses du groupe de
contrôle, nous ne pouvons donc pas conclure que la remédiation de
la recherche de difficulté que nous avons conçue a eu un
quelconque effet.
Globalement, grâce à la remédiation, il y a une
réduction du nombre d’élèves montrant une
surévaluation ou une sous-évaluation. Comme nous n'effectuons
l'analyse que sur la deuxième trace avec une performance similaire et que
les élèves ont été placés
aléatoirement dans l’une des deux conditions possibles, nous
pouvons déduire une relation causale entre la présence ou non de
la remédiation et la différence dans la distribution des
réponses à l'invite d'auto-évaluation. De plus, comme les
énoncés d'autorégulation ne sont donnés avec une
probabilité 1/15 qu'après avoir terminé un exercice,
l'impact d'une remédiation n'est pas vu immédiatement après
qu'elle a été donnée, ce qui suggère des effets
durables de la remédiation. Nous pouvons donc répondre
partiellement positivement à la quatrième question de recherche
sur l’effet de la remédiation donnée à
l’élève.
4.4. Discussion et limites
La façon la plus fiable d'évaluer les déficits
d’autorégulation de l’apprentissage est de poser des
questions directes aux étudiants (Barnard et al., 2009).
Notons qu’actuellement la fréquence des énoncés
d’autorégulation de l’apprentissage est d’un tous les
15 exercices. D'une part, l'augmentation de la fréquence de la
remédiation pourrait améliorer les compétences
d’autorégulation de l’apprentissage, cependant, le fait
d'être constamment sollicité peut conduire à une perception
globale dégradée de l'environnement d'apprentissage (Bouchet et al., 2018).
La formation aux compétences d’autorégulation de
l’apprentissage ne doit en effet pas se faire au détriment de la
formation à l'alphabétisation qui reste l'objectif principal du
logiciel. D'autre part, une fois que nous sommes en mesure de détecter
qu'un élève possède de bonnes compétences en
matière d'auto-évaluation et d'auto-efficacité, nous
pourrions envisager de réduire la fréquence des
énoncés, précisément pour ne pas perdre de temps
inutilement, ouvrant ainsi la voie à du sondage adaptatif (adaptive
polling). Inversement, la fréquence pourrait être
augmentée sur les cas pour lesquels un déficit a été
précédemment observé mais pas encore corrigé :
la fréquence globale resterait donc en moyenne d’un tous les 15
exercices mais en privilégiant les cas les plus pertinents pour chaque
élève.
Les résultats de notre deuxième expérience ont
montré que les déficits d'auto-efficacité (évitement
de la difficulté et recherche de la difficulté) ne sont pas
idéalement traités par la remédiation audio que nous avons
conçue. Pour la remédiation visant à éviter la
difficulté, le nombre d'élèves montrant une
sous-évaluation est plus élevé dans le groupe de
remédiation que dans le groupe de contrôle. Par conséquent,
il devrait y avoir un compromis dans la mise en œuvre de cette
remédiation afin qu'elle n'ait pas d'impact négatif sur
l'auto-évaluation des élèves. En d'autres termes, il semble
que certains élèves qui s'auto-évaluaient bien, mais
évitaient les difficultés, aient résolu cette contradiction
non pas en demandant des exercices plus difficiles, mais en déclarant
qu'ils n'avaient pas l'impression de si bien faire après tout. Ce
comportement pourrait indiquer soit qu'ils n'étaient pas si sûrs de
leur auto-évaluation au départ, et que le fait de remettre en
question leur évaluation les a fait hésiter, soit qu'ils
« se jouent du système » (i.e. le contournent) en
pensant que répondre différemment à la première
question empêcherait le système d'augmenter trop la
difficulté, ce qui confirmerait le diagnostic de leur comportement
d'évitement de la difficulté.
Pour le déficit de « recherche de
difficulté », nous n'avons pas détecté d'effet.
Nous pouvons cependant noter que la taille de l'échantillon est plus
petite ici que dans les analyses précédentes, il est donc possible
qu'avec un nombre similaire d'échantillons, un effet apparaisse.
Néanmoins, il peut également y avoir des explications pour
lesquelles ce comportement n'est pas aussi facile à corriger que
d’autres, car « rechercher la difficulté » est
un comportement cohérent avec une forme d'excès de confiance, et
rejeter un feedback du système est également cohérent avec
un excès de confiance. Pour ces élèves, une intervention de
l'enseignant pourrait être plus appropriée. Des stratégies
alternatives pourraient consister à laisser l’élève
sentir qu'il s'est trompé en lui donnant un exercice beaucoup plus
difficile, ou encore lui demander avant un exercice dans quelle mesure il pense
réussir afin de confronter sa performance réelle à sa
propre auto-évaluation a priori (et pas seulement a
posteriori).
Enfin, nous nous sommes concentrés uniquement sur la première
et la deuxième réponse des élèves aux
énoncés de mesures de difficulté perçue et voulue,
qui sont des mesures très locales. Cela nous permet de mesurer
précisément l'impact des remédiations sur les
réponses des élèves. Cependant, nous n'avons pas
décrit l'état d’autorégulation de
l’apprentissage global de chaque élève et son
évolution dans le temps après les deux premières
réponses aux énoncés.
5. Conclusion et travaux futurs
Pour répondre aux QR1 et QR2, nous avons
proposé une définition opérationnelle de certains
déficits d’autorégulation de l’apprentissage. Cela a
permis la conception d’une méthode de détection des
déficits potentiels d'auto-efficacité et d'autorégulation
d'élèves de 5 à 7 ans en posant aux élèves
deux questions sur leur difficulté perçue et la difficulté
souhaitée pour les exercices suivants. En analysant et en
caractérisant les schémas de réponses d'environ 12 000
élèves nord-américains et 3 000 élèves
français, nous avons détecté des déficits chez
près d'un tiers des élèves. Nous avons ensuite
présenté un diagramme de séquence pour
généraliser l’introduction de questions liées
à l’AAR dans un EIAH.
Pour répondre aux QR3 et QR4, nous avons déterminé,
à l'aide de métriques locales, l'impact des étayages
visuels et auditifs lors des réponses aux questions
d'auto-évaluation. L'impact des étayages visuels (une jauge) est
toujours positif avec une diminution du nombre de déficits
d'auto-évaluation. L'impact des étayages auditifs est
mitigé : ils permettent de diminuer le nombre de
surévaluations, mais augmente le nombre de sous-évaluations. Par
conséquent, ils ne devraient être déclenchés que pour
les élèves aux performances médiocres.
Nous avons également mesuré l'effet d'une remédiation
qui était déclenchée lorsque des déficits
d'auto-évaluation et d'auto-efficacité étaient
détectés. Nous avons réussi à réduire ces
déficits pour certains élèves avec nos actions locales
(pour l'auto-évaluation plus que pour l'auto-efficacité). Les
travaux futurs incluent l'étude de l’impact de la
remédiation dans le temps et de la nécessité de la
renforcer régulièrement.
Nous avons limité notre champ d'action à
l'auto-évaluation et à l'auto-efficacité dans les
compétences d’autorégulation de l’apprentissage, car
nous avons considéré que ces compétences étaient
mesurables et pouvaient éventuellement être
améliorées pour les élèves de la grande section au
CE1. Les travaux futurs incluent donc l'étude d'autres compétences
d’autorégulation chez les élèves de l'école
primaire.
Ce travail souligne la possibilité d'étayer les
compétences d’apprentissage autorégulé dans une
application en ligne dès le plus jeune âge tout en apprenant une
autre compétence.
6. Financement et précautions éthiques
Ce travail a été réalisé
dans le cadre d’une thèse CIFRE au sein de l’équipe
MOCAH de Sorbonne Université et de l’entreprise Lalilo.
L’utilisation du logiciel éponyme est gratuite pour les enseignants
français dans le cadre d’un contrat de licence avec le
Ministère de l’Éducation Nationale et de la Jeunesse suite
au P2IA
(https://eduscol.education.fr/1911/partenariat-d-innovation-et-intelligence-artificielle-p2ia).
Tous les traitements de données issues de Lalilo respectent le RGPD,
conformément à la réglementation
(https://ressources.lalilo.com/privacy-fr.pdf).
Remerciements
Les auteurs remercient les relecteurs pour leurs
retours riches et constructifs.
À
propos des auteurs
Thomas SERGENT est doctorant dans l’équipe
MOCAH de Sorbonne Université, diplômé de
l’École polytechnique en 2016. Ses recherches portent sur
l’autorégulation de l’apprentissage de jeunes
élèves dans le cadre informatique.
Courriel : thomas.sergent@lip6.fr
Morgane DANIEL est ingénieure de recherche,
diplômée de Grenoble INP en 2013. Elle est responsable de la
recherche et du développement chez Lalilo, une entreprise EdTech. Ses
principaux domaines de recherche sont la reconnaissance vocale pour les jeunes
enfants apprenant à lire et l'apprentissage adaptatif.
Courriel : morgane.daniel@renaissance.com
François BOUCHET est Maître de
Conférences en informatique à Sorbonne Université.
Ingénieur diplômé de l'ESIEA (2005), il a obtenu son M2
(2006) et doctorat (2010) en informatique de l'université Paris-Sud 11,
suivi d'un postdoc à l'université McGill (2011-2013) sur le projet
de système de tuteur intelligent MetaTutor promouvant l'apprentissage
auto-régulé. Sa recherche actuelle s'intéresse aux learning analytics et à la fouille de données
éducatives, et en particulier à l'analyse (1) de productions
écrites d'élèves et (2) de sources de données
multimodales, dans le contexte de MOOCs ou de systèmes d'aide à
l'apprentissage, dans le but de développer les compétences
cognitives et métacognitives des apprenants.
Courriel : francois.bouchet@lip6.fr
Thibault CARRON est Maître de Conférences en
informatique (HDR) à l'Université Savoie Mont Blanc. Il est membre
de l’équipe MOCAH de Sorbonne Université. Il a obtenu son
doctorat en informatique à l'Ecole Nationale Supérieure des Mines
de Saint-Etienne en 2001. Ses recherches actuelles portent sur l'observation
d'activités collaboratives et les learning games.
Courriel : thibault.carron@lip6.fr
RÉFÉRENCES
Azevedo, R. et Hadwin, A. F.
(2005). Scaffolding self-regulated learning and metacognition –
Implications for the design of computer-based scaffolds. Instructional
Science, 33(5), 367‑379. Disponible sur internet.
Azevedo, R., Landis, R. S., Feyzi-Behnagh, R., Duffy, M.,
Trevors, G., Harley, J. M., Bouchet, F., Burlison, J., Taub, M., Pacampara, N.,
Yeasin, M., Rahman, A. K. M. M., Tanveer, M. I. et Hossain, G. (2012). The
effectiveness of pedagogical agents’ prompting and feedback in
facilitating co-adapted learning with MetaTutor. Dans S. A. Cerri, W. J.
Clancey, G. Papadourakis et K. Panourgia (dir.), Proceedings of the
11th International Conference Intelligent tutoring systems (ITS
2012) (p. 212-221). Springer. Disponible sur internet.
Bandura, A. (2010). Self-Efficacy. Dans The corsini
encyclopedia of psychology. John Wiley & Sons. Disponible sur internet.
Bannert, M. et Reimann, P. (2012). Supporting
self-regulated hypermedia learning through prompts. Instructional
Science, 40(1), 193-211. Disponible sur internet.
Barnard, L., Lan, W. Y., To, Y. M., Paton, V. O. et Lai,
S.-L. (2009). Measuring self-regulation in online and blended learning
environments. Internet and Higher Education, 12(1), 1-6.
Bimba, A. T., Idris, N., Al-Hunaiyyan, A., Mahmud, R. B.
et Shuib, N. L. B. M. (2017). Adaptive feedback in computer-based learning
environments: A review. Adaptive Behavior, 25(5), 217-234. Disponible sur internet.
Bouchet, F., Harley, J. M. et Azevedo, R. (2016). Can
adaptive pedagogical agents’ prompting strategies improve students’
learning and self-regulation? Dans A. Micarelli, J. Stamper et K. Panourgia
(dir.), Proceedings of the 13th International Conference
Intelligent Tutoring Systems (ITS 2016) (p. 368-374). Springer. Disponible sur internet.
Bouchet, F., Harley, J. M. et Azevedo, R. (2018).
Evaluating adaptive pedagogical agents’ prompting strategies effect on
students’ emotions. Dans R. Nkambou, R. Azevedo et J. Vassileva (dir.), Proceedings of the 14th International Conference Intelligent
Tutoring Systems (ITS 2018) (p. 33-43). Springer. Disponible sur internet.
Brown, G. T. L., Andrade, H. L. et Chen, F. (2015).
Accuracy in student self-assessment: Directions and cautions for research. Assessment in Education: Principles, Policy & Practice, 22(4),
444-457. Disponible sur internet.
Chang, M.-M. (2005). Applying self-regulated learning
strategies in a web-based instruction—an investigation of motivation
perception. Computer Assisted Language Learning, 18(3), 217-230. Disponible sur internet.
Dignath, C., Buettner, G. et Langfeldt, H.-P. (2008). How
can primary school students learn self-regulated learning strategies most
effectively? Educational Research Review, 3(2), 101-129. Disponible sur internet.
Dweck, C. S. (2014). Self-theories: their role in
motivation, personality, and development. Psychology Press. Disponible sur internet.
Ecalle, J., Navarro, M., Labat, H., Gomes, C., Cros, L.
et Magnan, A. (2016). Concevoir des applications sur tablettes tactiles pour
stimuler l’apprentissage de la lecture : avec quelles
hypothèses scientifiques ? STICEF (Sciences et Technologies de
l’Information et de la Communication pour l’Éducation et la
Formation), 23(2), 33-56. Disponible sur internet.
Gronau, Q. F., Raj, K. N. A. et Wagenmakers, E.-J.
(2020). Informed Bayesian Inference for the A/B Test (arXiv:1905.02068).
arXiv. Disponible sur internet.
Hattie, J. et Clarke, S. (2018). Visible learning:
Feedback. Routledge. Disponible sur internet.
Hoffman, B. et Spatariu, A. (2008). The influence of
self-efficacy and metacognitive prompting on math problem-solving efficiency. Contemporary Educational Psychology, 33(4), 875-893. Disponible sur internet.
Jackson, J. W. (2002). Enhancing self-efficacy and
learning performance. The Journal of Experimental Education, 70(3), 243-254. Disponible sur internet.
JASP Team. (2022). JASP (Version 0.16.3) [logiciel]. Disponible sur internet.
Kim, J.-A. et Lorsbach, A. W. (2005). Writing
self-efficacy in young children: Issues for the early grades environment. Learning Environments Research, 8(2), 157-175. Disponible sur internet.
Masson, J. et Fenouillet, F. (2013). Self-efficacy and
academic results at the primary school: Development and validation of a scale. Enfance, 4(4), 374-392.
Molenaar, I., Horvers, A., Dijkstra, R. et Baker, R.
(2019). Designing dashboards to support learners’ self-regulated
learning. Dans Proceedings of the 9th International Conference on
Learning Analytics & Knowledge (LAK '19) (p. 1-12). Computer Science,
Education.
Molenaar, I., Horvers, A., Dijkstra, R. et Baker, R. S.
(2020). Personalized visualizations to promote young learners’ SRL: The
learning path app. Dans Proceedings of the Tenth International Conference on
Learning Analytics & Knowledge (LAK '20) (p. 330-339). Disponible sur internet.
Müller, N. M. et Seufert, T. (2018). Effects of
self-regulation prompts in hypermedia learning on learning performance and
self-efficacy. Learning and Instruction, 58, 1-11. Disponible sur internet.
Newton, P. M. (2015). The learning styles myth is
thriving in higher education. Frontiers in Psychology, 6. Disponible sur internet.
Panadero, E., Jonsson, A. et Botella, J. (2017). Effects
of self-assessment on self-regulated learning and self-efficacy: Four
meta-analyses. Educational Research Review, 22, 74-98. Disponible sur internet.
Robinson, G. K. (2019). What properties might statistical
inferences reasonably be expected to have?—Crisis and resolution in
statistical inference. The American Statistician, 73(3), 243-252. Disponible sur internet.
Schmitz, B. et Perels, F. (2011). Self-monitoring of
self-regulation during math homework behaviour using standardized diaries. Metacognition and Learning, 6(3), 255-273. Disponible sur internet.
Schmitz, B. et Wiese, B. S. (2006). New perspectives for
the evaluation of training sessions in self-regulated learning: Time-series
analyses of diary data. Contemporary Educational Psychology, 31(1), 64-96. Disponible sur internet.
Schunk, D. H. (1996). Goal and self-evaluative influences
during children’s cognitive skill learning. American Educational
Research Journal, 33(2), 359-382. Disponible sur internet.
Schunk, D. H. et Zimmerman, B. J. (2012). Self-regulation
and learning. Educational Psychology, 7. Disponible sur internet.
Stipek, D., Recchia, S. et McClintic, S. (1992).
Self-evaluation in young children. Monographs of the Society for Research in
Child Development, 57(1), 1-98.
Zheng, L. (2016). The effectiveness of self-regulated
learning scaffolds on academic performance in computer-based learning
environments: A meta-analysis. Asia Pacific Education Review, 17(2), 187-202. Disponible sur internet.
Zimmerman, B. J. (2008). Investigating self-regulation
and motivation: Historical background, methodological developments, and future
prospects. American Educational Research Journal, 45(1), 166-183. Disponible sur internet.
|