Sciences et Technologies
de l´Information et
de la Communication pour
l´Éducation et la Formation
 

Volume 17, 2010
Rubrique

Tests de compétences tableur : l’apport des discours des étudiants sur leurs activités.

Aurélie CHATELET EWANGO (Université Versailles Saint Quentin), Françoise TORT (UMR STEF, ENS Cachan)

RÉSUMÉ : Dans une perspective de recherche centrée sur la didactique des progiciels, nous nous intéressons à l’étude des compétences mobilisées par les jeunes dans l’utilisation de logiciels. Quels savoirs et savoir-faire mobilisent-ils ? Quelle compréhension des concepts du logiciel ont-ils ? Quelles difficultés rencontrent-ils ? Pour répondre à ces questions, nos méthodes d’évaluation de compétences doivent prendre en compte non seulement les productions finales mais aussi les processus mis en œuvre. Nous avons centré nos efforts sur le cas du tableur. Dans de précédents travaux, nous avons administré des tests sur ordinateur et exploité les enregistrements des écrans. Ayant des difficultés à interpréter certains comportements observés, nous souhaitions prendre en compte les discours des jeunes sur leurs façons de faire. Des techniques d’entretiens, inspirées de l’explicitation, permettent de recueillir la verbalisation des activités et apportent des données sur les motivations des actions. Sur la base d’une étude exploratoire avec 3 étudiants en formation supérieure tertiaire, cet article présente l’apport de l’introduction de tels entretiens dans un dispositif de test de compétences sur le tableur. Nous montrons qu’ils apportent des données nouvelles sur les savoirs et savoir-faire des étudiants et permettent de dégager des profils d’utilisateurs.

MOTS CLÉS : compétences numériques, didactique des progiciels, tableur, analyse de traces.

ABSTRACT : With a research perspective focused on software teaching and learning, we are interested in studying the skills deployed by young software users. What knowledge do they mobilize? Do they have a deep understanding of the concepts of the software? Which are the difficulties they face? To assess skills in the use of software tools, we need to consider in our methodology both the final production and the process. The software considered in this research is spreadsheet. In first experiments, we administered computer-based tests, we recorded the activity process by screen capture and stored the final productions. Facing some difficulties to correctly interpret users’ behaviour, we found useful to take into account their own explanation on the process they followed. We found that interviews, inspired by elicitation techniques, may capture verbalization on activities and provide data about the motivation of actions. This reduces uncertainty in the interpretation of observations and brought personal characteristics for each user. Based on a new study concerning 3 students in higher education, this article focuses on the contribution of their interviews in the analysis of their spreadsheet skills.

KEYWORDS : ICT competencies, software teaching and learning, spreadsheet, traces of activity

1. Introduction

Des études internationales ont été menées afin d’évaluer les compétences en TIC des jeunes de culture numérique ou digital natives : PISA (Lennon et al., 2003), Eurostat (Demunter, 2006), ECAR (Kvavik et al., 2004). Parmi les différents indicateurs identifiés, figure la capacité à utiliser des progiciels. Parmi eux, les logiciels tableurs sont particulièrement intéressants. Ce sont des outils relativement techniques, qui demandent de maîtriser des représentations tabulaires de données et de savoir exploiter les traitements qu’on peut leur appliquer : représentation graphique, calculs et simulation, gestion de tables, programmation.

Des enquêtes menées auprès d’étudiants d’université, (Kvavik et al., 2004) pour EDUCAUSE ou (Lim, 2004) en Australie, apportent des données sur des usages déclarés des progiciels et les niveaux de compétences auto-estimés sur ces mêmes progiciels. (Baron et Bruillard, 2008) soulignent un paradoxe concernant le tableur dans ces travaux : alors que les étudiants déclarent passer du temps à utiliser des tableurs, ils estiment en avoir un niveau de maîtrise bien inférieur à d’autres logiciels (notamment le traitement de textes).

Ces études fondées sur des déclarations des étudiants ne permettent pas de regarder au plus près ce qu’ils savent et savent faire véritablement avec un tableur. Dans le cadre du projet DidaTab(1) (Bruillard et al., 2008), centré sur la didactique du tableur, nous nous sommes intéressés à l’étude des processus mis en œuvre par les élèves de collèges et lycées lors de l’utilisation du logiciel. Dans cette recherche, divers outils ont été exploités pour capturer et évaluer les compétences tableur des élèves. Des tests d’évaluation sur papier et sur machine ont été administrés à plus de 800 élèves (Blondel et Tort, 2007). L’analyse des réponses des élèves a montré que leurs connaissances étaient embryonnaires et leurs compétences très élémentaires. Cependant, des observations réalisées pendant les tests ont révélé que la façon dont les élèves procèdent était tout aussi révélatrice de leurs savoirs et savoir-faire que leur production. Afin d’étudier ces processus, des enregistrements vidéo des interactions des élèves avec le tableur ont été exploités (Tort, 2009). L'analyse qualitative de ces enregistrements révèle d'autres informations sur les processus de résolution des questions et les manières de procéder des élèves avec le logiciel, notamment des comportements consistant à explorer systématiquement l’interface du logiciel en quête d’une solution.

Toutefois, l’interprétation reste limitée par le manque de données permettant d’expliquer les manières de procéder des élèves, et de remonter aux raisons qui les motivent et aux savoirs et savoir-faire véritablement mobilisés. Pourquoi les élèves procèdent-t-ils de telle ou telle manière ? Quels savoirs mobilisent-ils pour cela ?

Tenter de répondre à ces questions pose, immédiatement, une question d’ordre méthodologique : quelles données permettent de répondre à ces questions, comment les recueillir et comment les exploiter ?

C’est l’objet de notre étude, réalisée dans le cadre d’une initiation à la recherche(2), qui a poursuivi une double finalité :

- Approfondir nos connaissances sur les compétences tableurs des jeunes ;

- Construire des outils méthodologiques permettant d’expliquer les manières de procéder des utilisateurs lors de l’utilisation d’un logiciel.

2. Evaluer les compétences tableur

Un des objectifs initiaux du projet DidaTab, centré sur la didactique des progiciels et du tableur en particulier, était de fournir un panorama des compétences spécifiques au tableur, de leur évaluation et des conditions de leur programmation pour les jeunes en collège et lycée. Dans le cadre du projet, des outils d’évaluation des compétences tableur ont été élaborés (Blondel et Tort, 2007) :

- Un référentiel de compétences spécifiques au tableur (des capacités observables) ;

- Des outils d’évaluation de ces compétences (des tests machine et des tests papier) ;

- Les principes d’élaboration des tests.

L’exploitation de ces outils d’évaluation nous a permis d’élaborer une approche critique des méthodes de recueil et d’analyse de données pour l’évaluation de compétences sur un progiciel, tel que le tableur. Notamment la limite de l’exploitation des seules productions des étudiants testés, nous a amenés à explorer d’autres méthodes d’investigation.

2.1. La limite de l’analyse des productions

Les tests exploités dans le projet DidaTab sont composés d’une série de tâches. Chaque tâche présente une situation initiale simple comportant le plus souvent un tableau de données et énonce un objectif à atteindre. Celui-ci nécessite la réalisation d’une transformation sur le tableau initial : modification du format d’affichage de cellules, écriture d’une formule dans une cellule (Figure 1), tri des données (Figure 2), etc., ou bien l’ajout d’un nouvel objet : création d’un graphique, etc.

Nous recueillons les productions des élèves enregistrées dans les fichiers. L’analyse des productions n’a pas pour objectif de valider ou non la réalisation de la tâche, mais d’observer les solutions proposées et de les interpréter à la lumière des savoirs et savoir-faire mobilisés.

images/sticef_2010_chatelet_07rp01.jpg

Figure 1 • une tâche nécessitant l’écriture de formules de calcul.

Par exemple, la tâche de la figure 1 demande de saisir la formule de calcul de la somme des 14 valeurs saisies dans les cellules B7 à O7. Une solution évidente pour qui connaît les fonctions consiste à utiliser la fonction SOMME (=SOMME(B7:O7)). Le calcul peut aussi être effectué uniquement avec l’opérateur + (=B7+C7+D7+...). Cependant cette seconde solution nécessite une saisie fastidieuse et introduit des risques d’erreur de saisie(3). De même, deux solutions existent pour le calcul de la moyenne (opérateurs + et /, ou fonction MOYENNE), avec les mêmes inconvénients et avantages. Par ailleurs, la fonction SOMME est généralement disponible en un clic sur la barre d’outils du logiciel, alors que la fonction MOYENNE est plus indirectement accessible (nécessité de dérouler un menu).

Dès lors, pour cette tâche, nous pouvons faire l’hypothèse qu’un élève n’utilisant que les opérateurs ne connaît pas les fonctions. Un élève utilisant la fonction pour le calcul de la somme, mais les opérateurs pour celui de la moyenne, ne sait peut être pas qu’il existe d’autres fonctions que SOMME.

De plus, l’analyse des productions révèle des réponses erronées, imprévues, mais révélatrices de mécompréhension des élèves, qui sont toutes aussi intéressantes. Par exemple, des élèves ont une utilisation surprenante du mot SOMME, comme s’il fallait l’utiliser quelle que soit la formule de calcul à réaliser (=SOMME(A1-B1)) ou (=SOMME(A1*3)). Cela nous permet de supposer que ces élèves ont une conception erronée de la notion de fonction et méconnaissent les éléments de syntaxe d’une formule de calcul.

Nous avons administré de tels tests à différentes populations d’élèves. Dans (Tort et al., 2008), nous avons montré sur quatre populations d’élèves de collèges et lycées(4), que les élèves testés réussissent tous à répondre aux questions portant sur des manipulations superficielles des objets du tableur, notamment la mise en forme des cellules. Ils réussissent moins bien les questions nécessitant plus de compréhension des objets propres au tableur, notamment, celles portant sur l’édition de graphique et le tri de table. De plus, ces questions sont plus discriminantes entre les différentes populations testées. Enfin, et surtout, les questions leur posant le plus de difficultés, et augmentant encore les écarts entre les populations testées, sont celles portant sur l’écriture de formules.

Toutefois, l’analyse des productions finales des élèves testés présente des limites. En effet, ces productions ne fournissent pas d’information sur la manière dont les élèves ont procédé pour aboutir à ces résultats. Ils ne nous renseignent pas finement sur les difficultés rencontrées. Des questions restent sans réponse : Ont-ils réalisé les tâches en suivant des procédures acquises ? Ou, au contraire, ont-ils tâtonné à la recherche d’un résultat ? Ont-ils procédé tous de la même manière sur les mêmes activités ? Ou, au contraire, ont-ils des manières de procéder différentes ? Enfin, adoptent-ils des démarches que nous puissions observer et analyser plus finement ?

2.2. L’apport de l’analyse des traces d’activités

Répondre à ces questions suppose de s’intéresser au processus c'est-à-dire aux manières de procéder des élèves lors du test et donc aux traces des interactions.

L’analyse des comportements d’utilisateurs d’environnement informatique a été développée dans différents domaines, notamment pour la conception d’environnements informatisés pour l’apprentissage humain (EIAH), (Grandbastien et Labat, 2006). Différentes recherches exploitent des données d’enregistrements des interactions de l’utilisateur avec un environnement informatique afin d’étudier les processus cognitifs de l’utilisateur dans sa résolution d’une tâche (Hulshof, 2004). Les méthodes utilisées dans ces travaux exploitent différentes sources de données : mouvements des yeux, raisonnement à voix haute, fichiers de log, mais aussi, en particulier pour les travaux s’intéressant à l’interaction entre plusieurs utilisateurs, enregistrements vidéo et/ou audio (Dyke et al., 2007).

De manière analogue, mais dans le but de récolter des informations sur les savoirs de l’utilisateur sur le logiciel, la méthode d’analyse présentée dans (Tort, 2009) met en œuvre une démarche utilisant comme sources de données des traces re-jouables d’activités réalisées sur ordinateur, à savoir les enregistrements vidéo des écrans. Une autre solution aurait été d’exploiter les fichiers log, généré automatiquement lors de l’usage du logiciel, et mémorisant des traces d’action. Toutefois, ces fichiers ne mémorisent que les traces des actions aboutissant à une transformation sur le fichier, alors qu’il existe aussi d’autres actions non mémorisées, comme les survols de l’écran avec le pointeur de la souris.

Les vidéos d’écran permettent d’observer les événements survenant sur les écrans comme des indicateurs des gestes réalisés par les élèves. L’analyse des vidéos met en évidence les types d’actions utilisées, leurs enchaînements, les temps consacrés, l’ordre de traitement des questions, les tentatives avortées n’ayant pas laissé de trace, etc.

Ces informations complètent les analyses des productions et permettent de faire d’autres hypothèses sur les savoirs et savoir-faire des élèves sur le logiciel.

Par exemple, pour la tâche de la figure 1, nous avons pu observer un élève sélectionner la cellule à l’extrémité de la ligne des valeurs à sommer (P7), puis, cliquer sur le bouton "" de la barre d’outils ; obtenir ainsi la formule "=SOMME(B7:O7)", puis passer du temps à recopier cette formule dans la cellule où il était demandé d’afficher ce calcul (Q9). Des observations complémentaires, nous ont permis de supposer que cet élève connaît la fonction SOMME, ne se souvient pas de la syntaxe de la formule, mais sait comment retrouver cette syntaxe.

images/sticef_2010_chatelet_07rp02.jpg

Figure 2 • une tâche nécessitant un tri sur deux critères.

Un autre exemple concerne des tâches de tri de tables, telles que celle de la figure 2. Nous avons pu observer des élèves réaliser le tri à la main en copiant collant une à une chaque ligne de la table de façon à les réorganiser dans l’ordre souhaité. Ceci nous a permis de constater que ces élèves ne connaissent pas la fonctionnalité de tri automatique du logiciel, alors que la seule analyse du résultat obtenu nous faisait supposer le contraire.

Plus généralement, pour différentes populations testées, l’analyse des vidéos permet de caractériser les modes d’action liés aux accès aux commandes (boutons des barres d’outil ou menus), à la saisie de formules (mode éditeur ou mode direct), à l’insertion d’une fonction (simple clic ou navigation dans la bibliothèque de fonctions) et des démarches caractéristiques de recherche de solution (exploration systématique des menus ; essais successifs de sélections ; découverte aléatoire de commande).

Toutefois, ces observations ne fournissent pas d’indications sur les motivations des gestes observés. Or, comprendre pourquoi un apprenant adopte telle ou telle manière de procéder nous renseignerait sur la façon dont il articule ses savoirs et savoir-faire avec l’objectif qu’il poursuit dans la réalisation de la tâche, et donc sur ses compétences. De nouvelles interrogations apparaissent : les élèves adoptent-il de véritables stratégies de résolution ou appliquent-ils des procédures apprises par la pratique ? Pourquoi tâtonnement-ils ou hésitent-ils ? Leurs manipulations sont-elles hasardeuses ou résultent-elles de choix conscients ?

La question méthodologique devient : comment recueillir des données révélant les motivations, les raisons des actions que les élèves réalisent pendant le test ? Nous avons donc décidé de compléter nos outils méthodologiques avec la perspective de les exploiter sur de nouvelles populations d’élèves.

3. Exploiter la verbalisation des activités

Les données recherchées portent sur les raisons expliquant les manières de procéder observées sur les vidéos d’écran. Pourquoi un élève testé adopte-il telle ou telle procédure ? Procède-t-il à un choix conscient ? Sur quels savoirs s’appuie-t-il pour cela ? Comment a-t-il acquis ce savoir ? Quelle conscience a-t-il de la validité de la procédure qu'il met en œuvre ?

Afin de recueillir des réponses à ces questions, plusieurs méthodes sont possibles. Dans une étude similaire à la nôtre, (Parissis et Komis, 2009) ont opté pour l’observation participative. Ils combinent plusieurs sources vidéo (enregistrement écran et enregistrement de l’activité) et recueillent des explications pendant la réalisation des tests.

Nous avons préféré adopter une méthode qui ne fasse pas intervenir le chercheur pendant la réalisation du test. Nous avons donc choisi de faire passer des entretiens après la réalisation du test. Productrice de données verbales, la méthode de l’entretien permet de faire apparaître les processus et les « comment » : elle est révélatrice de la logique d’une action (Blanchet et Gotman, 1992).

3.1. Une technique inspirée de l’entretien d’explicitation

Notre étude étant de type exploratoire et qualitative, nous ne disposons pas de catégories objectives préconstruites pour mener un entretien directif. Au contraire, afin de favoriser le caractère naturel et la pertinence des questions et des réponses, il est nécessaire de ne pas figer la formulation et la séquence des questions à l'avance.

Par ailleurs, il s’agit d’obtenir des verbalisations d’actions orientées par un but. Différentes méthodes de verbalisation d’action ont été développées dans le domaine de la sociologie (Rix et Lièvre, 2005). Parmi elles, l’entretien d’explicitation a pour but principal la verbalisation d’un vécu passé (Vermersh, 2004). C’est une technique particulière destinée à faciliter la description d’une action vécue par un acteur et plus particulièrement de son déroulement.

P. Vermersch identifie deux buts à l’entretien d’explicitation : aider l’acteur à s’auto-informer (retour réflexif sur la démarche suivie pour une tâche ce qui lui permet de construire son expérience et d’en prendre conscience) ; mais, aussi, aider le chercheur à s’informer (analyse d’erreurs, expertise, recherche,...). C’est ce dernier aspect qui nous intéresse. Notre objectif est de mettre en œuvre les outils d’explicitation afin de dégager des motivations et des savoirs qui ne sont pas facilement identifiables par les étudiants eux-mêmes.

La pratique de l’entretien d’explicitation abandonne l’interrogation directe du « pourquoi » (attente d’une réponse pour valider la compréhension d’une problématique) pour un questionnement a posteriori du « comment » (comprendre le fonctionnement intellectuel en situation). Les questions doivent être posées de manière à questionner :

- soit le procédural, par exemple : « Comment avez-vous fait la première fois ? »;

- soit l’intentionnel, par exemple : « Que visiez-vous ? »;

- soit le déclaratif, par exemple : « Comment êtes vous arrivé au fait qu'il fallait figer les cellules ? ».

De plus, des techniques de questionnements spécifiques sont utilisées :

- des techniques d’accompagnement comme les reformulations, les acquiescements, les silences ;

- des types de questions écartant les pourquoi comme « Vous avez essayé de trouver en faisant comment ? » ou « Qu'a t-elle de complexe ? »

- l’exploitation de la part implicite des discours comme « Et dans la fonction Somme il n'y a pas de point-virgule ? » alors que l’étudiant fait référence au point-virgule comme élément de difficulté dans l’écriture d’une fonction.

3.2. Un dispositif combinant plusieurs sources de données

Dans le cadre de notre étude, les entretiens ont pour objet la verbalisation des actions réalisées lors d’un test machine construit selon la méthode utilisée dans le projet DidaTab et résumée ci-dessus (section 2.1). Ils s’inscrivent donc dans un dispositif complet comportant : un test sur un logiciel tableur, un questionnaire court sur les usages en informatique des étudiants, et un entretien de verbalisation. L’entretien est réalisé juste après le test, afin que l’étudiant ait encore la situation de test en mémoire. L’entretien est centré sur les difficultés rencontrées (nature et raison), les modes opératoires adoptés en cas d’échec ou de succès, et les techniques de résolution adoptées.

Pour chaque étudiant, le corpus de données recueilli comporte :

- le fichier .xls, enregistrement de la production finale de l’étudiant ;

- le fichier .camrec, enregistrement de la capture vidéo de l’écran (réalisé avec le logiciel Camtasia Studio©) qui fournit une trace de l’activité de l’élève ;

- l’enregistrement audio de l’entretien individuel ;

- le questionnaire papier rempli par l’élève.

Les vidéos sont analysées en suivant la méthode présentée dans (Tort, 2009). Elle consiste à coder les événements observés en distinguant les actions élémentaires effectuées par l’utilisateur, et les réponses du logiciel, et en reportant les durées. Ce codage est complété de commentaires indiquant l’intention perçue et la précision de l’étape de la tâche réalisée. Cela permet de reconstruire une narration simplifiée des manières de procéder de l’élève.

Les entretiens de verbalisation sont tout d’abord totalement retranscrits. Ensuite, ils sont traités en deux temps. Tout d’abord, on réalise un repérage des idées exprimées, qui sont ensuite regroupées selon leur proximité thématique. Dans un second temps, ces thèmes servent de grille d’analyse et d’interprétation des entretiens. Les thèmes sont donc établis a posteriori selon les idées exprimées par les étudiants interrogés.

Enfin, nous verrons dans l’étude de cas suivante, que c’est la synthèse des résultats obtenus à partir des différentes sources de données qui apporte un résultat intéressant.

4. Résultats

Nous avons réalisé une étude de cas auprès de 3 étudiants en parcours L2 d’une section tertiaire, en IUT. Notre objectif était de réutiliser les outils d’évaluation déjà en place : administration de tests machine, et exploitation des productions et des vidéos d’écrans, et de nous centrer sur l’apport des entretiens de verbalisation des activités. Nous présentons ici les résultats obtenus.

4.1. Caractéristique de la population et déroulement

Les expériences, menées dans le cadre de DidaTab, nous ont appris qu’il est préférable de prendre des élèves dont les connaissances sont certes en construction mais néanmoins suffisamment développées pour avoir des données exploitables suffisantes. De plus, nous souhaitions élargir le spectre des recherches initiales aux populations d’étudiants de l’enseignement supérieur.

Nous avons rencontré des étudiants d’un parcours supérieur professionnalisant d’une section tertiaire. Il s’agit d’étudiants en deuxième année de D.U.T. Gestion Administrative et Commerciale d’un établissement de la banlieue parisienne. Ils ont bénéficié d’une formation au tableur de 50 heures lors de leur première année de formation. Ils étaient volontaires, sans pour autant se considérer comme très bons en tableur.

Code

Sexe

Age

Baccalauréat (année)

Ordinateur personnel

E1

Féminin

20 ans

ES (2007)

oui

E2

Féminin

21 ans

ES (2007)

oui

E3

Masculin

20 ans

STG Mercatique (2007)

oui

Tableau 1 • Caractéristiques des étudiants testés

Le test machine était composé de 9 tâches, couvrant différents types de compétences : manipulation d’entités (taille et mise en forme des cellules, format d’affichage des nombres) ; écriture de formules (notamment fonctions SOMME et MOYENNE, références de cellules relatives et absolues, recopie de formule, fonction SI) ; édition de graphique et tri de table. Ces tâches correspondent aux exigences de la formation du tableur du cursus GACO.

Chaque étudiant a réalisé le test individuellement, pendant environ 20 minutes, sur le logiciel Microsoft Excel©. Le logiciel de capture vidéo d’écran a tourné en tâche de fond pendant toute la durée du test. Le remplissage du questionnaire et l’entretien individuel ont pris environ 30 min.

4.2. Résultats issus des traces d’activité

L’analyse des productions des 3 élèves nous informe sur leur niveau de réussite et de difficulté des tâches effectuées.

Les questions plutôt réussies portent sur les manipulations d’entités, l’écriture de formules simples, l’utilisation de références relatives, l’édition de graphiques et la réalisation de série de dates. Les 3 étudiants les ont à peu près résolues. Ils ont rencontré des difficultés pour la tâche nécessitant de trier les données d’une table selon plusieurs critères (Voir la figure 2 au début de cet article) et l’écriture d’une formule nécessitant l’utilisation de la fonction SI. Un seul étudiant a effectué le tri et aucun n’a proposé une formule utilisant la fonction SI.

Enfin l’étudiant E2 semble particulièrement en difficulté, il a réussi trois exercices sur les neuf. Ses résultats sont difficiles à caractériser : il ne répond pas à certaines questions plutôt basiques, de mise en forme de cellule, mais arrive à créer une série automatique de dates. Il écrit une formule correcte pour un calcul de somme, mais laisse une formule de moyenne inachevée, sans signe « = ».

L’analyse des enregistrements vidéo des 3 étudiants a permis de nuancer les réussites et les difficultés supposées par l’analyse des productions finales. Notamment, on observe que les tâches non abouties ne correspondent pas forcément à une absence totale de savoir ou savoir-faire de l’étudiant. Par exemple, pour une tâche nécessitant la fonction SI, l’analyse des vidéos de deux étudiants (E1 et E3) révèle qu’ils ont essayé d’utiliser la fonction SI, mais ont échoué dans l’écriture des paramètres de la fonction, et ont abandonné.

Plus généralement, l’observation des enregistrements vidéo révèle des divergences entre ces trois étudiants.

Types d’accès aux commandes via l’interface
E1 et E3 adaptent leur comportement en fonction du contexte. Pour la résolution de questions basiques, tous les deux utilisent les boutons d’actions et pour les questions plus complexes, les commandes sont accédées à partir du menu.
E2 utilise aussi bien les boutons d’actions que les menus dès lors que cela correspond à un simple clic qui ne nécessite pas de paramétrage spécifique par la suite : par exemple pour la création de graphique ou la mise en italique d’une cellule

Types de recherche
E1 n’effectue pas de recherche dans les menus ou ailleurs : soit il sait soit il ne sait pas
E3 utilise systématiquement le menu contextuel quand il ne sait pas tout de suite comment agir et fait des recherches dans le menu général.
E2 parcourt l’écran de manière aléatoire.

Tentatives et essais
E1 n’a pas effectué de retours ultérieurs sur une question abandonnée ; E1 prend le temps de lire longuement les consignes
E3 a effectué plusieurs allers-retours entre les questions ; E3 présente des temps d’arrêt plus fréquents.
E2 est revenu sur certaines questions sans forcément les résoudre

Tableau 2 • Comparaison des observations : divergences entre les étudiants

Trois remarques découlent de ces observations :

- Les trois étudiants interagissent de manière différente avec le tableur ;

- Il se dégage des invariants dans les modes de fonctionnements individuels. Par exemple, on observe que E1 utilise le bouton « retour arrière » en cas d’erreur tandis que E3 explore systématiquement le menu contextuel dès qu’il ne répond pas immédiatement à une question.

- Le comportement de E2 est plus difficile à caractériser : il semble parcourir l’écran comme on parcourt un lieu physique.

4.3. L’exploitation des verbalisations et leurs résultats

4.3.1. Exploitation des entretiens : la grille d’analyse thématique

Les entretiens ont été centrés sur les difficultés rencontrées (nature et raison), les modes opératoires en cas d’échec ou de succès, l’utilisation des fonctions prédéfinies, les techniques de résolution adoptées grâce à un guide d’entretien élaboré au préalable fonction des études précédentes.

L’exploitation des entretiens a été réalisée en trois étapes :

- Les entretiens ont été transcrits pour compléter le corpus ;

- Les données ont été organisées en thèmes ;

- Le contenu des discours est analysé et interprété selon ces thèmes.

Pour obtenir une grille de lecture explicitable, nous avons établi des catégories objectivées à partir des discours. L’identification des thèmes s’est faite à partir de la lecture des transcriptions et en appliquant les formalisations de l’analyse thématique, (Blanchet et Gotman, 1992), bien que notre corpus soit limité en nombre.

Nous avons donc combiné :

- Une analyse verticale qui porte sur chaque personne : est passé en revue le discours de chacun sur les différents thèmes et une synthèse individuelle est tentée

- Une analyse horizontale : elle traite chaque thème de façon transversale, relevant les différentes formes sous lesquelles il apparaît dans le discours des personnes interrogées.

Thèmes

Idées

A Niveau du test

1. Le test est faisable


2. A rencontré des difficultés

B Modes et logiques

1. Connaît les éléments du tableur sollicités

d’action

2. N’utilise pas tous les éléments connus


3. Utilise plusieurs modes d’action


4. Choisit ses modes d’action


5. Ne choisit pas ses modes d’action

C Motivation des choix

1. Volonté de ne pas se tromper

d’actions

2. Régularité d’utilisation


3. Habitude provenant d’un apprentissage


4. Reproduction de gestes appris

D Difficultés rencontrées

1. N’a pas réussi à mettre en œuvre une procédure


2. Fais une action inefficace (erreur)


3. Ne comprend pas la consigne


4. Se pose des questions sur l’attendu

Tableau 3 • Extrait du guide d'analyse thématique des discours

Les principaux thèmes qui ont émergé de la catégorisation des discours sont : Appréciation sur le niveau de difficulté du test, Modes et logiques d’action mises en œuvre, Motivations des choix d’actions, Difficultés rencontrées, Méthodes de résolution, Causes des difficultés, Appréciation des résultats obtenus. Le tableau 3 reproduit un extrait de ces thèmes et des idées correspondantes exprimées par les étudiants lors des entretiens.

4.3.2. Les étudiants justifient leur choix

Il apparaît que les étudiants E1 et E3 adaptent, plutôt consciemment, leur interaction au contexte rencontré. En particulier :

Ils gardent à l’esprit un résultat visé et vérifient le résultat obtenu.

Par exemple, E1 dit qu’il recopie une formule de calcul vers le bas, puis il décrit une technique de validation du résultat obtenu :

"Ben quand je descends ça me donne d'autres chiffres donc après je vais pas forcément calculer mais ça m'a pas mis plein de petit "#" ou 0 quand il y a des chiffres ça va." [E1]

Autre exemple, E3 explique à plusieurs reprises qu’il vérifie le résultat obtenu, et cherche une autre solution quand il diffère du résultat attendu :

"ça m'a calculé un bon résultat pour le premier, mais pour le deuxième, je crois qu'il y avait plein de "#" des trucs comme ça. C'était pas le résultat donc j'ai cherché" [E3]
"(..) enfin j'aurais essayé de regarder déjà si ça concordait ben, je crois que j'aurais laissé mais euh" [E3]

E1 et E3 disent reproduire des gestes appris :

" On m'a appris comment faire une somme ou comment utiliser la formule somme, ou même déplacer par exemple pour le dernier exercice (...)" [E3]
"(..)ben/ on s'en rappelle/ on les fait depuis //je sais pas qu'on a 14 ans après c'est facile de les refaire (...)" [E1]

E1 choisit volontairement de ne pas utiliser les fonctions prédéfinies SOMME et MOYENNE alors qu’il les connaît :

"- Avez-vous utilisé les fonctions prédéfinies comme somme, moyenne ?
- Non je ne les ai pas utilisées, j'ai tapé "++++" et "/"
- Vous savez que les fonctions existent ?
- Oui
- Vous les utilisez ?
- Non parce que je sais que cela fait +++ ... je suis sûre d'avoir le résultat
- Pour vous c'est plus rapide ?
- Oui on ne se trompe pas déjà si on connaît la formule mais qu'on sait pas la mettre en pratique donc c'est mieux de faire à sa manière, c'est plus facile"
[E1]

E1 justifie ses choix d’actions par la volonté de ne pas se tromper, la régularité d’utilisation ou des habitudes propres.

Il se dégage de l’analyse des discours que, globalement, les procédés adoptés par les étudiants E1 et E3 sont conscients et organisés, et non pas un ensemble de gestes désordonnés. Les étudiants E1 et E3 ont à l’esprit le résultat visé et s’en préoccupent en effectuant des vérifications même si, il est vrai, leur méthode de validation est plutôt superficielle. De plus, ils effectuent des choix conscients et savent les justifier.

4.3.3. Des portraits distincts : identification de stratégies personnelles

Enfin, les verbalisations issues des entretiens ont été mises en relation avec les analyses des enregistrements vidéo d’écran, des productions finales et le questionnaire sur les usages. La combinaison des quatre sources de données a permis de mettre en évidence que chaque étudiant interagit de manière différente avec le logiciel, et qu’il existe une cohérence au sein de chaque démarche.

L’organisation des informations issues de toutes les sources de données nous amène à proposer cinq indicateurs : la connaissance des objets du tableur, l’origine des actions de manipulation de l’interface, des caractéristiques de comportement saillantes, la régularité d’usage du tableur, et les expressions langagières. La valorisation de ces indicateurs pour les trois étudiants testés est présentée dans le tableau 4.

La relecture du tableau étudiant par étudiant, fait apparaître trois portraits différents d’utilisateur du tableur éclairant le lien entre leurs attitudes et l’utilisation du logiciel. Ces trois étudiants ne présentent pas les mêmes compétences ni les mêmes comportements vis-à-vis du logiciel, bien qu’ils aient eu la même formation au tableur.


E1

E2

E3

Connaissances des objets du tableur

Maîtrise ce qu’il connaît déjà et uniquement ce qu’il connaît.

Possède une connaissance très limitée des concepts

A une connaissance approximative.

Origine des actions

Choix pré-établi par les habitudes

Reproduction de gestes

Manipulation de l’interface

Caractéristiques

A développé des habitudes

Fait appel uniquement à sa mémoire

Recherches systématiques dans le menu contextuel

Usage du tableur

Usage régulier pour des activités scolaires et extrascolaires

Usage limité aux activités scolaires

Usage ponctuel pour des activités scolaires

Expression emblématique

 « Ça m’a donné... »
« Ça m’a pas donné »

« Aller là où il faut »

« À force de chercher, chercher ...»

Tableau 4 • Cinq indicateurs pour les étudiants interviewés

5. Discussion et perspectives

Dans un dispositif de tests de compétence sur un logiciel tableur, comportant l’analyse des traces d’activités (production finale et capture vidéo des écrans), l’introduction d’entretiens pour recueillir une verbalisation des activités a enrichi notre compréhension des savoirs et savoir-faire mobilisés.

La méthode utilisée fournit des informations susceptibles de nous aider à mieux comprendre les manipulations lors des interactions des utilisateurs avec le logiciel, notamment sur les types de difficultés rencontrées, les causes attribuées aux difficultés et les motivations des gestes observés.

De plus, la prise en compte des différents types de données collectées, nous a permis de dresser des portraits des étudiants, révélant leurs comportements lors de la réalisation de tâches simples nécessitant l’utilisation d’un tableur.

5.1. Discussion de la méthode utilisée

La méthode d’analyse présentée est exigeante et coûteuse à toutes les étapes de la recherche : du fait de la diversité du corpus, du temps nécessaire pour l’analyse et l’interprétation des vidéos et des verbalisations, particulièrement comme ici, lorsqu’il s’agit de procédures mentales relatives à des connaissances et compétences car implicites et difficiles à caractériser.

L’exigence concerne aussi le rôle du chercheur qui se doit d’être toujours rigoureux dans ce type d’enquête qualitatif et exploratoire basé sur des entretiens peu directifs. Si la spontanéité des verbalisations est un atout d’authenticité, elle présente le risque de ne pas être toujours productive.

L’analyse de la verbalisation des interactions avec le tableur présente deux apports essentiels à l’étude des comportements des utilisateurs du tableur.

Le premier apport concerne l’amélioration du processus général d’analyse des comportements. Le recueil des entretiens n’a pas été sans effet sur l’exploitation des traces des activités. Pendant cette phase, le souvenir des entretiens a permis de réduire l’incertitude et l’interprétation inhérente de gestes inexpliqués à cette étape. Par exemple à la question 2 quand la vidéo des écrans de E1 montre dans l’étape de calcul des moyennes « Curseur se déplace sur les cellules A7 à O7 », l’interprétation en « Compte le nombre de cellules » est instantanée car lors de l’entretien E1 a fourni des indications sur la manière dont il a calculé les moyennes. Le processus général gagne alors en efficacité (on se pose moins de questions) et validité (on interprète moins).

Le second apport est relatif à la connaissance du mode opératoire des étudiants dans l’utilisation du tableur. La prise en compte des discours éclaire sur les motivations des actions observées dans l’analyse des vidéos d’écran et permet d’introduire des caractéristiques de nature individuelle dans l’étude des compétences tableur. Les éléments d’un mode opératoire propre à chaque étudiant sont tirés de leur discours.

Les étudiants de la population testée ne présentent pas un comportement unique dans leur interaction avec le tableur bien qu’ils aient suivi la même formation au tableur. Ils sont cohérents, chacun, dans leur style.

5.2. Perspectives

Plusieurs perspectives de recherche existent pour en prolonger les résultats, dans le domaine de la recherche d’une part et dans le domaine de la formation d’autre part.

Concernant le domaine de la recherche, des explorations pourraient être menées afin de :

- Trouver des éléments explicatifs des styles observés ou d’autres styles ;

- Examiner la possibilité d’établir une typologie de comportements des usagers ;

- Caractériser encore plus finement les gestes et intentions des jeunes utilisateurs des tableurs par une analyse lexicale de leur discours qui examinerait dans quelle mesure les termes employés par les étudiants sont révélateurs d’un niveau ou d’un comportement.

Concernant le domaine de la formation, nos résultats montrent que les apprenants ont des comportements et des compétences construits, ne découlant pas uniquement des formations assurées. Habitudes, apprentissages antérieurs, usages, représentations etc. ne sont pas neutres. La prise en compte des éléments de nature individuelle serait de nature à favoriser un apprentissage efficace dans l’enseignement des logiciels en général et du tableur en particulier. Les résultats de notre étude peuvent servir pour l’élaboration de curriculum de formation de formateurs.

(1) Didactique du Tableur, projet coordonné de 2004 à 2007 par une équipe de l’ENS de Cachan, l'Unité Mixte de Recherche (UMR) du laboratoire STEF.

(2) Master M2 recherche Didactique des sciences et techniques mention du Master "Communication scientifique et technique : contenus, outils, pratiques" de l’École doctorale Sciences Pratiques de l'ENS de Cachan-INRP

(3) Ce n’est pas là le seul inconvénient de l’opérateur + par rapport à la fonction SOMME. L’opérateur + retourne une erreur si les cellules à sommer contiennent des valeurs non numériques, alors que la fonction SOMME les ignore. Toutefois dans la tâche proposée cette propriété n’est pas véritablement un critère de choix.

(4) Les populations d’élèves testées étaient composées de 22 élèves de troisième au collège, 30 élèves de seconde générale, 22 élèves de première L et 13 élèves en terminale Bac Pro. tertiaire

6. Références

BARON, G.L., BRUILLARD, E. (2008). Technologies de l’information et de la communication et indigènes numériques : quelle situation ?, Rubrique de la revue STICEF, Volume 15, disponible sur internet : http://sticef.org. (Consulté le 24 mars 2011).

BLANCHET, A., GOTMAN, A. (1992). L’enquête et ses méthodes : l’entretien. Paris: Nathan.

BLONDEL, F.-M., TORT, F. (2007). Comment évaluer les compétences des lycéens en matière de tableur ? In T. Nodenot, J. Wallet et E. Fernandes (Éds.), Actes de la conférence EIAH2007 (p. 77-82). Lyon : INRP et Paris : ATIEF. Disponible sur internet : http://hal.archives-ouvertes.fr/hal-00161396. (Consulté le 24 mars 2011).

BRUILLARD, É., BLONDEL, F.-M., TORT, F. (2008). DidaTab project main results: implications for education and teacher development. In K. McFerrin, R. Weber, R. Carlsen et D.A. Willis (Eds.) Proceedings of Society for Information Technology and Teacher Education International Conference, SITE 2008 p. 2014-2021. Chesapeake, USA: AACE. ISBN: 1-880094-64-9.

DEMUNTER, C. (2006). How skilled are Europeans in using computers and the Internet, Eurostat, European Communities, 17/2006.

DYKE G., GIRARDOT J. J., LUND K., CORBEL A. (2007). Analysing Face to Face Computer-mediated interactions, EARLI (European Association for Research Learning and Instruction), 12th Biennal International Conference, Budapest, Hungary

GRANDBASTIEN, M., LABAT, J-M., (2006). Environnements Informatiques pour l'Apprentissage Humain Hermes Lavoisier (Ed.). Disponible sur internet : http://hal.inria.fr/inria-00103288/en/ (Consulté le 24 mars 2011).

HULSHOF, C. D. (2004). Log file analysis. In L.Kimberly Kempf (Ed.), Encyclopedia of Social Measurement. Elsevier, p. 577-583.

KVAVIK, R.B., CARUSO, J.B. (2004). ECAR Study of Students and Information Technology, 2005: Convenience Connection, Control and Learning, Vol.6, 2005.

LENNON, M., KIRSH, I., VON DAVIER, M., WAGNER, M., YAMAMOTO, K. (2003). Feasibility Study for the PISA ICT Literacy Assessment, ACER, 2003

LIM, K. (2004). A Survey of First-Year University Students’ Ability to use Spreadsheets, Spreadsheets in Education (eJSiE), Vol. 1 n°2, p 71-85. Disponible sur internet : http://epublictions.bond.edu.au/ejsie/vol1/iss2/1/. (Consulté le 24 mars 2011).

PARISSIS, M., KOMIS, V. (2009). Etudier les activités des élèves concernant l’usage des tableurs à l’aide d’une analyse d’enregistrements vidéo in G.L. Baron, É. Bruillard et L.O. Pochon (Eds.), Informatique et progiciels en éducation et en formation p. 318-336. Lyon : INRP

RIX, G., LIEVRE, P. (2005). Une mise en perspective de modes d’investigation de l’activité humaine. Disponible sur le site de l’ Association Française de Science des Systèmes : http://www.afscet.asso.fr/resSystemica/Paris05/rix.pdf

TORT, F. (2009). Tests de compétences tableur. Ce que révèlent les enregistrements d’écran. in G.L. Baron, É. Bruillard et L.O. Pochon (Eds.), Informatique et progiciels en éducation et en formation p. 296-317. Lyon : INRP. Disponible sur internet : http://www.stef.ens-cachan.fr/annur/tort/tbb_issep_2008.pdf (consulté le 24 mars 2011)

TORT, F., BLONDEL, F.-M., BRUILLARD, É. (2008). Spreadsheet Knowledge and Skills of French Secondary School Students. In R.T. Mittermeir and M.M. Syslo (Eds.): ISSEP 2008, LNCS 5090, (p. 305-316). Berlin: Springer-Verlag.

VERMERSH, P. (2009). Méthodologie d’analyse des verbalisations relatives à des vécus (1). Expliciter, Vol. 81, p.1-21. disponible sur internet : http://www.expliciter.fr/IMG/pdf/81_octobre_ 2009.pdf

7. Références complémentaires non citées

Site du Projet DidaTab : http://www.stef.ens-cachan.fr/didatab/fr/

Toile : 

Annexes

Exemple de codage d’un enregistrement vidéo.

Chrono

Action

Réponse logiciel

durée

Commentaire

Etape

00:03:07

Souris inerte

Curseur immobile

11:08

Lit l’énoncé

Lecture énoncé

00:14:15

La souris bouge dans la partie haut gauche écran

Le curseur bouge de manière aléatoire

Cherche à maîtriser la souris

00:16:28

Clic sur colonne B et l’agrandit

La colonne change de taille

02:13


Réalise consigne 1 : largeur colonne

00:23:07

Clic sur l’ascenseur

Ecran descend

06:39

Descendre l’écran : accès suite écran

Vérifie résultat

00:26:21

Souris inerte

Curseur immobile

03:13

Lit la question 2 de l’énoncé ?

Lecture énoncé

00:28:24

Sélection cellules A8 :A27

Les cellules changent de couleur

04:42


Réalise consigne 2 :

00:31:03

Clic bouton mise en forme ‘i’

Mise en forme colonne


00:37:

Souris inerte sur question 2

Curseur immobile

05:57

Vérification résultats

Vérifie résultat

Extrait du codage de l'enregistrement de l'étudiant E1 pour la tâche 1

Exemple d’une narration de vidéo

(...) Après un moment, la souris clique sur la cellule D7 (zone de la formule à écrire) puis clique sur le bouton ‘fx’ fonction à insérer et sélectionne la fonction SI. La fenêtre "arguments de la fonction" s’ouvre. Après plusieurs saisies différentes, dans les zones "test_logique" est saisi "15", dans "valeur_si_vrai" est saisi "<C7" (C7 est obtenu par clic sur la cellule âge) puis la fenêtre est fermée par un clic dans la zone "x". Après un moment, la souris clique sur la feuille suivante. [01:45:51]

Extrait de la narration de la réalisation de la tâche 1 pour l'étudiant E1

Exemple du codage d’un entretien


R10

Ben euh on m'a appris comment (voix enjouée) faire une somme ou euh/ comment utiliser la formule somme/ ou même déplacer euh par exemple pour le dernier exercice euh quand on écrit la date si on déplace tout vers le bas / ça permet d'afficher toutes les autres dates du mois

je reproduis un geste appris

Q11


Et vous n'aviez pas appris pour la fonction SI ?



R11

Si j'ai appris mais alors euh elle est plus complexe/ alors plus plus difficile à s'en rappeler

Non descriptif

Q12


Qu'a t-elle de complexe ?



R12

euh déjà elle est longue / par rapport à euh / je trouve qu'elle est longue je me souviens que c'était long à taper dans // dans la formule mais aussi euh il y a beaucoup de point-virgule alors ça m'a perturbé.

l'interface du logiciel est compliquée pour la fonction SI() avec saisie de paramètres

Extrait de l'établissement des thèmes à partir du discours de E3

A propos des auteurs

Aurélie CHATELET EWANGO, diplômée de l’université Paris Dauphine en informatique et gestion, est titulaire d’un D.E.S.S en systèmes d’information. Après quinze années d’expérience dans le monde de l’ingénierie des logiciels, en 2002, elle devient agrégé d’économie-gestion option informatique et enseigne les systèmes d’information de gestion à l’université Versailles Saint Quentin.

Adresse : UVSQ-IUT de Vélizy Rambouillet, 19 allée des vignes, 78000 Rambouillet

Courriel : chatelet@iut-velizy.uvsq.fr

Françoise TORT, Maître de conférences en informatique, elle est membre du laboratoire de Didactique des Sciences et des Techniques (STEF – ENS Cachan –INRP). Ces travaux de recherche s’inscrivent dans le domaine de la didactique de l’informatique et des disciplines informatisées. Elle s’intéresse particulièrement à la didactique des progiciels. Ses travaux l’ont amenée à étudier les savoirs et savoir-faire spécifiques mobilisés par les jeunes lors de l’utilisation des applications informatiques, et à identifier et exploiter des outils de recueil de données adaptés (vidéos, entretiens, stylos numériques).

Adresse : UMR STEF – ENS Cachan – INRP, 61 av du Président Wilson 94235 Cachan cedex

Courriel :  francoise.tort@ens-cachan.fr

http://www.stef.ens-cachan.fr/annur/tort.htm