EIAH'2019 - Atelier Méthodes et outils pour tracer et évaluer un dispositif pédagogique en recherche en EIAH
Méthodes et outils pour tracer et évaluer un dispositif pédagogique en recherche en EIAH
Cadrage théorique
Dans le cadre des recherches en EIAH, l’évaluation d’une plateforme de support à l’activité d’apprentissage pour des apprenants ou des enseignants en situation réelle est complexe. Des facteurs techniques, humains, sociétaux peuvent influencer les résultats de cette évaluation [1], [2], [3]. Or, mesurer l’impact des plateformes sur l’activité des enseignants et des apprenants est essentiel pour savoir comment faire progresser ces plateformes afin qu’elles soient des outils de support à l’activité. Mais surtout, dans le cadre de travaux de recherche le dispositif doit aussi fournir des données expérimentales pour créer ou consolider des connaissances scientifiques. Des méthodes de production de données adéquates doivent être utilisés, et la traçabilité des données produites et des résultats doit être garantie. Selon Wang et Hannafin [4], l’évaluation doit donc pouvoir répondre à des questions de recherche, des questions technologiques, et des questions d’impact sociétal. Face à ces problèmes méthodologiques d’évaluation en situation écologique, notre atelier se propose d’aborder d’une part les problèmes de méthode de production et d’analyse de données pour répondre à ce triple objectif. D’autre part, l’atelier fournira une méthode de conduite de la recherche élaborée dans un souci de garantir la traçabilité des résultats [5]. Lors de l’atelier chacun des participants pourra adapter cette méthode à son propre contexte de travail. Notre objectif est que chaque participant reparte avec sa démarche de recherche décomposée en 8 périodes d’où l’idée d'« Octaèdre de la recherche en EIAH ».
[1] N. Mandran, S. Dupuy-Chessa, A. Front, and D. Rieu, ‘Démarche centrée utilisateur pour une ingénierie des langages de modélisation de qualité’, Ingénierie des systèmes d’information, vol. 18, no. 3, pp. 65–93, Jun. 2013.
[2] S. Dupuy-Chessa, N. Mandran, G. Godet-Bar, and D. Rieu, ‘A case Study for Improving a Collaborative Design Process’, in IFIP WG8.1 Working conférence on Method Engineering (ME’2011), 2011.
[3] F. Jambon, N. Mandran, B. Meillon, and C. Perrot, ‘Évaluation des systèmes mobiles et ubiquitaires : proposition de méthodologie et retours d’expérience’, in Ergo-IA’08 ‘L’humain au coeur des systèmes et de leur développement’, Biarritz, 2008, pp. 107–116.
[4] F. Wang and M. J. Hannafin, ‘Design-based research and technology-enhanced learning environments’, Educational Technology Research and Development, vol. 53, no. 4, pp. 5–23, 2005.
[5] N. Mandran, Traceable Human Experiment Design Research, ISTE ltd., vol. 9. 2018.
Organisation de l’atelier
Atelier pratique "Concevoir une démarche de recherche en EIAH Traçable" (2h)
Les participants utiliseront ces outils pour construire leur propre démarche expérimentale de recherche en EIAH. Les outils seront présentés de manière globale et situés dans le cadre de la recherche des participants. Les participants utiliseront alors ces outils dans le cadre de leurs travaux. A l'issue de l'atelier les participants auront construits leur propre démarche de recherche traçable dans le contexte des EAIH. Un débriefing sera organisé pour discuter de ces outils et pour faire émerger des points d'améliorations.
Projet APACHES - ISite ULNE (30 mn)
Comment enseigner et outiller la formation à la méthodologie de recherche en informatique centrée humain ? (Mathieu Vermeulen, Abir Karami)
Evaluation centrée utilisateur, méthode, traçabilité, processus de recherche, démarche qualité
Dernière mise à jour : 5 avril, 2019 - 15:50