Mandin
Notre objectif est de favoriser la maîtrise de l’activité de résumer chez des élèves du secondaire et d’améliorer la compréhension des textes sources traités. Nous construisons des modèles computationnels de l’activité à partir de l’étude de résumés d’experts et d’élèves de la 4e à la 1re. Ils se fondent sur LSA (Latent Semantic Analysis, Landauer & Dumais, 1997) qui permet de déterminer la proximité sémantique entre deux éléments textuels, et concernent les processus d’identification des phrases importantes d’un texte (explicatif ou narratif) et du type de phrases produites dans les résumés. Nous avons implémenté ces modèles dans un EIAH, Résum’Web, dont nous présentons l’expérimentation in situ, auprès de 2e. Nous restreignons cette expérimentation aux résumés de textes explicatifs pour lesquels nos modèles sont les plus robustes.
Nos résultats montrent que LSA peut permettre d’identifier des caractéristiques communes aux résumés d’individus, le type de phrases d’un résumé et les stratégies de sélection des phrases importantes d’un texte. Nous questionnons toutefois la validité de nos modèles qui influe sur la qualité des feedback émis dans Résum’Web. Bien que ces derniers ne soient pas toujours corrects, l’entraînement est bénéfique à l’identification du type de phrases des résumés d’un texte explicatif et à leur répartition lorsque les phrases importantes du texte source sont plus saillantes. Nous n’observons en revanche aucun effet de Résum’Web sur l’identification des phrases importantes d’un texte et sur sa compréhension.
Cette thèse contribue à la recherche sur l’activité de résumer en sciences de l’éducation, en psychologie cognitive et en informatique.
Our goal is to improve the activity of summarizing for high school students and to improve the understanding of the processed source texts. We build computational models about the activity based on the study of experts and high school students’ summaries (from 8th to 10th grades). They are based on LSA (Latent Semantic Analysis, Landauer & Dumais, 1997) which allows the determination of semantic similarities between two text elements, and refer to the processes of identifying the important sentences of a source text (narrative or explanatory) and the type of sentences produced in the summaries. We implemented these models in a TEL environment, Resum’Web. We lastly present its in situ experiment, on 10th grade students. We then limit it to summarizing explanatory texts for which the generated models are the more robust.
Our results show that LSA can give the possibility of identifying common attributes to summaries, the type of sentences of a summary and the strategies of selecting important sentences of a text. However we question the validity of our models which have an influence on the quality of Resum’Web generated feedback. Even though the feedback is not always correct, the proposed training appears to benefit the identification of the type of produced sentences in the summaries of an explanatory text, and on the produced sentences distribution when the important sentences of a text are more salient. However, we do not observe any effect of Resum’Web on identifying importance sentences of a text nor on its understanding.
This PhD thesis contributes to the research about summarize activity in educational science, in cognitive psychology and in computer science.
Mendelsohn Patrick
Dessus Philippe
Lemaire Benoît
Amphithéâtre MSH-Alpes (campus de Grenoble), 9h30
P. Mendelsohn, P. Dessus, B. Lemaire, D. Peraya, D. Legros, F. Mangenot
Dernière mise à jour : 2 janvier, 2011 - 20:46