Équiper et évaluer un « certificat de
compétences cliniques »
Olivier CATTEAU (IRIT, Université de Toulouse), Anne MAYÈRE (CERTOP, Université de Toulouse), Nicolas SAVY (IMT, Université de
Toulouse), Odile BEYNE-RAUZY (CHU de Toulouse, Université de
Toulouse)
|
RÉSUMÉ : Cet
article présente les résultats de l’étude de la mise
en place d’un certificat de compétences cliniques à travers
la conception et la mise en œuvre d’un environnement informatique.
Cet environnement informatique vise, d’une part, à équiper
cet examen et, d’autre part, à mener une démarche
réflexive le concernant. Les résultats des étudiants
à cet examen montrent l’absence de redondance avec ceux des
épreuves classantes typiques de ce parcours de formation. En confrontant
les retours des étudiants au travers de questionnaires anonymes et
l’étude du dispositif de formation lui-même, nous
interrogeons l’approche qui le sous-tend concernant les compétences
en général et les compétences relationnelles en
particulier.
MOTS CLÉS : approche
par compétences, évaluation, modèles pédagogiques,
collecte de données, traitement de données, ECOS. |
Equipment and evaluation of a "clinical competencies certificate" |
|
ABSTRACT : This
paper presents the results of the study of the implementation of a clinical
aptitude certificate through the design and implementation of an IT environment.
This IT environment aims on the one hand to equip this examination, and on the
other hand to conduct a reflexive approach concerning it. The students' results
in this examination show no redundancy with those of the ranking tests typical
of this training program. By comparing student feedback through anonymous
questionnaires and the study of the training system itself, we question the
underlying approach to skills in general and relational skills in
particular.
KEYWORDS : competency
approach, assessment, learning model, data collection, data mining, OSCE |
1. Introduction
Un certificat de compétences cliniques a
été mis en place depuis 2016 à l’issue du
deuxième cycle des études médicales en France (année
bac+6). Ce certificat représente une innovation relative pour ce domaine,
dans la mesure où il suppose de rompre avec une logique dominante de
concours et d’évaluation de connaissances via des questionnaires
à choix multiple (QCM), pour évaluer des compétences, en
l’occurrence cliniques. Cet article prend appui sur les résultats
d’une démarche initiée dans le cadre d’un programme de
recherche interdisciplinaire financé par l’Institut de Recherche en
Santé Publique (IReSP)1. A
travers la conception et la mise en œuvre d’un environnement
informatique, il s’agit d’une part d’équiper le
dispositif d’évaluation requis pour ce certificat et, d’autre
part, de contribuer à un retour réflexif sur le dispositif.
Nous exposerons tout d’abord le contexte d’introduction de ce
nouveau certificat, ainsi que les conditions de sa mise en œuvre à
l’Unité de formation et de Recherche (UFR) de Médecine de
Toulouse Purpan. A travers l’analyse des résultats de cet examen,
nous montrerons que ce certificat se distingue des autres dispositifs
d’évaluation, ce qui conduit à considérer qu’il
évalue des dispositions ou des savoirs autres que ceux que mesurent les
épreuves classantes.
Sur la base de l’analyse des résultats d’examen, qui
permet d’en préciser les modalités et attendus, nous
proposons une prise de recul : qu’en est-il de ce qui est ainsi
évalué ? Tant les retours des étudiants via des
questionnaires anonymes, que la mise en discussion des résultats
intermédiaires avec ceux d’autres recherches, invitent à
interroger les approches pédagogiques qui sous-tendent le dispositif et
les acceptions associées des compétences cliniques.
Enfin, nous conclurons en proposant des perspectives de recherche.
2. Conditions d’élaboration et mise en œuvre d’un
dispositif d’évaluation
2.1. Contexte de développement d’un certificat de
compétences cliniques
Dans le cadre de la réforme des études
médicales, la définition d’un référentiel de
compétences génériques dans le Bulletin Officiel du 16 Mai
2013 a rendu nécessaire une transformation pédagogique pour mettre
en place un processus d'acquisition, de développement et de certification
des compétences cliniques en médecine (2ème cycle). Le
certificat de compétences cliniques (CCC) a été mis en
place pour en assurer la validation (MESRI, 2013) ;
les principales compétences attendues sont celles de :
« Clinicien », « Communicateur »,
« Acteur de Santé Publique »,
« Scientifique », « Responsable aux plans
éthique et déontologique »,
« Réflexif » (les extraits du BO sont
présentés en annexe).
Beaucoup d’auteurs se sont penchés sur la notion de
compétence. Nous utiliserons dans cet article la définition de
Tardif : « Un savoir-agir complexe prenant appui sur la
mobilisation et la combinaison efficaces d’une variété de
ressources internes et externes à l’intérieur d’une
famille de situations » (Tardif, 2006).
Cette définition souligne le caractère complexe et situé
des compétences. Or l’inscription de cette démarche par
compétences dans les études médicales vient en tension avec
une logique de concours, qui suppose des critères objectifs et
« neutres » d’évaluation pour
l’interclassement des différents candidats. Cette logique du
concours a progressivement transformé les études médicales,
en faisant du QCM la modalité prédominante
d’évaluation, et l’organisation des enseignements. Le nouveau
certificat de compétences cliniques se trouve ainsi « pris en
tenaille » entre l’objectif d’évaluer des savoirs
complexes, interactionnels et situés, et l’exigence de
critères d’évaluation objectivables et standardisables.
Nous proposons dans le cadre de cet article de questionner les logiques en
tension dans un tel dispositif d’évaluation. Nous verrons
qu’une forme première de résolution de ces tensions a
consisté à privilégier une approche béhavioriste,
focalisée sur des comportements observables et mesurables (Boutin, 2004).
Nous poserons ensuite des jalons vers d’autres approches susceptibles de
mieux évaluer les compétences mobilisées pour affronter des
situations qui réclament une réflexion sur et dans l’action (Boutin, 2000).
Le dispositif d’évaluation retenu permet de placer les
étudiants en situation professionnelle et constitue une épreuve
appelée « Examen Clinique Objectif Structuré »
(ECOS), largement utilisée dans les pays anglo-saxons pour la
certification des médecins (Khanz et al., 2013a).
Les étudiants vont successivement être interrogés en
situation clinique au sein d’une station thématique pendant un
temps limité de 7 minutes, l’épreuve comptant au total 7
stations. Le choix de ces stations correspond à des compétences
dont l’acquisition est indispensable en fin de deuxième cycle des
études médicales (6ème année). Avant de
décrire les stations, deux éléments doivent être
précisés :
- la définition d’un patient-standardisé, qui est une
personne formée à reproduire de façon standardisée
une situation clinique élaborée spécifiquement par
l’équipe pédagogique pour évaluer certaines
compétences, cette personne est habituellement un comédien ;
- l’utilisation des mannequins qui permettent de reproduire des
anomalies de l’examen clinique, par exemple une anomalie de
l’auscultation cardiaque ou encore une tumeur du sein, dans les stations
dévolues à l’évaluation de l’examen
clinique.
Les deux premières stations de l’épreuve d’ECOS
sont les stations «électrocardiogramme (ECG) » et
« Thérapeutique ». Elles abordent des situations
médicales d’urgence. La station suivante,
« Dermatologie » devenue ensuite
« Iconographie », utilise un document (photo, radiographie)
à analyser dans une situation clinique. La station
« Annonce » et la station
« Interrogatoire » utilisent un patient-standardisé
et évaluent respectivement les aptitudes relationnelles de
l’étudiant à délivrer une information au patient ou
à solliciter des informations dans le cadre d’une démarche
de diagnostic. La station « Clinique » utilise un mannequin
permettant d’évaluer l’étudiant.e en situation
d’examiner un patient. La station « Examens
complémentaires » évalue la pertinence d’une
demande d’examen complémentaire dans une situation clinique et son
interprétation. Enfin la station « Synthèse »
permet à l’étudiant.e d’argumenter l’ensemble de
la démarche concernant les stations
« Interrogatoire », « Clinique » et
« Examens complémentaires » ; seule cette
station comporte deux examinateurs.
A chaque station, l’examinateur utilise des grilles
critériées qui visent à favoriser
l’homogénéité de l’évaluation (Khanz et al., 2013b).
En parallèle à la mise en place du nouveau dispositif
d’évaluation, le dispositif pédagogique global a
été modifié afin de permettre la formation des
étudiants à ces nouvelles modalités
d’évaluation, incluant en particulier des séances de
simulation avec des patients-standardisés telles que pratiquées
dans deux stations de l’examen, ou encore la formation à
l’examen clinique ou à certains gestes sur mannequin pendant
l’ensemble de leur cursus.
2.2. Méthodologie
Pour la mise en œuvre de cet examen, un environnement informatique a
été mis en place. Il est représenté sur la figure 1.
Son rôle est de recueillir les données d’évaluations,
d’automatiser et d’accélérer leurs traitements, pour
faire une remontée des résultats plus rapidement.
L’environnement, essentiellement composé à ce stade de
grilles d’évaluation, permet de collecter sous forme de traces
brutes un ensemble d’éléments observés.
Côté front office, le recueil de données se fait au
travers d’une application web responsive permettant aux
évaluateurs de saisir leurs résultats.
Figure 1 • Environnement informatique mis en
place
Le certificat de compétences cliniques est organisé dans les
locaux de l’Institut Toulousain de SIMulation en Santé (ITSIMS) qui
dispose d’une infrastructure hétérogène. Les
utilisateurs peuvent être amenés à utiliser
l’environnement informatique aussi bien à partir de postes fixes
reliés au réseau filaire, que de PC portables ou de tablettes
reliés au WiFi. Quelques salles d’examen ne disposent ni de
connexion filaire ni d’une qualité de réception suffisante
du WiFi, il a fallu alors installer des systèmes autonomes : bornes
WiFi avec portail captif vers une version hors ligne de l’environnement
informatique. Les données collectées ont été
transférées toutes les demi-journées sur le serveur
central. Les étudiants ont parfois dû utiliser leur
téléphone portable avec connexion 4G pour répondre au
questionnaire anonyme de fin d’examen.
Le système permet de gérer plusieurs campagnes
d’évaluation (une par année, cf. figure 2). A chaque
campagne sont rattachées les 7 stations. Pour chaque station, entre 16 et
30 grilles d’évaluation sont créées pour
éviter la communication des sujets entre étudiants. Il est
possible de créer des grilles spécifiques pour la gestion de
questionnaires anonymes. Chaque grille est découpée en 3 ou 4
sections contenant les items à évaluer.
Figure 2 • Représentation synthétique des
données
À chaque campagne on associe une cohorte d’étudiants.
Pour chaque station, le passage de chaque étudiant sur une des grilles
est défini à l’avance en tenant compte des parcours (2
étudiants différents peuvent en effet être examinés
au même moment par des jurys différents).
L’examinateur n’a plus qu’à préciser
(1) la station sur laquelle il travaille et
(2) l’étudiant qui se présente à lui pour
pouvoir compléter la grille d’évaluation (cf. figure 3).
Figure 3 • Évaluation des
étudiants
Chaque clic sur une case d’évaluation fait l’objet
d’une trace brute envoyée au back office. Une fois
collectées, les traces sont modélisées dans le back
office, puis des algorithmes de calcul sont mis en place pour produire des
indicateurs (Djouad, 2013).
Les principaux indicateurs à destination des responsables de formation
concernent la réussite à l’examen, le taux de satisfaction
des enseignants, le taux de satisfaction des étudiants, le taux de
difficulté perçue, mais également d’autres
indicateurs qui prennent appui sur une analyse statistique et docimologique des
grilles d’évaluation et des résultats associés (Dessus, 2019).
Une des finalités est de vérifier la pertinence du dispositif
d’évaluation et de l’améliorer pour les futures
sessions. La vérification de la pertinence du dispositif
s’effectuera par une analyse descriptive des résultats (mesures de
position et de dispersion des différents résultats) enrichie par
une analyse de la corrélation avec d’autres méthodes
d’évaluation (Lecoutre, 2016) telles que les épreuves théoriques de 6ème année et
les épreuves classantes nationales (ECN). Enfin l’analyse peut
être affinée au moyen de techniques d’analyse en composantes
principales (Husson et al., 2016).
En effet une faible chute d’inertie caractérise une isotropie des
résultats pour les différentes composantes de
l’évaluation et par conséquent une
homogénéité globale des résultats.
Les principaux indicateurs à destination des étudiants
relèvent de la rétro-information : réussite à
l’examen, commentaires des évaluateurs, évaluation et
commentaires des personnes assurant le rôle de
patients-standardisés. Lorsque des indicateurs nécessitent des
calculs statistiques (par exemple, coefficient de corrélation), le back office sollicite l’application R version 3.5.0
(2018-04-23).
Le certificat de compétences cliniques n’a pas à ce stade
finalité à participer à l’interclassement des
étudiants, mais à vérifier la maitrise de
compétences associées à la pratique clinique. Il ne
s’agit pas de reproduire la logique « concours » de la
Première Année Commune des Études de Santé (PACES)
ou des ECN en favorisant des critères discriminants ; la
priorité est donnée à
l’homogénéité des grilles
d’évaluation.
L’environnement informatique constitué permet par ailleurs de
recueillir de façon anonyme les retours tant des enseignants que des
étudiants. La réflexivité ainsi proposée aux
étudiants est un appui important pour accompagner l’apprentissage
et questionner plus avant les compétences attendues et
évaluées.
2.3. Expérimentation
A l’UFR de Médecine de Toulouse Purpan, le CCC a donné
lieu à une nouvelle modalité d’évaluation sous forme
d’un ECOS à destination des étudiants de 6ème
année.
L’examen a concerné 141 étudiants en janvier 2016, 134
étudiants en février 2017, 138 en 2018 et 151 en 2019. En 2016 et
2017, les étudiants sont passés successivement par les 7 stations
suivantes : « ECG, Dermatologie, Thérapeutique, Annonce,
Interrogatoire, Examen clinique, Synthèse ». Ces stations
formalisent des étapes standards de la pratique clinique. Il s’agit
en particulier d’évaluer la capacité à mettre en
œuvre un examen clinique et à formuler des hypothèses de
diagnostic et/ou de prise en charge. Un lien est établi entre plusieurs
stations pour envisager un même cas à différentes
étapes de la démarche clinique.
L’ensemble des données collectées et analysées est
résumé dans le tableau 1, qui schématise également
les évolutions du dispositif.
Tableau 1 • Effectifs
collectés et analysés de 2016 à 2019
|
2016 |
2017 |
2018 |
2019 |
Station ECG |
141 |
134 |
|
Fusion des stations « ECG » et
« Thérapeutique »
|
Station ECG/Thérapeutique |
|
|
135 |
151 |
Station Dermatologie/Iconographie |
141 |
134 |
135 |
151 |
Station Thérapeutique |
141 |
134 |
|
|
Station Annonce |
141 |
134 |
135 |
151 |
Station Annonce (retour des acteurs)
|
|
134 |
101 |
|
Station Interrogatoire |
141 |
134 |
135 |
151 |
Station Interrogatoire (retour des acteurs) |
|
125 |
94 |
|
Station Clinique |
141 |
134 |
135 |
Création de la station examen complémentaire
|
Station Examen complémentaire |
|
|
135 |
151 |
Station Synthèse |
141 |
134 |
135 |
151 |
Questionnaire anonyme post-évaluation à destination des
étudiants |
|
134 |
128 |
140 |
Entretiens post-évaluation avec les étudiants |
|
|
11 |
17 |
Questionnaire post-évaluation à destination des
évaluateurs |
|
30 |
|
35 |
Résultats aux épreuves
théoriques de 6ème année |
131 |
128 |
124 |
151 |
Résultats des ECN |
137 |
128 |
123 |
144 |
L’environnement informatique n’a été mis en place
qu’en 2017 mais une analyse statistique a pu être effectuée a
posteriori sur les résultats de 2016. La logistique de l’examen,
organisé sur 4 demi-journées, est assez lourde avec environ 25
examinateurs mobilisés, certains participant à plusieurs
demi-journées. Chaque étudiant doit passer 7 minutes par station.
Le changement de station se fait au coup de sifflet. Chaque station dispose de
plusieurs « vignettes » ou sujets d’examens pour
éviter la communication entre les étudiants qui ont terminé
leur parcours et ceux qui ne sont pas encore passés.
En 2018, le contenu de certaines stations a été modifié
pour tenir compte des retours des enseignants : les thématiques
« ECG » et « Thérapeutique » ont
été regroupées en une seule station. De plus, une nouvelle
station « Examen complémentaire » a été
introduite à la suite de l’examen clinique. C’est une autre
caractéristique de ce dispositif que d’être réflexif
et de supposer un environnement informatique qui équipe cette
réflexivité et qui soit aisément évolutif tout en
assurant des formes de comparabilité des résultats.
Les capacités mises en œuvre dans les interactions médecin
/ patient sont plus particulièrement considérées au cours
de deux stations faisant intervenir des comédiens comme
patients-standardisés (« Annonce » et
« Interrogatoire »).
Sur chaque station les examinateurs disposent d’une grille
d’évaluation informatisée. Les grilles des stations
« ECG », « Dermatologie » et
« Synthèse » sont composées de 10 à 20
critères évalués entre 1 et 6 points. Les autres grilles
sont composées de 10 à 30 éléments pour lesquels
l’évaluateur indique s’ils ont été
effectués complètement, partiellement ou pas du tout. Le rythme de
passage contraint le temps passé par les enseignants à
évaluer. Il suppose un environnement informatique très robuste et
soulève des défis quant à sa conception et son
évolution pour combiner efficacité et pertinence.
Un travail exploratoire a été mené par les responsables
pédagogiques afin de tenter de mettre en correspondance, d’une
part, les éléments d’évaluation et, d’autre
part, les compétences génériques définies dans
l’annexe du BO pour décrire les compétences
génériques dont l’acquisition est nécessaire pour
l’obtention du certificat : Clinicien, Communicateur, Acteur de
Santé Publique, Scientifique, Responsable aux plans éthique et
déontologique, Réflexif (Ministère de l’enseignement supérieur, de la Recherche et de l’Innovation, 2013).
En fin de parcours, l’avis des étudiants et des enseignants a
été collecté, sur une base volontaire et anonyme, au
travers de questionnaires qui leur étaient dédiés. Par
ailleurs, des entretiens semi-directifs ont été menés avec
des étudiants, sur une base volontaire, concernant leur formation
à la relation médecin-patient, avec des questions plus
spécifiques relatives à cet examen. Cette base
d’informations est centrale pour la recherche ici menée dans la
mesure où elle permet de recueillir des avis indépendants du
contexte de l’examen. Ce dernier est en effet achevé au moment
où il est proposé aux étudiants de prendre quelques
instants pour répondre, ce que la plupart d’entre eux font bien
volontiers (100 % de participation en 2017, 95 % en 2018, 93 % en
2019), ce moment constituant une forme de sas de sortie d’examen.
2.4. Résultats
L’environnement informatique a permis de diffuser aux candidats les
résultats à l’examen en 2017, 2018 et 2019 beaucoup plus
rapidement qu’en 2016, en évitant un traitement manuel et
potentiellement source d’erreurs.
Les questionnaires post-évaluation montrent un intérêt
pour la démarche, tant de la part des étudiants que des
enseignants-examinateurs. En 2017, le taux de satisfaction du processus
d’évaluation pour les enseignants était de 100 %
(100 % également en 2019), il était de 92 % pour les
étudiants (98 % en 2018, 94 % en 2019). À 76 % les
étudiants ont trouvé que l’examen était adapté
par rapport à la durée et au niveau demandé (92 % en
2018, 85 % en 2019). En 2017, la station dite
« Annonce » (au cours de laquelle une pathologie doit
être annoncée au patient standardisé) était
perçue comme étant la plus difficile par les étudiants
(64 % de taux de difficulté). Les compétences mises en jeu
dans la relation soignant-patient, domaine encore peu enseigné au cours
des études médicales, sont plus particulièrement mises
à l’épreuve dans de tels contextes. La situation a
évolué en 2018, la station « Annonce » ayant
été mieux préparée avec la mise en place
d’enseignements dédiés. Par ailleurs les situations
d’annonce ont été simplifiées, en portant sur des
annonces d’examen et non directement de pathologie. Le taux de
difficulté perçue par les étudiants a alors diminué
à 44 % en 2018, 49 % en 2019 alors que la station
« Examen clinique sur mannequin » a été
perçue comme étant la plus difficile (44 % de taux de
difficulté en 2017, 49 % en 2018, 52 % en 2019). Des
éléments d’explication peuvent tenir aux limites techniques
des mannequins et au manque d’entrainement des étudiants dans ce
contexte.
Le retour sur évaluation était très attendu par les
étudiants. Les résultats de chaque station ont été
communiqués par groupe de critères. Exemples : Savoir Etre,
Diagnostic, Prise en Charge, Raisonnement... Les commentaires saisis par les
évaluateurs étaient également communiqués. De plus,
sur les 2 stations où intervenaient des acteurs jouant le rôle de
patient-standardisé (« Annonce » et
« Interrogatoire »), une évaluation formative du
candidat leur était demandée. Le résultat de cette
évaluation était communiqué aux étudiants, mais ne
rentrait pas dans le calcul de la note finale pour l’attribution du
certificat de compétences cliniques. Cette évaluation pourrait
toutefois devenir sommative à l’avenir. En 2017, la
corrélation entre l’évaluation formative des acteurs et
l’évaluation sommative des enseignants sur le savoir être des
étudiants n’était que de 0.39 pour l’Annonce
(p=3.4e-6) et de 0.31 pour l’Interrogatoire (p=2.427e-4). Il y a là
un élément intéressant à investiguer plus avant pour
expliciter, d’une part, les attendus des enseignants et, d’autre
part, ceux des acteurs jouant les patients-standardisés qui ont
été formés au feedback.
L’examen n’avait pas de visée sélective, et cela
s’est confirmé par la réussite de la quasi-totalité
des étudiants, seuls un à deux passant chaque année
à la session de rattrapage.
Une analyse statistique plus fine des résultats, résumée
dans le tableau 2, montre que chaque station a son utilité dans le
dispositif. Les résultats sont calculés de la manière
suivante : le score de chaque station est obtenu en faisant la moyenne
pondérée de tous les éléments évalués
lors du passage de l'étudiant sur la station. Les résultats sont
présentés sur un barème de 20 points par station. Un
élément effectué complètement rapporte 1 point, un
élément effectué partiellement rapporte un demi-point et un
élément non effectué ne rapporte pas de point. Le score
global est obtenu sur un barème de 100 points en faisant la moyenne
pondérée des 7 stations. Prenons l'exemple de la station Dermato
en 2016, le coefficient de corrélation est calculé entre (1) les
résultats de cette station et (2) la somme des résultats des six
autres stations. La normalité des résultats a été
vérifiée. Pour chaque calcul de coefficient de corrélation,
la méthode suivante a été appliquée :
(1) vérification que l'allure de l'histogramme des variables est
sous forme de cloche,
(2) vérification que l'allure du diagramme quantile-quantile est
sous forme de droite de pente égale à 1, et
(3) élimination des valeurs isolées (inférieures
à Q1 - 1.5(Q3-Q1) et supérieures à
Q3 + 1.5(Q3-Q1)).
Les coefficients de corrélation calculés entre les
résultats des grilles d’une station donnée et les
résultats des grilles des autres stations, quand ils sont significatifs,
restent positifs et faibles (entre 0.17 et 0.24 en 2016 ; entre 0.22 et
0.36 en 2017 ; entre 0.18 et 0.29 en 2018 ; entre 0.17 et 0.38 en
2019) justifiant ainsi de l’intérêt de chaque station.
Tableau 2 • Analyse statistique des
résultats des différentes stations
La faible dispersion des résultats montre également
l’homogénéité de ces derniers. Une analyse en
composantes principales indique une chute d’inertie faible (39 % de
l’information sur les 2 premières dimensions en 2016, 47.21 %
en 2017, 31.88 % en 2018, 45.39 % en 2019, cf. figure 4). Là
encore, on retrouve une homogénéité, il n’y a pas de
caractère discriminant entre les stations.
Figure 4 • Cercles des
corrélations issus de l’analyse en composantes principales des
données
Il n’y a pas non plus de redondance avec les résultats aux
épreuves théoriques. En effet, comme le montre la figure 5, le
coefficient de corrélation entre les résultats à
l’ECOS et les résultats de l’UE d’enseignements
théoriques de 6ème année est également significatif,
positif et faible (0.40 [0.25;0.53] en 2016, 0.39 [0.23;0.53] en 2017, 0.25
[0.08;0.41] en 2018, 0.49 [0.36;0.61] en 2019) justifiant de
l’intérêt de l’ECOS par rapport aux modalités
d’évaluation classiques existantes. La modification des stations en
2018 apporte une tendance à la diminution de la corrélation mais
ceci n’est pas vérifié sur les résultats 2019.
Figure 5 • Nuages de points de l’ECOS et des
épreuves théoriques de 6ème année
Enfin, il n’y a pas de redondance avec les ECN. En effet, le
coefficient de corrélation entre les résultats à
l’ECOS et les résultats des épreuves classantes nationales
est lui aussi significatif, positif et faible (0.35 [0.19;0.49] en 2016, 0.43
[0.27;0.56] en 2017, 0.35 [0.19;0.50] en 2018, 0.46 [0.32;0.58] en 2019, cf.
figure 6).
Ainsi l’examen ECOS présente une contribution spécifique
qui peut être associée notamment à la mise en situation.
Figure 6 • Nuage de points de
l’ECOS et des épreuves classantes nationales
Tous ces résultats mettent en évidence
l’intérêt de la démarche en ce que
l’évaluation qui en résulte n’est pas redondante par
rapport à d’autres dispositifs d’évaluation. Nous
allons maintenant prendre un peu de recul au regard de ce qui peut être
appréhendé comme une évaluation priorisant des
critères d’évaluation objectivables et standardisables dans
une approche à dominante behavioriste.
3. Analyse critique
3.1. Compétences/critères d’évaluation : des
catégorisations distinctes et complexes à mettre en
cohérence
L’annexe du BO (MESRI, 2013) décrit les compétences génériques requises en les
articulant autour de 7 compétences (voir l’extrait du BO
présenté en annexe de cet article). Mais il ne donne pas
d'indication sur la façon dont ces compétences doivent être
spécifiées et évaluées. C’est cette
évaluation que vise cet examen, notamment concernant les
compétences génériques de « clinicien »
et « communicateur », tout au long des 7 stations. Quelles
conceptions sont alors retenues des attendus et des modalités pour les
atteindre ?
En termes de ressenti, 87 % des enseignants ont estimé que la
formation actuelle permet aux étudiants d’acquérir les
compétences requises. Cependant, il ne leur était pas
demandé quelles étaient leurs définitions de ces
compétences. Les étudiants sont beaucoup plus circonspects, quand
on les interroge sur la maitrise de chacune des 7 compétences
génériques dans le cadre du questionnaire anonyme soumis
après achèvement du parcours des stations
d’évaluation : les taux de maitrise déclarée
varient de 47 % pour les compétences « d’acteur de
santé publique » à 55 % pour celles de
« coopérateur ». On retrouve cette tendance en
2018 : les taux de maitrise déclarée varient de 50 %
pour les compétences « d’acteur de santé
publique » à 57 % pour celles de
« coopérateur ». De même en 2019, les taux de
maitrise déclarée varient de 47 % pour les compétences
« d’acteur de santé publique » à
64 % pour celles de « coopérateur ». Les
étudiants concernés n’avaient découvert que
tardivement ces différentes compétences génériques
telles qu’énoncées, auxquelles ils n’avaient
été sensibilisés que quelques semaines avant
l’examen ; ces réponses traduisent également une
difficulté de compréhension des attendus, tant les termes sont
vastes et les définitions étendues.
La question se pose du passage des compétences à des actions
susceptibles d’être évaluées. Selon Rey, un
référentiel (tel celui décrit dans le BO pour les
compétences génériques) devient parole de commandement,
mais ne garantit pas la faisabilité, surtout quand on aborde le
caractère civique et social (Rey, 2015). Rey
interroge la culture du résultat susceptible d’y être
associée : il y a souvent, dans nombre d’approches par
compétences, confusion entre la compétence et le résultat
d’une action qui s’apparente alors à une performance. A titre
d’exemple, les compétences génériques de
communicateur requièrent de la part de l’étudiant
qu’il soit à même « d’établir une
communication axée sur le patient, par le biais de la prise de
décisions partagées et d’interactions efficaces
fondées sur l’éthique et l’empathie ».
Or, il reste difficile de formuler des critères d’évaluation
au-delà des formules de politesse et de civilité usuelles. Le BO
laisse la mise en œuvre du référentiel sous la
responsabilité des enseignants et des étudiants et fait
quasi-silence sur le processus d’engendrement de ces compétences et
de leur évaluation ; seules les modalités
« d’évaluations en situation authentique et des
auto-évaluations » sont évoquées.
3.2. Priorités aux critères formels et limites d’une
approche béhavioriste
Roegiers souligne l’importance d’établir une articulation
entre le référentiel métier, le référentiel
de compétences et le référentiel de formation initiale (Roegiers, 2010).
Le Boterf ajoute la nécessité d’élaborer
préalablement un référentiel d’évaluation (Le Boterf, 2011).
On sent bien que la volonté ministérielle d’introduire
l’approche par compétences dans les études de
médecine n’en est qu’au début de la démarche.
La mise en œuvre de l’ECOS l’est également. Les
critères d’évaluation ont été définis
de manière empirique. La priorité donnée à
l’opérationnel pour faire face aux défis de
l’ingénierie pédagogique a conduit à mettre, en
partie, de côté la réflexion sur les conceptions des
relations soignants-patients et leurs modes d’enseignement.
Dans la définition de la compétence par Tardif, figure la
notion de « famille de situations ». Cela interroge
à deux niveaux par rapport à l’évaluation
proposée : la répétition et la complexité.
D’une part, cela sous-entend que la compétence ne peut être
acquise que si elle a pu être mobilisée dans plusieurs situations.
Quel crédit peut-on alors donner à une certification qui ne repose
que sur une situation unique (celle de l’examen) ? Une
réflexion est actuellement en cours pour étendre le dispositif
d’évaluation (formative et sommative) aux situations de stage de la
2ème à la 5ème année de formation. D’autre
part, dans une famille de situations, certaines seront plus complexes à
traiter que d’autres. On se retrouve alors face à un
paradoxe : les « vignettes » sont construites sur des
situations simples et courantes du point de vue des médecins pour
répondre aux attendus en fin de 2ème cycle. Mais cela ne
conduit-il pas à une conception réductrice de ce que seraient les
compétences cliniques, recentrées sur l’interrogatoire,
l’examen et la prescription sur un patient standardisé objet des
soins ?
Il est en cela utile d’interroger la posture béhavioriste qui
sert souvent de fondement à l’approche par compétences.
Comme le souligne Boutin, le béhaviorisme est adapté pour la
maitrise de comportements observables, objectivés. Dans cette approche,
« le comportement visé doit être
répété jusqu’à ce qu’il devienne
automatique » (Boutin, 2000).
Ainsi en est-il lors d’examens cliniques de l’identification de
certains signes cliniques. Leung montre les dérives d’une approche
qui peut, dans son principe de répétitivité étendue
à l’évaluation, tendre à l’absurdité (Leung, 2002) :
il donne l’exemple d’un étudiant qui doit montrer au moins 4
fois qu’une compétence est mise en œuvre au cours de 7
situations filmées différentes. Meirieu critique ce qui peut se
traduire par l’atomisation des apprentissages globaux en une multitude de
petits actes dont la recomposition peut être difficile (Meirieu, 2005).
Hébrard (Hébrard, 2011) souligne quant à lui le risque qu’il y aurait à
privilégier l’apprentissage par l’action en situation, au
détriment des connaissances, des concepts et cadres d’analyse
relevant des disciplines. Dans la formation d’infirmier, il constate que
les grilles d’évaluation des compétences sont souvent
hétérogènes et sont constituées d’une liste de
preuves à vérifier ; les évaluateurs font alors face
à la difficulté de cocher telle ou telle case. De plus, les
dimensions affectives, conflictuelles, la question du pouvoir et les enjeux
identitaires sont occultés.
Dans les études médicales, les connaissances issues des
sciences sociales sont en bonne part ignorées, l’enseignement
étant essentiellement le fait de praticiens. Or, l’approche par
compétences, si elle est ramenée à une liste
d’activités, ne permet pas de prendre en compte ce qui est
identifié comme une caractéristique clé du travail de
thérapeute. Le travail de thérapeute est en effet
caractérisé par une tension intrinsèque entre, d’une
part, un mouvement nécessaire d’objectivation du patient pour
interpréter les signes éventuels de la maladie, et d’autre
part une capacité à « se déprendre de sa
position d’objectivation et se placer avec le patient dans une relation de
vivant à vivant et de sujet à sujet » (Lefève et Mino, 2011).
3.3. Spécificités de la relation thérapeutique et
questions ouvertes sur l’évaluation
S’agissant des activités adressées à autrui,
Maubant et Piot (Maubant et Piot, 2011) relèvent combien elles supposent de pouvoir identifier la
singularité des situations et la nécessité d’y agir
avec une certaine autonomie. Dans ces activités, la dimension observable,
objectivable, n’est qu’une manifestation partielle de toute une
activité invisible, consistant à « percevoir des
informations pertinentes, les organiser et les interpréter pour leur
donner du sens, prendre des décisions, vérifier
l’adéquation des effets réels de l’activité
avec les effets attendus et le cas échéant, mettre en place des
processus de régulation » (Ibid., p. 9). Les
termes utilisés tels que savoir-être, comportement, attitude,
capacité relationnelle, compétence sociale, etc. résistent
à une définition en tant qu’objet d’apprentissage pour
« ce qui est généralement conçu comme des
qualités humaines attribuées à des traits de
personnalité souvent considérés implicitement comme
innés » (Hébrard, 2011),
alors qu’il s’agit de qualités socialement construites, et
donc culturellement formées. Selon cet auteur, les « zones
d’ombre » auxquelles se heurtent ces apprentissages tiennent
« au flou des cadres conceptuels sous-jacents, à
l’influence d’un paradigme issu du behaviorisme et du
pragmatisme », et « à l’insuffisance de
la réflexion épistémologique et du questionnement
éthique » (Ibid., p. 107).
Etudiant les référentiels de compétence et de formation,
notamment les grilles d’évaluation, Hébrard constate que la
complexité de la relation humaine tend à être
« réduite à sa surface communicationnelle et à
l’utilisation de ‘techniques’. La profondeur et
l’ambiguïté, les enjeux identitaires, sociaux, politiques et
éthiques semblent occultés ou du moins mis au second
plan » (Ibid., p. 113). Les formateurs se trouvent
pris dans la tension entre des supports très prescriptifs et
détaillés, qui notamment rigidifient l’évaluation, et
l’affirmation de l’autonomie et de la responsabilité des
étudiants, en ce qu’ils doivent savoir appréhender chaque
situation dans sa singularité et sa globalité.
Il apparaît que les orientations adoptées en termes de formation
et d’évaluation ont des liens avec la conception retenue de
l’activité thérapeutique : si les compétences
cliniques reposent non seulement sur la connaissance des pathologies et des
moyens d’investigation et de traitement, mais, de façon
imbriquée, sur « la compréhension fine de ce que peut
signifier le fait d’être malade pour un individu et son entourage,
ainsi que la connaissance des enjeux sociaux et institutionnels de cette
expérience » (Lefève et Mino, 2011),
alors les situations de relation soignant-patient sont fondamentalement des
situations qui réclament une réflexion sur et dans l’action,
et une réflexion menée non sur le patient mais avec lui.
Dès lors il apparaît qu’une opération qui
paraît aussi simple que de définir des listes de critères
d’évaluation est en fait sous-tendue par une conception plus
générique de ce qu’est, en l’occurrence ici, un
thérapeute. Une approche par compétences ramenée à
une liste d’attitudes peut s’avérer converger avec une
approche objectivante des patients et instrumentale des relations,
précisément parce qu’elle n’interroge pas les
dispositions requises pour être à même de mener ce double
mouvement d’objectivation et de construction d’un échange
effectif avec un patient.
La démarche des ECOS est également répandue dans les
pays anglo-saxons avec ses checklists et ses patients-standardisés. Elle
apporte certes l’individualisation de l’apprentissage mais revient
selon certains auteurs à démontrer la performance de
l’étudiant, et ce, potentiellement au détriment du processus
sous-jacent (Leung, 2002).
L’approche peut être perçue comme superficielle et parfois
source de démotivation. Elle encourage les étudiants à
faire ce qu’on attend d’eux plutôt que de prendre le risque de
développer une distance critique. A cela s’ajoute le risque pour
les examinateurs de définir des règles minimalistes de validation.
L’autre risque souligné par Leung, la réduction du contenu
pédagogique, est particulièrement sensible dans le contexte
d’études médicales où les étudiants
désertent les cours magistraux et où le primat donné aux
QCM fait que toute évaluation doit se conformer aux modalités
d’un QCM, quand bien même les connaissances en cause sont complexes
et relèvent d’un paradigme différent de celui de
l’evidence-based medicine, ce qui est le cas des connaissances
issues des sciences sociales.
Il résulte de ces éléments qu’il apparaît
particulièrement important de mener une réflexion approfondie, en
valorisant la réflexivité de la démarche d’innovation
pédagogique retenue et de l’environnement informatique qui lui sert
de socle. Le risque a contrario serait de plaquer des conceptions instrumentales
des compétences et de leur évaluation aux activités et
relations thérapeutiques. Des pistes d’évolution
intéressantes pourraient être trouvées dans une approche
plus transversale, intégrant notamment les mises en situation en stage et
dans des évolutions de l’EIAH incluant une participation plus
active des étudiants.
4. Conclusion et perspectives
Cette communication rend compte des premiers
résultats d’une démarche innovante en termes de formation
aux compétences cliniques de futurs médecins et de leur
évaluation. L’environnement informatique constitué permet
d’une part d’équiper l’ingénierie
pédagogique, et d’autre part, distinctement, de recueillir de
façon anonyme les retours tant des enseignants que des étudiants.
L’étude des résultats de cet examen de compétences
cliniques montre qu’il n’est pas redondant au regard des examens
évaluant les compétences plus
« théoriques » sur les maladies, les techniques
diagnostiques et thérapeutiques et les sciences dites fondamentales
associées. En cela, cet examen présente une contribution
spécifique, dont la pleine signification reste à expliciter.
L’analyse critique proposée en complément permet
d’ouvrir des pistes sur les questions que soulève cet examen.
L’observation du dispositif en train de se faire permet d’interroger
les paradigmes en présence. Il apparaît que, compte tenu des
impératifs de calendrier et de conceptions implicites sur les relations
soignants-patients, l’approche behavioriste ait été
dominante dans les premiers temps de ce dispositif.
En perspectives, la question est celle de dispositifs complémentaires
ou renouvelés de formation et d’évaluation qui fassent place
à une approche constructiviste susceptible d’aider à
affronter des situations qui réclament une réflexion sur et dans
l’action (Boutin, 2000).
Dans cette perspective, la refonte des stages et de leur évaluation
pourrait être l’occasion d’une réflexion sur la mise en
place de démarches pédagogiques et d’évaluation
accordant plus de place à cette réflexion sur et dans
l’action, non seulement sur, mais aussi avec les patients. Il s’agit
également de réfléchir à un dispositif permettant de
mesurer la progression des compétences acquises au fil du cursus, voire
au-delà si une articulation peut être établie avec la
formation du troisième cycle voire la formation continue des
praticiens.
Dans ce cadre, l’EIAH doit permettre de mesurer la progression des
compétences acquises en cours de formation et de contribuer à la
réingénierie pédagogique, tout en étant
lui-même objet d’enquête et de réflexion dans la
perspective interdisciplinaire retenue.
REMERCIEMENTS
Cette recherche est financée grâce au
soutien de l’Institut de Recherche en Santé Publique,
IReSP-17-HSR-16. Elle a bénéficié de l'aide des partenaires
financeurs de l'IReSP dans le cadre de l'appel à projets
général 2017 Volet Services de Santé.
J.C. Basson (CRESCO EA 7419*), E. Coeurdevey (CERTOP UMR 5044*), E. Fournales
(CERTOP UMR 5044*), N. Haschar-Noé (CRESCO EA 7419*), P. Marrast (CERTOP
UMR 5044*), T. Lang (INSERM UMR 1027**), M. Kelly-Irving (INSERM UMR 1027*), S.
Lamy (INSERM UMR 1027*), L. Bonneville (GRICO**) et S. Grosjean (GRICO**),
participent également à cette recherche dans le cadre d’une
collaboration menée au sein de l’IFERISS, Institut
Fédératif d’Etudes et de Recherches Interdisciplinaires
Santé Société.
* Université Toulouse 3
** Université d'Ottawa
À
propos des auteurs
Olivier CATTEAU est maître de conférences en
informatique à l’Institut de Recherche en Informatique de Toulouse.
Après des travaux concernant les problématiques de normalisation
des Environnements Informatiques pour l’Apprentissage Humain, il
réoriente en 2010 ses activités vers les processus
d’acquisition, de développement et de valorisation des
compétences et plus particulièrement d’acquisition de
compétences cliniques en santé ainsi que d’acquisition de
compétences entrepreneuriales en gestion.
Adresse : Institut de Recherche en
Informatique de Toulouse. Université Paul Sabatier. 118, route de
Narbonne 31062 Toulouse Cedex 9
Courriel : olivier.catteau@irit.fr
Toile : https://www.irit.fr/~Olivier.Catteau
Anne MAYERE est professeure émérite au
Centre d’Etude et de Recherche Travail Organisation Pouvoir, UMR CNRS
5044, Université Paul Sabatier Toulouse 3. Ses recherches portent sur la
rationalisation des activités de production d’information et de
communication et son équipement, et ce plus spécifiquement sur le
terrain des organisations de santé.
Adresse : CERTOP. Université Paul
Sabatier. 118, route de Narbonne 31062 Toulouse Cedex 9
Courriel : anne.mayere@iut-tlse3.fr
Toile : https://certop.cnrs.fr/mayere-anne
Nicolas SAVY est maître de conférences en
mathématiques appliquées à l’Institut de
Mathématiques de Toulouse. Il s'intéresse, depuis 2010, aux
statistiques appliquées à la recherche médicale et a
notamment été directeur du Groupement de Recherche CNRS
« Statistiques et Santé » de 2016 à 2020. Ses
thèmes de recherche actuels concernent d’une part la
méthodologie statistique en recherche clinique et notamment
l’introduction de méthode de simulation pour l’optimisation
de designs expérimentaux et d’autre part une réflexion sur
la place de la donnée dans la recherche médicale.
Adresse : Institut de
Mathématiques de Toulouse. Université Paul Sabatier. 118, route de
Narbonne 31062 Toulouse Cedex 9
Courriel : nicolas.savy@math.univ-toulouse.fr
Toile : https://perso.math.univ-toulouse.fr/savy/
Odile BEYNE-RAUZY est Praticien Hospitalier en
Médecine Interne au CHU de Toulouse et Professeur des Universités
à la Faculté de médecine Toulouse Purpan dont elle est
Vice-Doyenne depuis 2016. Elle a conçu et mis en place un programme de
formation innovant intégrant la simulation dans le cursus des
étudiants en médecine pour développer l’apprentissage
des compétences en situation professionnelle mais également comme
outil d’évaluation standardisé. De plus à travers ce
programme, une nouvelle dimension a été donnée aux patients
qui interviennent pour former les futurs professionnels de santé,
permettant d’aborder la notion de partenariat avec le patient,
élément majeur de la relation de soin. Ces différents
travaux font l’objet d’un soutien de l’Agence Régionale
de Santé et préfigurent la réforme du deuxième cycle
des études médicales.
Adresse : Université Paul
Sabatier. 118, route de Narbonne 31062 Toulouse Cedex
Courriel : BeyneRauzy.Odile@iuct-oncopole.fr
REFERENCES
Boutin, G. (2004).
L’approche par compétences en éducation : un amalgame
paradigmatique. Connexions, 1(81), 25-41.
Boutin, G. (2000). Le béhaviorisme et le
constructivisme ou la guerre des paradigmes. Québec français,
119, 37-40.
Dessus, P. (2019). Analyser les items d’un
questionnaire. Disponible sur internet.
Djouad, T. (2013). Ingénierie des indicateurs
d’activités à partir de traces modélisées pour
un environnement informatique d’apprentissage humain (thèse de
doctorat, Université Claude Bernard Lyon 1).
Hébrard, P. (2011). L’humanité comme
compétence ? Une zone d’ombre dans la professionnalisation aux
métiers de l’interaction avec autrui. Les sciences de
l’éducation – Pour l’Ere nouvelle, 2(44),
103-121.
Husson, F., Lê, S. et Pagès, J. (2016). Analyse de données avec R. Presses Universitaires de Rennes.
Khanz, K., Ramachandran, S., Gaunt, K. et Pushkar, P.
(2013). The objective Structured Clinical Examination (OSCE): AMEE Guide No.81.
Part I: an historical and theorical perspective. Medical Teacher, 9,
e1437-e1446.
Khanz, K., Ramachandran, S., Gaunt, K. et Pushkar, P.
(2013). The objective Structured Clinical Examination (OSCE): AMEE Guide No.81.
Part II: organisation and administration. Medical Teacher, 9, e1447-1463.
Le Boterf, G. (2011). Ingénierie et
évaluation des compétences. Paris :
Eyrolles-Éditions d’Organisation.
Lecoutre, J.P. (2016). Statistique et
probabilités. Paris : Dunod.
Lefève, C. et Mino, J. C. (2011). Former de vrais
thérapeutes. La place des sciences humaines et sociales dans les
études de médecine. Revue Études, 4142, 187-198.
Leung, W.C. (2002). Competency based medical training:
review. British Medical Journal, 325, 693-696.
Maubant, P. et Piot, T. (2011). Etude des processus de
professionnalisation dans les métiers adressés à autrui. Les sciences de l’éducation – Pour l’ère
nouvelle, 2(44), 7-11.
Meirieu, P. (2005). Si la compétence
n’existait pas, il faudrait l’inventer... Site de l'auteur. Disponible sur internet.
Ministère de l’enseignement
supérieur, de la Recherche et de l’Innovation (MESRI) (2013). Etudes Médicales, Régime des études en vue du premier et
du deuxième cycle. Bulletin Officiel n°20 du 16 Mai. Disponible sur internet.
Rey, B. (2015). La notion de compétence :
usages et enjeux. Le français d’aujourd’hui, 4(191), 15-24.
Roegiers, X. (2010) Des curricula pour la formation
professionnelle initiale : la Pédagogie de l'intégration
comme cadre de réflexion et d'action pour l'enseignement technique et
professionnel. Bruxelles : De Boeck Université.
Tardif, J. (2006). L’évaluation des
compétences : Documenter le parcours de développement.
Montréal : Chenelière Éducation.
ANNEXE
Extrait du BO (MESRI) n°20 du 16 Mai 2013.
« Études Médicales, Régime des études en
vue du premier et du deuxième cycle ».
Disponible sur internet.
Les compétences génériques
Les compétences dont l'acquisition est nécessaire sont celles
de :
A) Clinicien
L'étudiant utilise son savoir médical et ses habiletés
pour analyser, à partir du contexte de soins et de la plainte du patient,
une situation clinique et pour dispenser des soins dans une approche
centrée sur les patients.
Il :
- démontre sa capacité́ d'explorer les
antécédents du patient et de les consigner de façon exacte,
concise et organisée dans divers contextes cliniques ;
- réalise l'examen somatique adapté à la situation
clinique et au projet de soins de patients de tout âge, et les principaux
gestes techniques associés ;
- démontre sa capacité́ à mener un raisonnement
hypothético-déductif en mobilisant ses connaissances des processus
anatomo-physio-pathologiques ;
- développe les procédures diagnostiques des pathologies et
urgences les plus fréquentes et sait amorcer le traitement
approprié ;
- tient compte dans sa démarche décisionnelle des souhaits,
des représentations et des compréhensions du patient et de son
environnement éthique et culturel ;
- repère, dans une optique de prévention, les personnes
exposées à des problèmes de santé courants qui mettent
leur santé ou leur vie en danger ;
- développe une capacité́ d'observation globale de la
situation ;
- est en mesure de présenter oralement de manière claire et
concise sa démarche clinicienne auprès de l'ensemble de ses
interlocuteurs.
B) Communicateur
Échangeant de façon dynamique avec le patient et son
entourage, collaborant avec les différents professionnels du
système de santé, l'étudiant a conscience des enjeux de la
relation et de la communication verbale et non verbale sur la
qualité́ des soins.
Il :
- établit une communication axée sur le patient, par le biais
de la prise de décisions partagées et d'interactions efficaces
fondées sur l'éthique et l'empathie ;
- obtient les renseignements pertinents et les points de vue du patient, de
son entourage, des collègues et des soignants, et sait en faire la
synthèse ;
- apprend à gérer son stress et celui des autres acteurs ;
- discerne quelle information doit être délivrée au
patient, à son entourage, aux collègues et aux soignants, de
manière claire, loyale et appropriée à leur niveau de
compréhension et à leur culture, en s'appuyant sur les
recommandations de bonne pratique ;
- s'appuie sur les nouvelles technologies de l'information.
C) Coopérateur, membre d'une équipe soignante
pluriprofessionnelle
L'étudiant travaille en partenariat avec d'autres intervenants qui
participent de manière appropriée au soin du patient.
(...)
D) Acteur de santé publique
L'étudiant participe à la vie des structures de soins et
à la bonne gestion des ressources. Il contribue à
l'efficacité́ et à l'efficience du système de soins
pour améliorer l'état de santé global des patients et des
populations.
(...)
E) Scientifique
L'étudiant comprend que pendant toute sa vie professionnelle il devra
remettre en question et chercher à réactualiser ses connaissances
afin de garantir son domaine d'expertise. Il comprend l'intérêt de
la démarche scientifique pour élaborer de nouveaux savoirs.
(...)
F) Responsable aux plans éthique et déontologique
L'étudiant a une attitude guidée par l'éthique, le code
de déontologie et adopte un comportement responsable, approprié,
intègre, altruiste visant au bien-être personnel et à la
promotion du bien public se préparant ainsi au professionnalisme.
(...)
L'étudiant doit également apprendre à être :
G) Réflexif
L'étudiant doit développer tout au long de son parcours
d'apprentissage sa capacité́ d'auto évaluation et celle de se
poser des questions pertinentes en situation réelle de soins et de
prévention, en tenant compte du contexte clinique, institutionnel,
légal et sociétal. Il doit démontrer sa
capacité́ à se remettre en question et à argumenter ses
décisions.
(...)
1 Voir les remerciements en fin
d’article.
|