oumelbanine guercif
عزيزي الزائر اهلا بك في اسرة منتديات oumelbanine2011هذه الرسالة تفيد بأنك غير مسجل يتوجب عليك التسجيل لتتمكن من رؤية روابط التحميل والمساهمة في المنتدى - تفضل لتنشر ما تعرف وتساعد غيرك لنرقى بتعليمنا الى الافضل.
تفضل ولا تتردد.
oumelbanine guercif
عزيزي الزائر اهلا بك في اسرة منتديات oumelbanine2011هذه الرسالة تفيد بأنك غير مسجل يتوجب عليك التسجيل لتتمكن من رؤية روابط التحميل والمساهمة في المنتدى - تفضل لتنشر ما تعرف وتساعد غيرك لنرقى بتعليمنا الى الافضل.
تفضل ولا تتردد.
oumelbanine guercif
هل تريد التفاعل مع هذه المساهمة؟ كل ما عليك هو إنشاء حساب جديد ببضع خطوات أو تسجيل الدخول للمتابعة.

oumelbanine guercif

تربية-إسلاميات-ترفيه-رياضة-بيئة-مجتمع-صحة-طبخ-صحف-موسوعات...
 
الرئيسيةالبوابةأحدث الصورالتسجيلدخول

 

 Réduire la subjectivité lors de l’évaluation des apprentissages à l’aide d’une grille

اذهب الى الأسفل 
كاتب الموضوعرسالة
sara01
عضو نشيط
عضو نشيط
sara01


العمر : 34

Réduire la subjectivité lors de l’évaluation des apprentissages à l’aide d’une grille Empty
مُساهمةموضوع: Réduire la subjectivité lors de l’évaluation des apprentissages à l’aide d’une grille   Réduire la subjectivité lors de l’évaluation des apprentissages à l’aide d’une grille Emptyالخميس 17 أبريل 2014 - 12:47

PDF Signaler ce document
1. Introduction

1Bon nombre d’enseignants s’entendent sur le fait que la partie la plus difficile de l’évaluation des apprentissages des étudiants est l’interprétation du rendu de ceux-ci, que cette production soit écrite ou orale. En effet, les enseignants doivent alors analyser la « preuve d’apprentissage » fournie par les étudiants et attribuer une valeur à cette « preuve ». C’est à ce moment que la subjectivité implicite dans le processus d’évaluation des apprentissages prend forme, compliquant considérablement le processus. L’enseignant, devant filtrer quantité d’informations pour arriver aux éléments de cette « preuve », peut alors se laisser influencer par des facteurs ou des dimensions qui n’ont rien à voir avec les apprentissages visés par l’évaluation. Mais cette subjectivité est inévitable puisqu’il s’agit d’êtres humains évaluant des phénomènes humains ; à moins d’adopter une posture épistémologique purement positiviste, il est impossible de ne pas observer un phénomène humain sans le relier à ses propres connaissances et/ou croyances (Berger & Luckmann, 1966 ; Guba, 1990 ; Schutz, 1973). C’est la raison pour laquelle d’aucuns se sont penchés sur des instruments ou des procédures d’analyse ou d’évaluation permettant de réduire cette subjectivité (Denzin, 2002 ; Guba & Lincoln, 1998 ; Maxwell, 1992 ; Miles & Huberman, 1984, 1994 ; Patton, 2002 ; Savoie-Zajc, 2000 ; Silverman, 2001 ; Smith, 2003) ; on cherchera ainsi à rendre le processus interprétatif sous-jacent à l’évaluation davantage objectif en permettant à l’enseignant d’être moins sujet à se laisser distraire par des variables non-essentielles. C’est le cas des grilles critériées (rubrics en anglais) (Stevens & Levi, 2005) qui permettent de mieux définir les critères d’évaluation et même les indicateurs ou niveaux de performance correspondant aux divers critères, et ainsi réduire la subjectivité de l’enseignant lors de l’interprétation des rendus étudiants.

2Dans le cadre de cet article, les caractéristiques des grilles critériées seront présentées, de même que la façon de les construire. Deux enseignants expliquent comment ils ont utilisé de telles grilles pour un enseignement conduit ensemble à l’Université de Lausanne et quel a été l’impact sur le processus d’évaluation, sur leur enseignement et sur l’apprentissage de leurs étudiants.
2. La subjectivité sous-jacente à l’évaluation des apprentissages à l’université

3Telle que la documentation sur le sujet le laisse entrevoir, l’évaluation des apprentissages est un aspect des plus complexes de l’enseignement (Angelo & Cross, 1993 ; Bloxham & Boyd, 2007 ; Brown & Knight, 1994 ; Brown, Rust, & Gibbs, 1994 ; Depover & Noël, 1999 ; Fenwick & Parsons, 2000 ; Morissette, 1996 ; Scallon, 2000 ; Shepard, 2000 ; Tardif, 2006). Le modèle de Pellegrino, Chudowsky et Glaser (2001) illustre bien cette complexité en découpant le processus d’évaluation des apprentissages en trois étapes (voir figure 1), soit : la clarification des apprentissages visés par l’évaluation, le choix de la méthode pour observer la « preuve » de ces apprentissages et le développement d’un mécanisme d’interprétation visant à analyser cette « preuve ».

Figure 1. Les étapes du processus d’évaluation des apprentissages (Pellegrino, Chudowsky et Glaser, 2001)
Figure 1. Les étapes du processus d’évaluation des apprentissages (Pellegrino, Chudowsky et Glaser, 2001)
Agrandir Original (png, 120k)

4Selon les auteurs, l’étape de clarification implique de bien cerner les apprentissages ciblés par l’évaluation, entre autres, à l’aide d’objectifs d’apprentissage (learning outcomes) bien formulés. L’étape d’observation implique, quant à elle, de choisir une méthode d’évaluation (par exemple, un examen écrit, un exposé oral, un questionnaire à choix multiple, etc.) qui corresponde adéquatement aux apprentissages ciblés par l’évaluation. Finalement, l’étape d’interprétation implique le développement d’outils et la mise en place de procédures qui permettent de déterminer le degré d’atteinte des objectifs d’apprentissage par l’étudiant et, du coup, la valeur ou note à y associer. Ainsi, bien qu’une partie de la subjectivité présente dans le processus d’évaluation puisse prendre forme lors des étapes de clarification et d’observation, la majeure partie de celle-ci prend forme lors de l’étape d’interprétation. En effet, c’est là qu’un jugement doit être porté par l’enseignant sur la « preuve » d’apprentissage fournie par l’étudiant.

5Il est intéressant d’aller un peu plus loin et de dresser un parallèle entre le processus de recherche qualitative et le processus d’évaluation des apprentissages, justement pour clarifier d’où provient la subjectivité présente en évaluation et comment la maîtriser. D’abord, on peut envisager l’étape de la clarification des apprentissages à évaluer comme un parallèle de la formulation de la problématique et des questions de recherche. Ensuite, on peut envisager l’étape d’observation des apprentissages comme un parallèle du choix et de l’application d’une méthodologie en recherche. Finalement, l’étape d’interprétation peut correspondre à l’analyse des données recueillies en recherche qualitative. Ainsi, en recherche qualitative, on cherche généralement à maîtriser la subjectivité lors de l’interprétation des données de façon à garantir un haut niveau de fiabilité, soit une interprétation constante de ces résultats quelles que soient les circonstances ou les personnes qui formulent l’interprétation (Denzin, 2002 ; Denzin & Lincoln, 1998 ; Eisner, 1991 ; Kirk & Miller, 1986 ; Maxwell, 1992 ; Miles & Huberman, 1984). Il sera essentiel de faire de même avec l’interprétation de la preuve d’apprentissage en évaluation. Autrement, le jugement porté par l’enseignant pourra varier considérablement d’un étudiant à l’autre, que ce soit en ce qui a trait à ce qui est examiné par l’enseignant (par exemple, exactitude des faits, cohérence de l’argumentation, etc.) ou encore le niveau à atteindre par les étudiants.

6En recherche qualitative, une approche visant à réduire la subjectivité lors de l’interprétation des données recueillies consiste à introduire des instruments ou des procédures permettant de réduire la marge de manœuvre de la personne qui interprète les données ou encore à stabiliser son interprétation (à ce sujet voir Bogdan & Biklen, 1998 ; Denzin, 2002 ; Denzin & Lincoln, 1998 ; Hill, Thompson, & Williams, 1997 ; Huberman & Miles, 1994 ; Lessard-Hébert, Goyette, & Boutin, 2001 ; Miles & Huberman, 1984 ; Poupart, 1997 ; Savoie-Zajc, 2000 ; Silverman, 2001 ; Yin, 1994). On parle alors de mesures visant à instaurer une forme « d’objectivité procédurale » (procedural objectivity) (Eisner, 1991). Il ne s’agit pas de prétendre à l’objectivité pure mais plutôt de réduire la tendance à la subjectivité inhérente aux situations d’interprétation de phénomènes humains par des êtres humains. Les grilles critériées peuvent justement être utilisées à cette fin.
3. Les grilles critériées comme outil permettant de réduire la subjectivité de l’évaluation

7Une grille critériée est un tableau qui détaille à la fois les critères utilisés pour interpréter la preuve d’apprentissage fournie par l’étudiant dans un travail écrit ou encore lors d’une présentation orale, et les indicateurs ou niveaux de performance possibles pour chaque critère. Il faut faire attention à ne pas confondre grille critériée avec grille de correction. La première est utile pour des méthodes d’évaluation qui demandent à l’étudiant de fournir passablement d’informations, desquelles est extraite la preuve d’apprentissage (par exemple, dissertation, exposé oral, réponses à développement). La seconde, qui est plutôt une liste de réponses acceptées, est davantage utile pour des méthodes d’évaluation qui ne demandent à l’étudiant que de choisir la bonne réponse ou encore de fournir quelques informations.

Figure 2. Exemple de grille critériée


Excellent


Acceptable


Inacceptable

Professionnalisme

Se soucier ou s’assurer de la qualité des soins offerts


Va au-delà des attentes minimales en s’assurant, de façon constante, du bien être du patient


Rencontre les attentes minimales en s’assurant, la majeure partie du temps, du bien-être du patient


Ne rencontre pas les attentes minimales en ne s’assurant pas, la majeure partie du temps, du bien-être du patient

Travail en équipe

Collaborer avec des collègues dans le but d’accroître l’efficacité du groupe


Dépasse les attentes minimales en recherchant les occasions de collaboration


Rencontre les attentes minimales en collaborant de façon acceptable lorsque nécessaire


Ne rencontre pas les attentes minimales en évitant les situations de collaboration

8Tel que l’exemple ci-dessus en fait la démonstration (voir figure 2), la grille critériée détaille les possibilités de « performance » par l’étudiant, en fonction de chaque critère d’évaluation. Il est donc plus aisé, lors de l’évaluation, d’attribuer une valeur à chaque production étudiante. Le niveau de fiabilité est, du coup, accru car le jugement de l’enseignant est davantage stable d’un étudiant à l’autre, quel que soit le moment auquel a lieu l’évaluation ou encore la personne qui procède à l’évaluation, à condition que les divers évaluateurs aient discuté de la grille.

9La construction d’une grille critériée comporte un certain nombre d’étapes, lesquelles sont très bien décrites dans l’ouvrage de Stevens et Levi (2005). Voici un sommaire de ces étapes :

● Identifier et décrire concrètement les critères d’évaluation, ceux-ci étant généralement étroitement liés aux objectifs d’apprentissage ;

● Établir les niveaux de réussite, ceux-ci pouvant varier de deux (par exemple, pour les évaluations de type succès/échec) à plusieurs niveaux, sachant que plus le nombre de niveaux est grand, plus les différences entre ceux-ci s’amenuisent ;

● Choisir le type de grille pour le rendu, soit une grille détaillant tous les niveaux (comme dans l’exemple en page précédente), soit une grille qui ne détaillerait qu’un niveau mais qui permettrait à l’enseignant de fournir plusieurs commentaires justifiant la note allouée ;

● Tester la grille en l’utilisant pour quelques copies ou encore en l’utilisant dans le cadre de présentations orales à visées formatives (feed-back) plutôt que sommatives (jugement final) ; revoir les critères qui ne semblent pas pertinents, ajouter ceux qui prennent forme lors du test ; modifier le nombre de niveaux de performance ou ajuster les descripteurs si des problèmes surviennent lors du test.

10Ce qui est particulièrement intéressant avec les grilles critériées, au plan de l’apprentissage, c’est que celles-ci peuvent être utilisées à divers moments d’un enseignement, pas seulement lors de l’évaluation des apprentissages. Ainsi, puisque les critères décrits dans la grille sont en lien direct avec les objectifs d’apprentissage du cours en question, il est possible de faire appel à la grille lors d’exercices complétés en classe ou hors de la classe. Les étudiants peuvent même être appelés à s’auto-évaluer à l’aide de la grille, ou encore à évaluer leurs pairs, en cours de semestre, lors d’évaluations formatives. L’avantage d’une telle démarche est d’amener les étudiants à orienter leur apprentissage en fonction des objectifs d’apprentissage du cours. Ceci développe généralement leurs compétences réflexives en ce qu’ils apprennent à s’auto-évaluer et à ajuster leur façon d’apprendre en fonction des résultats obtenus lors de l’auto-évaluation. De plus, l’utilisation de grilles critériées améliore généralement la communication au sujet des apprentissages dont les étudiants doivent faire la preuve à l’évaluation. Les résultats à l’évaluation sont généralement améliorés, de même que la satisfaction de l’enseignant et de l’étudiant.
4. Une expérience d’utilisation des grilles critériées à l’université

11Au printemps 2008, Jérôme David et Thomas David ont donné un cours intitulé « Formes et normes de la mondialisation culturelle, XIXe-XXIe siècles » au niveau Bachelor (2ème et 3ème années). Ce cours visait quatre objectifs pédagogiques et scientifiques :
1) Sensibiliser les étudiants à la thématique de l’histoire globale

12Il s'agit d'une discipline en plein essor dans le monde anglo-saxon, mais terra incognita dans l’espace francophone.

13L’histoire de la mondialisation a, en effet, connu un développement sans précédent durant les trente dernières années. Il existe, aujourd’hui, des paradigmes clairement identifiés (de la world-system analysis à la new global history), combinant selon des configurations diverses l’ensemble des cadres analytiques des sciences sociales (histoire économique ou sociale, sociologie des migrations, anthropologie postcoloniale, etc.).

14La mondialisation culturelle, pour sa part, n’a pas fait l’objet d’une attention similaire. Souvent considérée comme le simple reflet des relations économiques et sociales, la culture est trop souvent assimilée à une variable négligeable des processus de mondialisation. On constate, aujourd’hui, un clivage important entre la rigueur des travaux consacrés aux échanges économiques planétaires, aux migrations de masse ou à la diffusion des virus, et la généralité vague, c’est-à-dire idéologique, des débats quotidiens sur l’authenticité des particularismes, le métissage artistique ou l’impérialisme culturel.

15Cet enseignement cherchait à s’inscrire en faux par rapport à de tels préjugés, qu’ils soient savants ou communs. Il partait de l’idée que la culture désigne, dans un premier temps, l’ensemble des représentations et des valeurs qui fondent les liens sociaux d’une communauté et orientent les comportements de ses membres et, dans un second temps seulement, le versant intellectuel ou artistique restreint de ces normes partagées. Partant de là, le cours postulait que :

a) l’histoire de la mondialisation, en se coupant de la dimension culturelle des phénomènes qu’elle étudie, perd de vue la complexité des échanges entre des régions éloignées ou entre des communautés étrangères l’une à l’autre, dont le cadre n’est jamais exclusivement économique ou social ;

b) elle méconnaît, en outre, la spécificité des formes symboliques, dont les manières variées de circuler d’un contexte à l’autre ne se confondent pas avec celles des objets ou des populations ;

c) elle ignore, enfin, l’existence d’institutions globales destinées à réguler ces flux culturels, selon une logique qui n’est pas uniquement commerciale ou politique.

16Cet enseignement cherchait ainsi à mettre en évidence l’image d’une mondialisation aux temporalités discontinues, aux échelles multiples et aux effets parfois imprévus, où la culture n’est pas seulement l’instrument ou la justification d’une emprise mais bien souvent le lieu crucial d’un désaccord, d’une négociation ou d’une réappropriation. Il voulait montrer aussi que la culture est un facteur explicatif susceptible d’éclairer d’un jour nouveau les objets traditionnels de l’histoire économique et sociale de la mondialisation.
2) Favoriser une réflexion réellement interdisciplinaire

17Les objets d’étude devaient aborder en intégrant (et non en les juxtaposant) les approches relevant de différentes disciplines (histoire, sociologie, anthropologie, science politique, droit et études littéraires).

18Cet intérêt pour une approche interdisciplinaire découlait d’une posture méthodologique privilégiée par les deux enseignants dans leurs recherches, du désir de combiner les domaines de spécialisation de chacun d’eux – Jérôme David est un spécialiste de littérature et Thomas David, d’histoire économique et sociale – mais il était également lié à la diversité du public, les étudiants provenant des sciences sociales, de la science politique, des sciences du sport, de l’histoire et de la littérature.
3) Encourager la prise de parole chez les étudiants

19Sachant que les étudiants seraient nombreux (plus de 100), les deux enseignants désiraient créer un environnement dans lequel les étudiants oseraient prendre la parole en public (questions, remarques, etc.) afin de casser la dynamique traditionnelle des cours où les enseignants parlent et les étudiants écoutent (ou feignent d’écouter).
4) Encourager le travail en groupes

20L’expérience a en effet montré l’importance de faire collaborer les étudiants entre eux afin de les familiariser aux échanges d’idées, à la prise en compte de l’opinion d’autres personnes ou encore à la gestion de conflits.

21En termes de compétences développées, les étudiants devaient être en mesure à la fin du cours de :

● utiliser des concepts de l’histoire globale dans l’analyse de faits historiques ;

● appliquer l’interdisciplinarité à leurs réflexions ;

● intervenir oralement avec cohérence par rapport à la séance et à la thématique du cours ;

● collaborer vers un objectif et un travail commun.

22Le cours était organisé autour de conférences données par des intervenants externes et structurées autour de cinq grands thèmes liés à l’histoire de la mondialisation culturelle : 1) les phénomènes religieux ; 2) les pratiques alimentaires ; 3) le champ théâtral et musical ; 4) les normes juridiques ; 5) les échelles de la littérature.

23Deux types d’examen alternatifs (évaluation sous forme de contrôle continu) étaient proposés aux étudiants afin d’évaluer l’acquisition des compétences requises dans le cadre de ce cours :

Alternative A : chaque conférence était prise en charge par un groupe de deux ou trois étudiants. Cette prise en charge incluait la présentation du conférencier et l’animation du débat. Un résumé critique d’environ dix pages devait être rendu dans les trois semaines qui suivaient.

Alternative B : pour chacun des cinq grands thèmes, deux questions étaient posées par les enseignants. Les étudiants devaient rédiger un écrit d’une dizaine de pages en développant une de ces dix questions. Cet écrit faisait l’objet d’une soutenance orale au cours du semestre. Les questions étaient disponibles le lendemain de la dernière conférence de chaque thème sur le blog spécialement créé pour le cours. Ici aussi, la possibilité était offerte de travailler par groupe de deux ou trois étudiants.

24Ces compétences – et les objectifs pédagogiques et scientifiques qui leur étaient liés – avaient été élaborées, en amont, lors de trois rencontres avec Denis Berthiaume, conseiller pédagogique, qui avaient débouché sur l’élaboration d’une grille critériée (voir Annexe I). Cette grille fut présentée en détail lors des deux premières séances d’introduction et distribuée aux étudiants. Elle fut, par la suite, utilisée de deux manières :

● Pour l’oral : dans le cadre de l’alternative A, une discussion avait lieu avec les étudiants deux ou trois jours après la prise en charge de la conférence où leur prestation avait été évaluée en fonction de la grille critériée. Ils pouvaient, ainsi, tenir compte des remarques afin de rédiger l’écrit. Dans le cadre de l’alternative B, la soutenance orale était évaluée par les enseignants en se basant sur la grille critériée. Il convient de préciser qu’une certaine inégalité de traitement est apparue entre les deux alternatives, les étudiants ayant opté pour l’alternative B n’ayant pas de feed-back.

● Pour l’écrit : les enseignants lurent séparément tous les travaux, notant les écrits en fonction de la grille critériée, puis discutèrent de chacune des évaluations qu’ils avaient faites.

25La grille critériée a certes diminué la part de subjectivité à l’œuvre dans ces évaluations, en obligeant les enseignants à passer en revue de façon explicite chacun des critères de jugement (plutôt que d’en oublier ou d’en ajouter arbitrairement dans certains cas), mais la formulation des critères eux-mêmes et donc la définition stricte de la « preuve » d’apprentissage à fournir de la part de l’étudiant a, malgré tout, laissé une large place à la discussion. Le langage descriptif de la grille, parce qu’il porte sur des phénomènes qualitatifs (bonne compréhension d’un concept, rigueur argumentative ou mobilisation pertinente de la bibliographie) et non sur des phénomènes mesurables (quantité d’articles cités, nombre de cas traités, etc.), évoque des degrés clairs mais dont les seuils sont très flous : quand passe-t-on de « l’étudiant collabore partiellement avec ses camarades » (0,75 point) à « l’étudiant collabore bien avec ses camarades » (1,5 points) ? Ou de « l’étudiant utilise quelquefois les notions du cours » (0,75 point) à « l’étudiant utilise toujours les notions du cours » (1,5 points) ? Il y a un flou, ici, que rien ne résorbe dans l’élaboration de la grille elle-même.

26En ce sens, la grille critériée a fait office de « topique » d’évaluation (c’est-à-dire ce à quoi il faut penser). Elle a présenté aux étudiants l’ensemble des variables auxquelles ils devaient prêter attention, et elle a imposé aux enseignants de faire, pour chaque travail, l’inventaire systématique des dimensions évaluées, ainsi que leur synthèse explicite, c’est-à-dire argumentée. Ce fut donc un outil précieux de communication entre enseignants et étudiants, ainsi qu’un cadre exigeant de repérage et d’interprétation des « preuves » d’apprentissage.

27La moyenne s’est élevée à 4,5 (sur 6) et résulte du fort investissement des étudiants dans leur travail et de la possibilité d’avoir trois semaines pour rédiger leur écrit à la maison. Cet enseignement « expérimental » a été très bien reçu par les étudiants (80-90 % d’avis favorables ; 46 étudiants ayant rempli le questionnaire standard d’évaluation de l’enseignement fourni par le Centre de soutien à l’enseignement de l’Université de Lausanne).

28Dans le séminaire qui fut consacré à cette thématique au printemps 2009, les enseignants tinrent compte des réserves qui avaient été faites : 1) l’introduction théorique fut plus étoffée ; 2) moins d’intervenants furent invités afin de laisser plus de temps pour discuter de chacune des conférences ; et 3) le nombre de thématiques fut réduit pour qu’elles puissent être mieux approfondies. Toutefois, vu l’afflux d’étudiants (près de 50 pour un séminaire de Master), les modalités d’évaluation ont été diversifiées en vue de permettre à chacun de fournir une prestation orale et écrite (condition de la validation de l’enseignement). Ceci a eu pour effet d’inclure des travaux de genres trop différents pour être jugés à partir d’une même grille critériée (sujets libres, traduction d’un grand texte classique d’histoire globale, réponse à une question portant sur tout le cours, etc.). Il n’est pas exclu qu’une réflexion ultérieure sur ces prestations de nature différente et, à première vue incomparables du point de vue des « preuves » d’apprentissage qu’elles donnent à lire, ne débouche sur leur intégration réussie dans une grille critériée améliorée.
5. Conclusions et recommandations

29L’usage de grilles critériées dans l’enseignement favorise l’explicitation de maints présupposés qui, lorsqu’ils demeurent implicites, peuvent fausser le jugement des enseignants sur les prestations de leurs étudiants. L’absence d’un inventaire raisonné des critères d’évaluation ouvre, en effet, la possibilité d’une variation du jugement au cas par cas, par omission ou ajout arbitraire de variables pertinentes. L’enseignant peut alors en venir à juger les travaux similaires de ses étudiants sur des critères différents.

30Mais l’utilité des grilles critériées se fait sentir à un autre niveau encore, dans la mesure où elles n’entrent pas seulement dans l’évaluation des « preuves » d’apprentissage fournies par les étudiants, mais également dans la clarification des objectifs d’enseignement et dans la présentation de ceux-ci aux étudiants lors des premières séances. Pour les enseignants, il s’agit alors d’un outil facilitant la structuration des contenus à transmettre et guidant la recherche d’une progression didactique optimale. Pour les étudiants, c’est une synthèse qui leur précise les attentes de l’enseignement et, partant, prédétermine l’attention portée à ce qui sera dit en cours. Dans les échanges entre les uns et les autres, enfin, les grilles critériées tiennent lieu de « sens commun didactique » partagé par l’ensemble des participants d’un enseignement. Grâce à elle, un grand nombre de malentendus peuvent être évités et des suggestions très précises d’amélioration peuvent être exprimées (de la part des enseignants sur les travaux des étudiants et de la part des étudiants sur l’enseignement lui-même).

31Il n’en demeure pas moins que, dans le cas du cours abordé dans cet article en guise d’exemple, la définition des critères, ou plutôt la spécification des seuils qui font passer d’un degré de réussite à un autre (c’est-à-dire d’un certain nombre de points à un autre), n’a pu être formulée que de façon approximative, à l’aide d’expressions telles que « passablement » ou encore « quelques fois ». Le « reste » de jugement subjectif qu’implique l’obligation de trancher cette approximation à partir de « preuves » rarement décisives pourrait être condamné du point de vue d’une procédure d’objectivation des critères d’évaluation. Il pourrait aussi être salué comme l’un des lieux où des paramètres impossibles à fixer dans une grille, sous peine de l’étendre à l’infini, sont néanmoins susceptibles d’être pris en compte (enthousiasme, créativité intellectuelle par trop brouillonne, persévérance, etc.). Les grilles critériées constituent donc un outil appréciable pour réduire la subjectivité interprétative survenant lors de l’évaluation des apprentissages.

32En somme, les grilles critériées interviennent à plusieurs reprises dans le processus d’élaboration et d’évaluation des enseignements. En amont de la préparation des cours, elles facilitent la structuration des séances et permettent de penser une progression didactique d’ensemble en fonction d’objectifs clairs qu’elles obligent à définir à l’avance. Ce point est d’autant plus important quand il s’agit, comme dans le cas traité dans cet article, d’un cours qui s’adresse à des étudiants de disciplines différentes et qui, en outre, mobilise des savoirs interdisciplinaires. Au début du cours, elles contribuent au calibrage réciproque, d’une part, des exigences des enseignants et, d’autre part, des attentes des étudiants et de leur calendrier de travail. Au fil des séances, elles rendent possible un retour systématique sur les prestations des étudiants. Si la validation de l’enseignement comporte la reddition de plusieurs travaux, elles renforcent le processus d’apprentissage et débouchent souvent sur l’amélioration des prestations successives des étudiants. Si la validation ne repose que sur un seul rendu, elles favorisent l’explicitation des critères d’évaluation lors de l’entretien avec les étudiants. A la fin du cours, les grilles critériées devraient faire l’objet d’une rubrique spécifique dans le questionnaire d’évaluation globale rempli par les étudiants. Cette procédure permettrait d’avoir leur point de vue non pas tant sur le contenu du cours que sur la pertinence de cet outil pédagogique (de ses formulations et de ses usages). Faute de cela, il est difficile de juger de l’utilité que celles-ci peuvent avoir pour eux. Cet article n’a ainsi développé que le point de vue des enseignants : à cet égard, les grilles critériées s’avèrent donc être un outil très pratique, pour autant que l’on ne tombe pas dans un excès de formalisme. Il ne faudrait pas qu’elles deviennent la seule médiation entre le jugement de l’enseignement et la prestation des étudiants. Cette dernière remarque peut s’entendre à deux niveaux : sur le versant didactique, elle rappelle la nécessité de ne pas négliger l’importance de critères d’évaluation difficilement formalisables mais pas arbitraires pour autant ; sur un versant que l’on pourrait qualifier de politique, elle souligne l’enjeu qu’il y a à ne pas soumettre aveuglément les pratiques d’enseignement à des protocoles préformatés.
Haut de page
Bibliographie
Des DOI sont automatiquement ajoutés aux références par Bilbo, l'outil d'annotation bibliographique d'OpenEdition.
Les utilisateurs des institutions qui sont abonnées à un des programmes freemium d'OpenEdition peuvent télécharger les références bibliographiques pour lequelles Bilbo a trouvé un DOI.

Angelo, T. A., & Cross, K. P. (1993). Classroom assessment techniques : A handbook for college teachers (2nd ed.). San Francisco : Jossey-Bass.

Berger, P. L., & Luckmann, T. (1966). The social construction of reality. Garden City, NY : Anchor Books.

Bloxham, S., & Boyd, P. (2007). Developing effective assessment in higher education : A practical guide. Maidenhead, UK : Open University Press.

Bogdan, R. C., & Biklen, S. K. (1998). Qualitative research for education (3rd ed.). Boston : Allyn & Bacon.

Brown, S., & Knight, P. (1994). Assessing learners in higher education. London : Kogan Page.

Brown, S., Rust, C., & Gibbs, G. (1994). Strategies for diversifying assessment in higher education. Oxford, UK : Oxford Centre for Staff Development.

Denzin, N. K. (2002). The interpretive process. In A. M. Huberman & M. B. Miles (Eds.), The qualitative researcher's companion (pp. 349-366). Thousand Oaks, CA : Sage.

Denzin, N. K., & Lincoln, Y. S. (Eds.). (1998). Collecting and interpreting qualitative materials. Thousand Oaks, CA : Sage.

Depover, C., & Noël, B. (1999). L'évaluation des compétences et des processus cognitifs : modèles, pratiques et contextes. Bruxelles : De Boeck.

Eisner, E. W. (1991). The Enlightened eye : Qualitative inquiry and the enhancement of educational practice. New York : Macmillan.

Fenwick, T., & Parsons, J. (2000). The art of evaluation : A handbook for educators and trainers. Toronto, ON : Thompson Educational Publishing, Inc.

Guba, E. C. (1990). The alternative paradigm dialog. In Guba, E. C. (Ed.), The paradigm dialog (pp. 17-27). Thousand Oaks, CA : Sage.

Guba, E. C. & Lincoln, Y. S. (1998). Competing paradigms in qualitative research. In N. K. Denzin & Y. S. Lincoln (Eds.), The landscape of qualitative research : Theories and issues (pp. 195-220). Thousand Oaks, CA : Sage.

Hill, C. E., Thompson, B. J., & Williams, E. N. (1997). A guide to consensual qualitative research. The Counselling Psychologist, 25(4), 517-572.
DOI : 10.1177/0011000097254001

Huberman, A. M., & Miles, M. B. (1994). Data management and analysis methods. In N. K. Denzin & Y. S. Lincoln (Eds.), Handbook of qualitative research (pp. 428-444). Thousand Oaks, CA : Sage.

Kirk, J., & Miller, M. (1986). Reliability and validity in qualitative research. Beverly Hills, CA : Sage.

Lessard-Hébert, M., Goyette, G., & Boutin, G. (2001). La recherche qualitative : fondements et pratiques (2e ed.). Montréal, QC : Éditions Nouvelles.

Maxwell, J. A. (1992). Understanding and validity in qualitative research. Harvard Educational Review, 62(3), 279-300.

Miles, M. B., & Huberman, A. M. (1984). Qualitative data analysis : A sourcebook of new methods. Beverly Hills, CA : Sage.

Miles, M. B., & Huberman, A. M. (1994). Qualitative data analysis : An expanded sourcebook (2nd ed.). Thousand Oaks, CA : Sage.

Morissette, D. (1996). Évaluation sommative. Montréal, QC : Éditions du Renouveau Pédagogique.

Patton, M. Q. (2002). Qualitative research and evaluation methods (3rd ed.). Thousand Oaks, CA : Sage.

Pellegrino, J. W., Chudowsky, N., & Glaser, R. (Eds.). (2001). Knowing what students know : The science and design of educational assessment. Washington, DC : National Academy Press.

Poupart, J. (1997). La recherche qualitative : enjeux épistémologiques et méthodologiques. Montréal, QC : Gaëtan Morin Éditeur.

Savoie-Zajc, L. (2000). La recherche qualitative/interprétative en éducation. In T. Karsenti & L. Savoie-Zajc (Eds.), Introduction à la recherche en éducation (pp. 171-198). Sherbrooke, QC : Éditions du CRP.

Scallon, G. (2000). L'évaluation formative. Montréal, QC : Éditions du Renouveau Pédagogique.

Schutz, A. (1973). Collected papers I : The problem of social reality (4th ed.). The Hague, NL : Martinus Hijhoff.

Shepard, L. A. (2000). The role of assessment in a learning culture. Educational Researcher, 29(7), 4-14.

Silverman, D. (2001). Interpreting qualitative data : Methods for analysing talk, text and interaction (2nd ed.). London : Sage.

Smith, J. A. (Ed.). (2003). Qualitative psychology : A practical guide to research methods. London : Sage.

Stevens, D. D., & Levi, A. J. (2005). Introduction to rubrics. Sterling, Virginia : Stylus.

Tardif, J. (2006). L'évaluation des compétences : Documenter le parcours de développement. Montréal : Chenelière Education.

Yin, R. K. (1994). Case study research : Design and methods (2nd ed. vol. 5). Thousand Oaks, CA : Sage.
Haut de page
Document annexe

Annexe I (application/pdf – 91k)

Critères d’évaluation pour le cours « normes et formes de la mondialisation culturelle (XIX-XXIème siècles)
الرجوع الى أعلى الصفحة اذهب الى الأسفل
 
Réduire la subjectivité lors de l’évaluation des apprentissages à l’aide d’une grille
الرجوع الى أعلى الصفحة 
صفحة 1 من اصل 1
 مواضيع مماثلة
-
» Comment réduire la subjectivité de l'évaluation ?*pdf
» L’évaluation par les capacités
» Deux méthodes pour réduire le bruit avec Gimp
» évaluation 4AEP :UD-6
» évaluation 4AEP :UD-7

صلاحيات هذا المنتدى:لاتستطيع الرد على المواضيع في هذا المنتدى
oumelbanine guercif :: قسم التربية والتعليم :: منتدى الاساتدة :: التربية وعلم النفس والاستعداد للامتحانات المهنية-
انتقل الى: