Élaboration d’une Politique institutionnelle d’évaluation des programmes d’études:

des balises à trouver ensemble (octobre 1995)

 

par

Marcel Côté, conseiller pédagogique au Campus Notre-Dame-de-Foy

Luc Desautels, conseiller pédagogique au Collège de l’Assomption

Jean-Pierre Gaudreau, conseiller pédagogique au Collège Jean-de-Brébeuf

Jacques Lachance, conseiller pédagogique au Collège Mérici

Bruno Poëllhuber, conseiller pédagogique au Collège Laflèche

 

 

Comme chacun le sait, l’article 24 du nouveau Règlement sur le régime des études collégiales oblige chaque collège à adopter, "après consultation de la Commission des études, une politique institutionnelle d’évaluation relative aux programmes et s’assure de son application". Le 20 décembre 1994, le ministre de l’Éducation annonçait la mise en vigueur de cet article dès l’automne 1996 et une décision ministérielle datée du 31 aôut 1995 réitérait cette échéance.

 

De son côté, la Commission d’évaluation de l’enseignement collégial avait déjà fait parvenir dans les collèges, en novembre 1994, le cadre de référence qu’elle entend utiliser en matière d’évaluation des politiques d’évaluation des programmes d’études. Ce document, à situer dans le prolongement des opérations d’évaluation de programmes commandées par la Commission et des textes qui les guidaient, présente, aux dires du président de la Commission, "des énoncés assez généraux en insistant sur les conditions et caractéristiques susceptibles de rendre efficaces les évaluations de programme, et sur les composantes essentielles d’une politique en ce domaine". Pour les collèges, il s’agit là du document clé puisque c’est à partir des critères qu’il annonce que seront posés ( et rendus publics) les jugements de la Commission sur leur P.I.E.P.

 

C’est ainsi que la table était mise pour les responsables de ce dossier dans les différents collèges du Québec! Comme nous avions pris l’habitude d’échanger sur les dossiers qui nous étaient communs, les cinq signataires ont résolu de joindre leurs ressources pour s’approprier le sujet. Trois objectifs étaient visés au point de départ: 1) bien saisir les exigences de la Commission; 2) prendre du recul par rapport à celles-ci; 3) créer un canevas commun qui permettrait à la fois de répondre aux exigences de la Commission et de satisfaire notre désir de mener les évaluations de programme dans une perspective d’animation et de développement pédagogiques favorisant des évaluations réalistes, efficientes et aboutissant à des résultats pratiques pour les enseignants et les étudiants. Et puisque le secrétariat général de l’Association des collèges privés du Québec cherchait au même moment des personnes-ressources afin de déblayer le terrain des P.I.E.P. au profit de tous les collèges membres, le travail produit conjointement par les cinq conseillers pédagogiques a pu servir à l’ensemble.

 

L’expérience du réseau des établissements d’enseignement collégial dans le domaine de l’évaluation formelle des programmes d’études et dans le domaine de l’élaboration d’une politique à ce sujet, est limitée. À notre connaissance, certains collèges publics sont expérimentés en matière de révision de programmes, mais ce n’est pas le cas de la majorité des collèges. Cela s’explique en bonne partie par le fait que jusqu’à maintenant, c’est l’État qui, ayant planifié et élaboré les programmes d’études, procédait à leur évaluation et à leur révision. Pourtant, la mise en oeuvre locale de ces programmes d’État faisait l’objet de nombreux actes d’évaluation et de regard critique dans chacun de nos établissements, privés ou publics: par exemple, l’examen périodique des statistiques portant sur le taux de réussite et de diplomation des étudiants, le travail régulier des équipes d’enseignants sur le contenu et l’arrimage des cours, les bilans annuels des différents groupes de travail. Ces diverses actions(peut-être insuffisantes) n’étaient pas rassemblées et liées dans un texte de politique formelle. C’est à cette tâche de cohérence et d’enrichissement que nous convie l’élaboration d’une P.I.E.P.: c’est une démarche opportune, nous semble-t-il, qu’il faut entreprendre avec ouverture d’esprit,mais sans formalisation excessive, dans le but d’améliorer la qualité de la formation offerte aux étudiants.

 

Pour mener à bien ce travail, s’il ne faut évidemment pas perdre de vue les exigences de la C.E.E.C. (en vertu desquelles chaque politique sera publiquement jugée), il est utile de reconnaître les courants théoriques dont elles proviennent ainsi que de tenir compte de l’expérience des premières opérations d’évaluation de programmes collégiaux qu’elles ont guidées. Le premier aspect est intéressant parce qu’il permet de constater les choix qui ont été faits et imposés par la C.E.E.C., leurs justifications et les solutions de remplacement dans ce domaine: au besoin, chaque collège pourra mieux argumenter la position qu’il prendra dans sa propre politique. Les leçons des évaluations déjà menées en informatique et en éducation en services de garde, de même que l’expérience actuelle en sciences humaines, serviront à mieux équilibrer (voire modérer) les divers éléments de l’éventuelle P.I.E.P. en fonction des coûts de toute espèce qu’engendre son application. Le défi qui nous est lancé consiste à identifier les indicateurs les plus révélateurs de la qualité d’un programme d’études et à instaurer, à partir d’eux, les pratiques évaluatives les plus simples et néanmoins les plus riches de retombées positives pour les étudiants inscrits dans les programmes.

 

Voilà donc les grands paramètres qui ont guidé le travail commun. Suite à un atelier de formation et d’échanges sur l’évaluation de programmes et à deux jours de travail intensif sur la P.I.E.P., les signataires se sont entendus sur les éléments suivants:

 

- un lexique des termes les plus utiles;

- un tableau synoptique qui, comme le montre l’exemple ci-joint, reprend les exigences et les suggestions de la C.E.E.C. mais qui indique aussi les éléments que le groupe de travail a jugés incontournables aux yeux de la C.E.E.C. ainsi que les autres choix possibles (les deux types d’éléments ne s’excluant d’ailleurs pas nécessairement);

- une série d’exemples d’articles de P.I.E.P., dont les deux ci-joints, rédigés à partir des informations du tableau.

Cette démarche et ces instruments ont servi à l’animation d’une journée d’études sur les PIEP qui s’est tenue en octobre 1995 et à laquelle ont participé des représentants de seize collèges membres de l’Association des collèges privés du Québec. Les commentaires positifs recueillis suite à cette activité nous ont encouragé à faire connaître cette démarche et ces outils, pour fins de discussion et d’amélioration.

 

Actuellement, le groupe de travail envisage de poursuivre la collaboration inter-institutionelle en examinant de façon critique les premières ébauches de P.I.E.P. des collèges participants; il projette aussi de discuter et de comparer les positions quant à l’identification des indicateurs les plus signifiants, et les plus efficients possibles de l’état d’un programme d’études; enfin, le groupe a l’intention d’examiner l’opportunité de construire des instruments communs se rapportant aux indicateurs retenus ( par exemple: une banque d’items en vue de l’élaboration des questionnaires s’adressant aux étudiants ou aux employeurs, une grille d’analyse de la cohérence des activités d’apprentisages, un outil informatique d’extraction des cheminements scolaires) . C’est ainsi que nous souhaitons, d’ici la fin du printemps et après tout un processus de consultation et d’appropriation dans nos milieux, contribuer de façon active à l’élaboration de Politiques institutionnelles d’évaluation des programmes d’études qui répondent aux règles de l’art, qui s’adaptent au contexte particulier de chacun de nos collèges et qui favoriseront l’amélioration des programmes d’études auxquels sont inscrits les étudiants.

 

1