Abstracts
Résumé
Depuis les années 1990, un changement de paradigme s’opère dans la plupart des systèmes d’éducation : le pilotage centré sur les ressources investies (inputs) se transforme progressivement en un pilotage centré sur les résultats (outputs). C’est dans ce contexte que se sont développés les dispositifs d’évaluation externe à large échelle des acquis scolaires des élèves, tant au niveau international (comme PIRLS et PISA) qu’au niveau national ou même au niveau local. En parallèle, l’approche par compétences a été instaurée progressivement dans les référentiels scolaires et les classes. Basée sur un travail au départ de tâches complexes, l’approche par compétences n’est cependant pas sans poser certains problèmes sur le plan de l’évaluation. Certains auteurs affirment même que les évaluations externes à large échelle et l’approche par compétences présentent des logiques contradictoires et que, dès lors, les deux éléments sont inconciliables. L’objectif de cet article est de nuancer ce genre d’affirmations en rendant compte d’un dispositif d’évaluation exploratoire à large échelle combinant une évaluation « classique » (constitué d’un nombre important d’items à corriger de façon standardisée) et une évaluation de compétences à visée diagnostique (tâches complexes, tâches complexes décomposées et tâches élémentaires associées).
Mots-clés :
- approche par compétences,
- évaluation à large échelle,
- tâche complexe,
- dispositif d’évaluation
Abstract
Since the 1990’s, there is a paradigm shift in most educational systems: the initial input-oriented school monitoring shift to an output-oriented monitoring system. In this context, large scale external assessments of students achievements were developed both at the international level (see PIRLS or PISA), at the national level or even at the local level. In parallel, there was the progressive introduction of the competency-based approach in curricula and classrooms. Based on complex tasks, competency-based approach is however not without problems in terms of evaluation. Some authors even claim that large scale assessments and competency-based approach have conflicting logics and that both elements are irreconcilable. The aim of this paper is to qualify such statements by reporting an exploratory large-scale assessment combining a “classical” evaluation (with an important number of items to be corrected in a standardized way) and a competency-based evaluation with a diagnostic aim (complex tasks, decomposed complex tasks and associated elementary tasks).
Keywords:
- competency-based approach,
- large scale assessment,
- complex task,
- assessment design
Resumo
Depois dos anos 90, operou-se uma mudança de paradigma na maior parte dos sistemas educativos: de uma pilotagem centrada sobre os recursos investidos (inputs), passou-se para uma pilotagem centrada nos resultados (outputs). É neste contexto que se desenvolvem os dispositivos de avaliação externa em larga escala das aprendizagens escolares dos alunos, quer ao nível internacional (como PIRLS e PISA), quer ao nível nacional e até ao nível local. Em paralelo, assistiu-se à instauração progressiva da abordagem por competências nos referenciais escolares e nas turmas. Baseada num trabalho de tarefas complexas, a abordagem por competências, no entanto, não deixa de colocar certos problemas no plano da avaliação. Alguns autores afirmam mesmo que as avaliações externas em larga escala e a abordagem por competências apresentam lógicas contraditórias e que, portanto, são dois elementos inconciliáveis. O objetivo deste artigo é matizar este género de afirmações, dando conta de um dispositivo de avaliação exploratório em larga escala que combina uma avaliação “clássica” (constituída por um número importante de itens a corrigir de modo estandardizado) e uma avaliação de competências para fins de diagnóstico (tarefas complexas, tarefas complexas decompostas e tarefas básicas associadas).
Palavras chaves:
- abordagem por competências,
- avaliação em larga escala,
- tarefa complexa,
- dispositivo de avaliação
Appendices
Références
- Bond, T., G., & Fox, C., M. (2013). Applying the Rasch Model. Fundamental Measurement in the Human Sciences, 2nd ed. New York, NY: Routledge.
- Burton, R. (2004). Influence des distributions du trait latent et de la difficulté des items sur les estimations du modèle de Birnbaum : une étude du type Monte-Carlo. Mesure et évaluation en éducation, 27(3), 41–62.
- Carette, V. (2007). L’évaluation au service de la gestion des paradoxes liés à la notion de compétence. Mesure et évaluation en éducation, 30(2), 49-71.
- Carette, V. (2009). Et si on évaluait des compétences en classe ? À la recherche du cadrage instruit. In L. Mottier Lopez & M. Crahay (Eds.), Évaluations en tension. Entre la régulation des apprentissages et le pilotage des systèmes (pp. 149-163). Bruxelles, Belgique : De Boeck.
- Carette V., & Dupriez V. (2009). La lente émergence d’une politique scolaire en matière d’évaluation des élèves. Quinze ans de transformations en Belgique francophone. Mesure et évaluation en éducation, 32(3), 23-45.
- Crahay, M. (2006). Dangers, incertitudes et incomplétude de la logique de compétence. Revue française de pédagogie, 154, 97-110.
- Crahay, M., Audigier, F., & Dolz, J. (2006). En quoi les curriculums peuvent‐ils être objets dʹinvestigation scientifique ? In F. Audigier, M. Crahay, & J. Dolz (Eds.), Curriculum, enseignement et pilotage (pp. 7-37). Bruxelles, Belgique : De Boeck.
- Crahay, M., & Detheux, M. (2005). L’évaluation des compétences, une entreprise impossible ? (Résolution de problèmes complexes et maîtrise de procédures mathématiques). Mesure et évaluation en éducation, 28(1), 57-76.
- De Corte, E., & Verschaffel. L. (2005). Apprendre et enseigner les mathématiques : un cadre conceptuel pour concevoir des environnements d’enseignement-apprentissage stimulants. In M. Crahay, L. Verschaffel, E. De Corte, & J. Grégoire (Eds.). Enseignement et apprentissage des mathématiques : que disent les recherches psychopédagogiques ? (pp. 25-54). Bruxelles : De Boeck Université.
- De Ketele, J.-M. (1996). L’évaluation des acquis scolaires : Quoi ? Pourquoi ? Pour quoi ? Revue tunisienne des sciences de l’éducation, 23, 17-36.
- De Ketele, J-M. (2010). Ne pas se tromper d’évaluation. Revue française de linguistique appliquée, XV(1), 25-37.
- De Ketele, J.-M. (2011, 16 mars). Scores multidimensionnels : une nécessité pour évaluer les compétences. Communication orale lors du deuxième congrès français de psychométrie, Sèvres, France.
- De Ketele, J.-M., & Gérard, F.-M. (2005). La validation des épreuves d’évaluation selon l’approche par les compétences. Mesure et évaluation en éducation, 28(3), 1-26.
- Demonty, I., & Fagnant, A. (2004). PISA 2003. Évaluation de la culture mathématique des jeunes de 15 ans. Document à l’attention des professeurs de mathématiques des 1er et 2e degrés de l’enseignement secondaire. Ministère de la Communauté française. Service général du pilotage du système éducatif.
- Demonty, I., Fagnant, A., & Dupont, V. (soumis à la revue Mesure et évaluation en éducation, en révision). La mesure des compétences des élèves face à la résolution d’une tâche complexe en algèbre élémentaire : l’apport d’indicateurs issus de recherches centrées sur les difficultés spécifiques des élèves en algèbre.
- Dierendonck, C., & Fagnant, A. (2010a). Quelques réflexions autour des épreuves d’évaluation développées dans le cadre de l’approche par compétences. Le Bulletin de l’ADMÉÉ-Europe, 2010(1), 5-20.
- Dierendonck, C., & Fagnant, A. (2010b, janvier). Monitoring du système scolaire et évaluation des compétences en mathématiques : une étude exploratoire en vue de donner un feedback diagnostique aux enseignants. Communication orale au 22e colloque international de l’ADMÉÉ-Europe, Braga, Portugal.
- Dierendonck, C., & Fagnant, A. (2010c). Comment les épreuves externes d’évaluation des acquis des élèves sont-elles perçues par les enseignants de l’enseignement secondaire au Luxembourg ? Actes du congrès international de l’AREF, Genève, Suisse. Abstract retrieved from: http://www.unige.ch/aref2010/index.html
- Dierendonck, C. & Fagnant, A. (2012). Évaluer des compétences en mathématiques dans le cadre d’une épreuve externe à large échelle au départ de tâches complexes, de tâches décomposées et de tâches élémentaires : quel pouvoir diagnostique ? Actes du 24e colloque international de l’ADMÉÉ-Europe, Luxembourg, Luxembourg. Abstract retrieved from: http://admee2012.uni.lu/index.php/actes
- Dierendonck, C, Loarer, E. & Rey, B. (sous presse). L’évaluation des compétences en milieu scolaire et en milieu professionnel. Bruxelles, Belgique : De Boeck.
- Eurydice (2012). Developing key competences at school in Europe: Challenges and opportunities for policy. Eurydice Report. Luxembourg: Publications Office of the European Union.
- Fagnant, A., Demonty, I., Dierendonck, C., Dupont, V. & Marcoux, G. (sous presse). Résolution de tâches complexes, évaluation “en phases” et compétence en mathématiques. In C. Dierendonck, E. Loarer, & B. Rey (Eds.). L’évaluation des compétences en milieu scolaire et en milieu professionnel (pp. 179-190). Bruxelles, Belgique : De Boeck.
- Fagnant, A., & Dierendonck, C. (2012). Table ronde : Comment assurer l’évaluation diagnostique des compétences scolaires ? Actes du 24e colloque international de l’ADMÉÉ-Europe, Luxembourg, Luxembourg. Abstract retrieved from: http://admee2012.uni.lu/index.php/actes
- Gauthier, R.-F. (2006). Les contenus de l’enseignement secondaire dans le monde : état des lieux et choix stratégiques. UNESCO.
- Gérard, F.-M. (2008). Évaluer des compétences - Guide pratique. Bruxelles, Belgique : De Boeck.
- Hébert, M.-H., Valois, P., & Frenette, E. (2008). La validation d’outils alternatifs d’évaluation des apprentissages : progressiste ou rétrograde ? Actes du 20e colloque de l’ADMÉÉ-Europe, Genève, Suisse. Abstract retrieved from https://plone.unige.ch/sites/admee08/communications-individuelles/v-a1/v-a1-1
- Hulin, C. L., Lissak, R. I., & Drasgow, F. (1982). Recovery of two-and three-parameter logistic item characteristic curves: A Monte Carlo study. Applied Psychological Measurement, 6(3), 249-260. doi: http://dx.doi.org/10.1177/0146621682006 00301
- Julo, J. (1995). Représentation des problèmes et réussite en mathématiques. Un apport de la psychologie cognitive à l’enseignement. Rennes, France : Presses de l’Université de Rennes.
- Lafontaine, D. (2012). Des politiques aux pratiques d’évaluation en Belgique francophone. Actes du 24e colloque international de l’ADMÉÉ-Europe, Luxembourg, Luxembourg. Abstract retrieved from : http://admee2012.uni.lu
- Lafontaine, L. Soussi, A., & Nidegger, C. (2009). Évaluations internationales et/ou épreuves nationales : tensions et changement de pratiques. In L. Mottier Lopez & M. Crahay (Eds.), Évaluations en tension (pp. 61-80). Bruxelles, Belgique : De Boeck.
- Laveault, D., & Grégoire, J. (1997). Introduction aux théories des tests en psychologie et en sciences de l’éducation. Bruxelles, Belgique : De Boeck.
- Leduc, D., Riopel, M., Raîche, G., & Blais, J.-G. (2011). L’influence des définitions des habiletés disciplinaires sur la création et le choix d’items dans le PISA et le TEIMS. Mesure et évaluation en éducation, 34(1), 97-130.
- Loye, N. (2005). Quelques modèles de mesure. Mesure et évaluation en éducation, 28(3), 51-68.
- Loye, N., Caron, F., Pineault, J., Tessier-Baillargeaon, M., Burney-Vincent, C., & Gagnon, M. (2011). La validité du diagnostic issu d’un mariage entre didactique et mesure sur un test existant. In G. Raîche, K. Paquette-Côté, & D. Magis (Eds), Des mécanismes pour assurer la validité de l’interprétation de la mesure en éducation,volume 2 (pp. 11-30). Ste-Foy, Québec : Presses de l’Université du Québec.
- OCDE (2004). Cadre d’évaluation de PISA 2003 : connaissances et compétences en mathématiques, lecture, science et résolution de problèmes. Paris : OCDE.
- Rey, B., Carette, V., Defrance, A., & Kahn, S. (2003). Les compétences à l’école : apprentissages et évaluation. Bruxelles, Belgique : De Boeck.
- Roegiers, X. (2005). L’évaluation selon la pédagogie de l’intégration : est-il possible d’évaluer les compétences des élèves ? In K. Toualbi-Thaâlibi & S. Tawil (Eds.), La Refonte de la pédagogie en Algérie - Défis et enjeux d’une société en mutation (pp. 108-124). Alger : UNESCO-ONPS.
- Roegiers, X. (2007). Des situations pour intégrer les acquis scolaires. Bruxelles, Belgique : De Boeck.
- Romainville, M. (1996). L’irrésistible ascension du terme “compétence” en éducation. Enjeux,37-38, 132-142.
- Romainville, M. (2006). L’approche par compétences en Belgique francophone : où en est-on ? Les Cahiers pédagogiques, Quel socle commun ?, 439, 24-25.
- Scallon, G. (2004). L’évaluation des apprentissages dans une approche par les compétences. Bruxelles, Belgique : De Boeck.
- Schoenfeld, A. H. (1992). Learning to think mathematically: Problem solving, metacognition and sense-making in mathematics. In D. A. Grouws (Ed.), Handbook of research on mathematics learning and teaching (pp. 334-370). New York: Macmillan.
- UNESCO (2007). Curriculum Change and Competency-based Approaches: A Worldwide Perspective, Prospects, 37 (2). http://www.ibe.unesco.org/en/services/online-materials/publications/recent-publications/single-view/news/curriculum-change-and-competency-based-approaches-a-worldwide-perspective-prospects-n-142/2842/next/4.html
- Wright, B. D., Linacre, J. M., Gustafson, J. E., & Martin-Löf, P. (1994). Reasonable mean-square fit values. Rasch Measurement Transactions, 8(3), 370.