Notre cadre d'évaluation des enseignants de l'Association des enseignants en Californie

Notre cadre pour évaluer les enseignants

Teneur:

  1. FAQ

Les enseignants fournissent l'environnement stable, nourri et inspirant qui permet d'atteindre chaque étudiant individuellement. Les enseignants et l'environnement de la classe sont le fondement d'une vaste expérience éducative. Les enseignants ont besoin et veulent un système d'évaluation qui renforce leurs connaissances, leurs compétences et leurs pratiques, et l'objectif de tout système d'évaluation des enseignants devrait être d'améliorer l'apprentissage des élèves.

FAQ

Tout éducateur vous indiquera que le système d'évaluation actuel par le pilotage ne fonctionne pas. Le cadre d'évaluation des enseignants de la CTA est conçu pour aider les éducateurs et le CTA à prendre la tête de notre profession, dans les discussions d'évaluation des enseignants à l'échelle nationale et en Californie en fournissant un cadre pour les éducateurs et les districts à utiliser lors de l'élaboration et de la négociation de leurs propres programmes d'évaluation locaux. Il est centré sur le principe sous-jacent que l'objectif de tout système d'évaluation est de renforcer les connaissances, les compétences et les pratiques des enseignants pour améliorer l'apprentissage des élèves. Le cadre se développe sur les principes d'évaluation des enseignants adoptés par le Conseil d'Etat en juin 2011 et fournit des orientations aux éducateurs locaux et à leurs syndicats, ainsi que des districts scolaires locaux et de la législature de l'État pour approcher l'évaluation des enseignants.

Le cadre provient des travaux du groupe de travail de l'évaluation des enseignants de la CTA, qui comprend une vaste section transversale d'éducateurs locaux en Californie, des membres du conseil d'État, des présidents de chapitres, du corps professoral de l'enseignement supérieur et du personnel de la CTA. Le groupe de travail a été créé par le conseil d'administration de la CTA sur recommandation du groupe de travail de la CTA ESEA en février 2010.

L'accusation du groupe de travail: la CTA recherchera et développera des modèles efficaces d'évaluation des éducateurs et de l'administrateur et des modèles de licence d'enseignants pour examen qui améliorent l'apprentissage des élèves et faire avancer la profession enseignante.

Le groupe de travail s'est concentré sur le développement d'un modèle d'évaluation de l'éducateur en premier. Le cadre a été écrit par des membres du groupe de travail à travers une série de petites et grandes réunions de groupe et avec le soutien du personnel de la CTA. La prochaine accusation du groupe de travail consiste à fournir des conseils sur la licence des enseignants et l'évaluation principale.

Le groupe de travail a été nommé par le conseil d'administration de la CTA. Il comprenait une section transversale d'éducateurs locaux dans toute la Californie, des membres du Conseil des États, des présidents de chapitres, des professeurs d'enseignement supérieur et du personnel de la CTA. Il incluait également les présidents et les consultants du personnel de sept comités du Conseil d'État afin de garantir la contribution de tous les comités de politique ayant des travaux directs avec l'évaluation et l'évaluation des enseignants.

Le groupe de travail a lu et examiné plusieurs rapports de recherche sur l'éducation nationale et nationale, ont examiné les modèles d'évaluation des enseignants de plusieurs États différents; Cadres d'évaluation examinés et guides de NEA, de l'AFT et d'autres principales organisations éducatives; et a entendu des principaux experts dans les domaines d'enseignement et d'évaluation, y compris Stanford Professeur d'Education Linda Darling-Hammond et un expert en évaluation reconnu à l'échelle nationale et à la retraite de l'UCLA diplômé de l'éducation professeur James Popham.

Oui. Les membres du Conseil d'État ont été impliqués depuis le début et chaque étape du fait de la route. Les présidents de sept comités du Conseil d'État figurent sur le groupe de travail: Évaluation et tests de compétences et de développement professionnel Curriculum et de négociations d'enseignement Droits et responsabilités professionnels Évaluation de l'éducation spéciale Évaluation des enseignants et la liberté académique

Le Conseil d'État a examiné et adopté les principes directeurs en juin 2011, qui constituent la base du cadre. Les sept comités du Conseil des États ont examiné l'ensemble du cadre lors d'une première lecture lors de la dernière réunion du Conseil des États en mars 2012 afin de s'assurer que le cadre est aligné sur la politique de la CTA. Il est.

Oui. Le cadre a été construit sur les principes directeurs adoptés par le Conseil en juin 2011. Le cadre a été examiné par sept comités du Conseil d'État en mars et est aligné sur la politique de la CTA.

Le cadre est divisé en neuf sections de base, qui incluent des principes directeurs, une responsabilité réciprobatique, des normes, une évaluation formative et sommative, des mesures multiples, un processus d'évaluation, des systèmes de soutien, de la formation des enseignants et des évaluateurs et de la négociation collective. .

L'évaluation formative se concentre sur le processus d'augmentation des connaissances et d'améliorer la pratique professionnelle. L'évaluation sommative met l'accent sur les résultats, résume le développement de la pratique des enseignants à un moment donné en fonction des normes professionnelles et de multiples sources de preuve sur l'enseignement et l'apprentissage, et est utilisé pour prendre des décisions en matière d'emploi.

Le cadre est utilisé de quelques égards. La CTA doit aider la Californie à élaborer une législation sain et équitable de l'évaluation des enseignants. Nationwide, de nombreux changements proposés dans la manière dont les éducateurs sont évalués. CTA demande à des systèmes d'évaluation complets, équitables, utiles et productifs. L'objectif de tout système d'évaluation devrait être de renforcer les connaissances, les compétences et les pratiques des enseignants afin d'améliorer l'apprentissage des élèves. Le CTA utilisera ce cadre pour guider notre travail avec la législature. Les éducateurs locaux et les chapitres tout au long de l'État ont besoin et demandent des conseils et un soutien de négociation. Ce cadre sera utilisé comme guide pour les chapitres locaux pour négocier des systèmes d'évaluation locaux avec des districts scolaires. Le cadre permettra également à la CTA et à ses membres d'être proactifs pour prendre la tête de notre profession. Il est temps que nous définissons ce qui est important dans un système d'évaluation de la qualité basé sur nos croyances sur ce que la profession est sur laquelle il s'agit et comment la déplacer en avant.

Non. Les recherches montrent que des mesures à valeur ajoutée (VAM) basées sur les scores de test des élèves sont extrêmement instables, sont considérablement affectées par les différences entre les étudiants individuels attribués à un enseignant et ne reflètent pas avec précision les nombreuses influences sur les progrès des étudiants. (p. 19-20) Le cadre reconnaît que les connaissances de l'enseignant sur la manière d'utiliser des scores de test sont importantes. Les scores de test peuvent faire partie du processus d'évaluation formative utilisée pour prendre des décisions concernant le développement professionnel et renforcer les pratiques d'enseignement. Les connaissances d'un enseignant sur la manière d'analyser et d'utiliser des données sur les étudiants peuvent faire partie de l'évaluation sommative.

Les décideurs d'éducation d'aujourd'hui feraient bien de suivre le plomb d'Edison et de traiter leurs opposants comme des opportunités d'apprentissage. Par exemple, envisagez les nombreux efforts déployés ces dernières années pour évaluer les enseignants à titre de modèles à valeur ajoutée ou d'autres calculs basés sur les scores de leurs étudiants sur des tests de réalisation standardisés. Ces modèles ont été défectueux, comme nous discutons ci-dessous. Cependant, leurs lacunes ont beaucoup à nous enseigner sur les défis impliqués dans l'évaluation du travail des enseignants en classe.

Au cours des derniers mois, nous avons examiné les arguments et les décisions prises dans 15 procès-verbaux déposés par les enseignants syndicats (identifiés par la Semaine de l'éducation, 2015) qui ont cherché à bloquer les États et les districts d'utiliser de tels systèmes d'évaluation. En outre, nous avons examiné profondément quatre de ces poursuites - de New York (Lederman c. King), Nouveau-Mexique (État du Nouveau-Mexique Ex rel. L'hon. Mimi Stewart et al. V. Département de l'éducation publique), Texas ( Fédération de Houston des professeurs c. Houston District d'école indépendante) et Tennessee (truite c. Knox comté de l'éducation) - Combinant plus de 15 000 pages de documents juridiques accompagnants pour identifier les objections les plus fortes de ces stratégies de mesure.

Les leçons à tirer de ces cas sont à la fois importantes et opportunes. En vertu de chaque élève succédant à la loi (ESSA), les dirigeants de l'éducation locale ont de nouveau l'autorité de décider de manière à évaluer le travail des enseignants. En conséquence, des centaines d'équipes de niveau d'État et de district (y compris les enseignants, les administrateurs, les représentants syndicaux, le département de l'Etat du personnel de l'éducation et d'autres personnes en essayant maintenant de décider de déterminer si et comment repenser leurs systèmes d'évaluation des enseignants existants. S'ils ne sont pas prudents, ils pourraient facilement répéter les quatre blunders principaux que leurs prédécesseurs ont fait:

Modèles de croissance à valeur ajoutée ou d'élève (plus généralement appelé VAMS) vise à évaluer l'efficacité des enseignants individuels en comparant les scores de tests d'anciens élèves avec ceux des étudiants démographiquement similaires (basé sur des facteurs tels que En tant que réalisation passée, revenu familial, race, maîtrise de la langue anglaise et statut d'éducation spéciale) qui ont étudié avec d'autres enseignants.

Cela peut sembler une forme d'évaluation objective, donnant aux administrateurs d'école une méthode parfaitement juste pour déterminer exactement combien ou à quel point chaque enseignant contribue à la réalisation des élèves, par rapport à leurs pairs dans des écoles similaires et des salles de classe. Cependant, dans les 15 poursuites sur les 15 poursuites soulignées par la Semaine de l'éducation, les plaignants ont fait valoir que les VAMS tombent souvent loin de leur intention de créer des comparaisons équitables, pommes-pommes de l'efficacité des enseignants, car leurs modèles statistiques ne peuvent pas rendre compte de la manière subtile de quels groupes des étudiants diffèrent d'une année à l'autre. Dans aucun procès n'était plus clair que dans Lederman c. Roi.

En 2014, Sheri Lederman - un enseignant de 4e année certifié hautement loué avec 18 ans d'expérience, travaillant dans un grand cou, N.. - a reçu un point sur 20 sur 20 points possibles sur son score VAM, bien qu'il ait reçu 14 points sur 20, l'année précédente. Les scores de test de ses élèves n'étaient pas très différents au-delà de ces deux années et il n'y avait pas de changement discernable dans ses méthodes d'enseignement, mais le système d'évaluation avait donné ses évaluations extrêmement différentes.

Lederman a apporté une action dans la Cour suprême de l'État de New York, ce qui a suscité un cas bien publicisé qui a suscité des affidavits de plusieurs experts en tests (y compris le coauteur de cet article), dont beaucoup ont fait valoir que cela et d'autres Les VAM étaient peu fiables (i.., Ils manquaient de cohérence au fil du temps). Lederman a remporté son cas, avec le juge présidé décidé que le système d'évaluation des enseignants de l'État, fondé principalement sur les scores VAM des enseignants, était «arbitraire et capricieux» et «pris sans soline en raison de la raison ou de l'égard des faits» (LEDERMAN c. King , 2016).

Cependant, cette décision a été largement diffusée - et bien qu'un certain nombre de chercheurs ont trouvé des vams ne soient pas fiables (e..., Schochet et Chiang, 2013; Yeh, 2013) - De nombreux districts continuent d'utiliser des vams comme base de décisions de responsabilisation à haut enjeux, telles que le tirant des enseignants ou leur prenant leur mandat ou un salaire mérite.

En outre, des VAM ont également été constatés comme faisant partie des préjugés des enseignants de sujets et de niveaux de niveau spécifiques, comme indiqué par les plaignants du Tennessee et des procès-verbaux du Nouveau-Mexique. Comment, par exemple, un système d'évaluation peut-il être décrit comme équitable lorsqu'il tape systématiquement des enseignants d'anglais plus élevés que les enseignants de mathématiques, ou des tarifs des enseignants de 4e et de 8e année supérieurs à ceux des enseignants de 5 à 7 ans (Holloway-Libell, 2015)? Si un système est conçu pour mesurer la performance des enseignants individuels, les groupes ne devraient pas varier par les groupes auxquels appartiennent les enseignants.

Les décideurs peuvent avoir le pouvoir de concevoir et d'introduire de nouveaux systèmes d'évaluation des enseignants, mais les dirigeants scolaires ont le pouvoir de mettre en œuvre ces systèmes et qu'il est peu probable de le faire d'une manière qui gère leur expertise professionnelle et intérêts. Il ne devrait donc pas être surprenant que les administrateurs locaux trouveront souvent des moyens de gonfler les notes des enseignants qu'ils souhaitent protéger, surtout quand ils croient que le système d'évaluation des enseignants donnés est inexact, injuste ou préjudice. Fréquemment, par exemple, les directeurs permettront aux enseignants de très fortes scores sur leurs observations en classe pour contrebalancer leurs scores de Vam bas (Geiger et Amrein-Beardsley, 2017).

Inversement, les administrateurs peuvent être tentés de réduire leurs évaluations de la pratique de la classe des enseignants afin de mieux les aligner sur les scores VAM qu'ils ont déjà reçus. Afin de dire les plaignants dans les poursuites de Houston et du Tennessee, par exemple. Dans ces systèmes, les chefs d'école semblent avoir préséance les scores VAM, ajustant leurs observations en classe pour les assortir. Dans les deux cas, les administrateurs ont admis le faire, expliquant qu'ils ont détecté la pression pour que leurs notes de classe «subjectives» soient synchronisées avec les scores «objectifs» de VAM.

Si les administrateurs gonflent ou déclassent leurs notes, ce comportement déforme la validité (ou la "vérité") de l'ensemble du système d'évaluation des enseignants. Cependant, ce jeu des données semble être une pratique courante (Goldring et al., 2015; Walsh et al., 2017; Winerip, 2011), en violation des normes professionnelles créées par les principales organisations de recherche en éducation, en psychologie et Mesure (Association américaine de la recherche pédagogique, Association psychologique américaine et Conseil national sur la mesure dans l'éducation, 1999), qui appelez des scores de VAM et des notations d'observation à maintenir, il ne faut jamais être ajustée pour s'adapter à l'autre.

La leçon importante ici est que les systèmes d'évaluation des enseignants, comme une invention, doivent être testés dans le monde réel pour voir comment ils se traduisent de la théorie à la pratique et de donner à leurs concepteurs la chance de faire des améliorations. À Houston et au Tennessee, ce n'est jamais arrivé. Les preuves suggèrent plutôt que les décideurs ont poussé leurs systèmes d'évaluation des enseignants en place sans les essayer d'abord d'une échelle limitée.

Les créateurs de Vams ont tendance à intégrer des composants statistiques uniques dans leurs modèles, ce qui permet à chaque développeur de prétendre que leur produit est différent de (et de supérieurs à) d'autres sur le marché. En effet, la concurrence pour la part de marché est féroce. Certains États et districts scolaires ont été disposés à dépenser des millions de dollars pour des outils offrant des données «objectives» qu'ils peuvent utiliser pour évaluer les enseignants - par exemple, Houston a payé 680 000 $ par an pour son VAM (Amrein-Beardsley, 2016). Compte tenu des profits considérables en jeu, les évaluateurs sont extrêmement protecteurs de leurs matériaux exclusifs, prenant grand soin de protéger leurs secrets commerciaux. Et lorsqu'on lui a demandé plus d'informations, ils ont tendance à être réticents à la fournir, affirmant que leurs «méthodes [sont] trop complexes pour la plupart des enseignants dont l'emploi dépendait d'eux pour comprendre» (Carey, 2017; voir aussi Gabriel & Lester, 2013).

Nous utilisons des cookies
Nous utilisons des cookies pour vous assurer de vous donner la meilleure expérience sur notre site Web. En utilisant le site Web, vous acceptez notre utilisation de cookies.
AUTORISE LES COOKIES.