jueves, 10 de enero de 2013

El Reporte MET de la Fundación Gates: más que novedoso, ojalá muy útil.


El proyecto MET (Measures of Effective Teaching, Medidas sobre Enseñanza Efectiva) de la Fundación Gates acaba de publicar su reporte final, fruto de tres años de investigación. El proyecto tuvo como objeto identificar "cómo usar un conjunto de medidas podría servir para identificar enseñanza efectiva, de una manera justa y confiable". Este conjunto está compuesto por tres fuentes de información. La primera, desde luego, los infaltables resultados de pruebas estandarizadas de aprendizaje de los estudiantes.  Pero la segunda y la tercera son una adición interesante a al enfoque tradicional de sólo pruebas: encuestas a los estudiantes sobre percepciones de su ambiente de aprendizaje, y además observaciones de clase por parte de pares docentes y administradores educativos.

Merece atención que la evaluación de la efectividad de la docencia involucre estas tres fuentes, porque ya era hora de que una iniciativa masiva de evaluación de docentes lo hiciera. El hecho de que un reporte de esta visibilidad incluya datos obtenidos de estas fuentes es importante porque aún hay simpatizantes de escoger entre cosas entre las que no se debe escoger: como por ejemplo observaciones de clase y evaluaciones estandarizadas. También es destacable que el reporte incluya la voz de unos actores que pueden esgrimirse como argumento para todo (¿Que no se haría en nombre de los niños?), pero a quienes infrecuentemente se les tiene en cuenta de forma para evaluar a sus profesores. Esto no deja de ser curioso dado que son los estudiantes quienes más tiempo pasan con los docentes y quienes experimentan sin mediaciones sus aciertos y desaciertos.  

Además de que el reporte no sólo se basa en los resultados de las tres fuentes, llega a una conclusión muy  importante: la validez de la evaluación docente es máxima cuando se involucran las tres fuentes de datos, y además, cuando el peso que se da a los resultados de cada una es equilibrado. Equilibrado significa que el peso de las fuentes en la evaluación docente sea similar, y que en ningún caso una de ellas contribuya con más del 50% del puntaje. Lo cual parece justo y sensato.

Otros resultados interesantes del reporte tienen que ver con cómo mejorar la validez de las observaciones de clase. Quiero destacar varios aspectos:
  1. Es mejor involucrar siempre más de un observador a tener siempre el mismo. Dos o más es lo aconsejable.
  2. Es mejor que los observadores adicionales hagan varias observaciones cortas subsecuentes a una primera más extendida, a que haya pocas y muy largas observaciones adicionales. Quince minutos de observación son suficientes. Y pueden ser en video.
  3. Los administradores educativos (rectores, coordinadores) tienden a calificar a sus profesores un poco por encima de lo que lo hacen observadores externos, pero con mayor precisión. 
  4. Para contrarrestar el sesgo de los observadores del del colegio, conviene incluir ocasionalmente observadores externos (lo cual suena obvio, así como la número cuatro).
Los hallazgos pueden ser más útiles que novedosos. Muchos colegios de alta calidad, privados en su mayoría, adelantan este tipo de evaluaciones a sus docentes desde hace décadas. Para estas instituciones, el hecho de que haya que observar a sus profesores o tener en cuenta la opinión de sus estudiantes es periódico de ayer. Para muchos investigadores sobre sistemas de evaluación docente, el reporte tampoco será tan novedoso, pero sin duda un buen argumento para apoyar hechos ya ampliamente conocidos. 

El reporte me parece útil sin embargo, por las consecuencias de política pública que podría tener. La Fundación Gates tiene un alto reconocimiento entre conocedores y no conocedores en temas de política pública en educación, no sólo en los Estados Unidos sino en varios países de su esfera de influencia, en particular los latinoamericanos. Preveo que el reporte será un argumento efectivo para hacer que las evaluaciones de docentes tengan en cuenta más que las pruebas estandarizadas. Finalmente, se desprende del reporte un argumento contundente: un sistema de evaluación en donde el 100% del peso lo tengan solo las evaluaciones de aprendizaje de los estudiantes es injusto y antiético, y para ponerlo en términos mas comprensibles para aquellos que estiman las discusiones sobre justicia y ética como muy subjetivas, puedo decir con simpleza que un sistema de evaluación tal sería simplemente antitécnico. Está mal. El mismo argumento pero al revés aplica para los defensores a ultranza de cualquiera de los otros instrumentos como fuente única de la verdad sobre evaluación de docentes.

Será interesante ver las consecuencias que se deriven de este reporte. De hecho con este ya empezó  la controversia. El debate sobre el costo de sistemas de evaluación de este tipo es inevitable, lo cual es beneficioso en general; es necesario que se empiece a destinar presupuesto a construir buenos instrumentos y pagar tiempos de observación, sea presencial o en video. ¿Cómo es un buen instrumento para la evaluación de clase? Este es otro tema que generará gran controversia. No es difícil prever como los intentos por sobresimplificar lo que ocurre en un salón de clase conducirán a instrumentos altamente prescriptivos, que a pesar de ser deleznables desde una perspectiva académica, generarán intensos enfrentamientos entre quienes quieran imponerlos por la fuerza y aquellos a quienes se los impondrán. Ojalá que de este debate sobre instrumentos de observación salgan soluciones que promuevan tanto el beneficio del aprendizaje de los niños, como la profesionalización de la docencia.