Asisten (inicialmente) 37 personas. Acabaríamos unas 25 personas.
Al inicio de la clase se plantearon diversas cuestiones organizativas. Comencé indicando cómo en los últimos diarios se reflejaba un olvido de la estructura social del aula (por ejemplo, no comentar que en la última práctica del grupo PA3 se estropeó el ordenador y no pudimos ver algunos vídeos previstos) o de cuestiones relativas a la evaluación (trabajo de valoración de las presentaciones, obviamente las del grupo de prácticas en que uno está incluido, no las del otro grupo).
A continuación Ana Fueyo me indicó que la exposición de su tema prevista para el día 18 no se podría hacer por la convocatoria de huelga general para ese día y propuso con su compañera Clara hacerlo el martes día 20, compartiendo la exposición con el grupo de nuevas familias del PA4 (aunque no había nadie presente de este grupo inicialmente aprobamos el cambio).
Entrando ya en materia les pasé fotocopiado un artículo publicado en el periódico el Pais por Angel Gabilondo el pasado 6 de marzo. Tras aclarar que el autor no era Iñaki Gabilondo sino su hermano Angel, último ministro de educación del gobierno de Zapatero, Xana comenzó a leerlo mientras le interrumpía haciéndole algunas preguntas sobre lo que leía (ver el artículo más abajo). Por ejemplo, ¿es cierto que lo que no se evalúa se devalúa? ¿El objetivo de una evaluación debe ser mejorar la práctica? Todo lo medimos y pesamos, ¿pero siempre lo sopesamos?
Tras la marcha de Xana, Adriana continuo leyendo unos párrafos del artículo hasta que indiqué que el que quisiese lo podía hacer individualmente y pasé a presentar en el power el artículo respecto a la evaluación y el informe PISA presentado ayer por el actual ministro Wert en el periódico ABC. Indiqué que su afirmación de que sin PISA no conocemos el sistema educativo lo consideraba como un insulto al gremio docente y a mí mismo como miembro del mismo y pasé a presentar 4 ejemplos de prácticas de evaluacións incorrectas: selección de conductores con prueba de cultura general (como si pudiese existir tal prueba), evaluación del profesorado por parte del alumnado de la universidad de Oviedo, el suspenso a 145 alumnos de 146 de un profesor de Medicina en dicha universidad (por cierto, no se veía la diapositiva y tengo que cambiarla) y, por último, un examen de ¿matemáticas de la ESO? planteado a las personas que cursaban el 2 grado de magisterio en nuestra Universidad el curso pasado. Planteé que ante una situación así lo correcto sería, en mi opinión, boicotear dicho examen (idea que compartió Jaime, nuestro delegado de curso)
Antes de finalizar presenté algunas ideas sobre cuándo se empezó a examinar y evaluar, tanto en nuestro país como a nivel internacional así como los precedentes del informe PISA realizado y financiado por los países de la OCDE al menos hasta el 2025. Ante la pregunta ¿qué es eso de la OCDE? la compañera ¿? nos indicó que se trata de la Organización para la Cooperación y Desarrollo Económico en la que está integrado nuestro país junto con el resto de países más desarrollados del planeta.
A destacar que a lo largo de los últimos 20 minutos de la sesión, el goteo de personas que abandonaba la sala fue constante lo que perturbaba mucho la marcha de la clase. Habrá que tomar una decisión al respecto, sobre todo teniendo en cuenta que la próxima semana empiezan las exposiciones de grupos.
Evaluación y valoración
Por: Ángel Gabilondo 05 de marzo de 2012
Lo que no se evalúa se devalúa. Lo hemos reiterado, y resulta razonable. Pero lo que se evalúa mal se deteriora. No se trata, por tanto, de evaluar, sin más, como si ello por sí mismo, independientemente de toda condición, produjera excelentes resultados. La evaluación no es un fin en sí misma, ha de ser una valoración, una puesta en valor, un hacer valer. Y su objetivo ha de ser crear condiciones para mejorar, incluso señalar cómo hacerlo.
Siempre, y muy especialmente en tiempos complejos, buscamos la seguridad objetiva que parecen procurarnos los datos numéricos, las cifras, las comparaciones, las estadísticas, los rankings… y es necesario hacerlo, ya que pueden ser decisivos para establecer criterios de valoración. Todo lo medimos, todo lo pesamos, pero no siempre lo sopesamos, no siempre equilibramos, ni tanteamos, ni examinamos. Rendidos ante los datos, los aireamos sin fuerzas ni ideas para mucho más.
Tienen su razón quienes afirman que en cierto sentido “los datos hablan por sí mismos”, pero conviene que les pongamos voz, incluso palabra y relato, y que sepamos que los leemos y que los oímos. No se trata de silenciarlos. Se trata de hacerlos decir. Y ello exige nuestra intervención, con miras a procurarlos y a descifrarlos, porque los datos, además de testimonio y fundamento, además de información adecuada, son un antecedente para proceder. Pero, a su vez, la consecuencia de algún procedimiento. Son datos porque se dan, se nos dan, pero son datos porque resultan de un modo de procurárnoslos.
Así que, puestos a medir y a sopesar, lo que se requiere es mesura, ponderación, moderación, comedimiento. Y en esto, como en tantas cosas, más vale ser riguroso que rígido. Reivindicar la templanza hablando de datos pone las cosas en su lugar. Para empezar, a fin de reconocer que hay una geopolítica de los datos y de las medidas y que, además, tienen su historia. Ello exige que nos ocupemos de que sean conmensurables. Sobre todo, si vamos a comparar eficacias. Y aquí cabe confundir la determinación con la precipitación, lo que puede conducirnos a conclusiones desproporcionadas, que descuidan de dónde venimos o dónde nos encontramos, de qué medios o recursos se ha dispuesto, en qué contextos sociales, o qué criterios y parámetros de medida o de valoración, o de evaluación hemos empleado.
Por otra parte, han de explicitarse los indicadores, los ámbitos de aplicación, las condiciones de la labor realizada y no reducirlo todo a la tosca remisión a un baremo, en muchos ámbitos necesario. Y no hemos de olvidar que en la evaluación hay evaluadores. Por ello, no basta con comparar resultados. Bien saben quienes se ocupan de estas tareas o quienes realizan una labor supuestamente, sólo supuestamente, más aséptica, como las estadísticas, que éstas son un estudio y no un mero acopio de datos cuantitativos, y que infieren y que se mueven en el cálculo de probabilidades. Y es preciso efectivamente estudiar y analizar, hacer prospectivas y evaluar para que los llamados “datos fríos” no sean independientes de una ciencia que es humana y social.
En ocasiones, ciertos datos parecen utilizarse sobre todo para deducir actuaciones incorrectas. No resulta una mala finalidad. Pero da que pensar que todo parezca orientado por el interés previo, como excusa para modificar el actual estado de cosas o simplemente lo que han hecho otros. Tampoco parece de entrada mal propósito. Pero se acumulan las sospechas. A veces, sin embargo, se utilizan para justificar la implantación de aquello que se desea. Podríamos también llegar a comprenderlo. O para mostrar que nuestra propuesta es mejor. En fin, estos objetivos, nos gusten más o menos, podrían llegar a ser entendidos, pero tantos intereses acaban incidiendo de modo determinante en el uso y abuso de los datos como argumento. Y por ello hemos de ser cuidadosos y exigentes al respecto. Hace falta más, bastante más, que los simples datos para consolidar las buenas razones.
Hemos de evaluar continua y permanentemente. A fin de realizar buenos diagnósticos, a fin de adecuar los objetivos con los resultados y de medirlos, a fin de encontrar los cauces para mejorar, a fin de adoptar las decisiones oportunas, a fin de estimular, incentivar y orientar, a fin de ser eficientes y rendir cuentas. Esa es su calidad. Pero utilizar los datos y las evaluaciones como medida exige ponderación y transparencia para que los procesos sean justos. Y no han de utilizarse como coartada para eximirse de la responsabilidad de las decisiones y menos aún como arma arrojadiza para confundir la necesaria rentabilidad social con otras utilidades interesadas.
No hay comentarios:
Publicar un comentario