por Gabriela Diker
Indignación, alarma, pronósticos de catástrofe. La coreografía se repite año tras año y es tan intensa como efímera. Participan de ella políticos variopintos, periodistas devenidos en especialistas en educación y fundaciones empresariales preocupadas por la calidad educativa. ¿Qué pasó?: se publicaron los resultados de algún operativo de evaluación estandarizada de aprendizajes.
Pueden ser los resultados de las pruebas Aprender, que son las que se aplican a nivel nacional en primaria y secundaria; los de PISA, que es la prueba trianual que implementa la OCDE sobre la población de 15 años de más de 80 países para medir “competencias para tener éxito en la vida”; o las pruebas ERCE diseñadas por la UNESCO para evaluar aprendizajes en el nivel primario en América Latina cada seis años. En cualquier caso, la reacción pública es la misma. Por más sofisticados que sean los operativos de evaluación y con independencia de lo que expresan sus resultados, las evaluaciones estandarizadas no hacen más que corroborar una idea muy asentada en el sentido común: que la educación está cada vez peor.
Si acaso un operativo mostrara mejoras en algún indicador, rápidamente aparecen las sospechas de manipulación de los datos, como ocurrió recientemente con los resultados de Aprender 2024 aplicado en 3er grado de primaria, que arrojaron que Formosa era la provincia con mejores rendimientos del país. En ese caso, y a pesar de que el operativo había sido aplicado por el Estado Nacional sin intervención de las provincias, muchos medios de comunicación calificaron los resultados de Formosa de “sospechosos”, “muy sospechosos”, “anómalos”, “enigmáticos” y otros adjetivos por el estilo, a la vez que daban por buenos los resultados del resto de las provincias.
La otra reacción frecuente cuando las evaluaciones muestran alguna mejora es simplemente ignorarlas. Es el caso de la campaña que actualmente lleva adelante la ONG empresarial Argentinos por la Educación que insiste en sostener que “1 de cada 2 chicxs de tercer grado no entiende lo que lee”, basándose en un dato viejo, producido por UNESCO en 2019, a pesar de que se dispone de datos más precisos y recientes sobre el desarrollo de la comprensión lectora en 3er grado (Aprender 2024) que muestran que en esa situación se encontraría el 30% y no el 50%. ¿Sigue siendo serio el problema de la comprensión lectora? Sí, por supuesto.Pero tratándose de una organización que tiene como lema “medir para mejorar”, 20 puntos porcentuales de diferencia no debería ser un dato desdeñable. Sin embargo, deciden ignorarlo en favor del impacto comunicacional de la campaña. Después de todo, la catástrofe siempre rinde mejor.
Por supuesto, se podría señalar que la agitación pública que se genera en torno de los resultados de estos operativos de evaluación es un asunto menor frente a la relevancia de la evidencia que proveen para diseñar políticas de mejora. Sin embargo, estudios realizados en distintos países del mundo han mostrado que los resultados de las evaluaciones estandarizadas se utilizan muy poco a ese fin. A pesar de que los Estados destinan muchos recursos a la aplicación de evaluaciones nacionales e internacionales, el aprovechamiento de estos datos para el diseño de políticas es muy bajo.
Tampoco parecen ser datos útiles para reorientar el trabajo de cada escuela. Incluso cuando se procesen por escuela y se envíen los datos a cada institución, el valor de disponer de información comparada (con los promedios nacionales y provinciales o con el promedio de un cluster de escuelas similares), carece de relevancia, frente a la información cotidiana y mucho más detallada que cada docente produce sobre el aprendizaje de sus estudiantes.
Ahora bien, si las evaluaciones estandarizadas no agregan mucho a lo que el sentido común ya “sabe”, si se aprovechan poco para diseñar mejores políticas educativas, y sus resultados no son útiles para las escuelas, la pregunta es por qué el frenesí evaluativo parece no tener fin. En la Argentina, se multiplican y se superponen operativos de evaluación provinciales, nacionales e internacionales, se aumenta la frecuencia de aplicación y se anuncian nuevos, al mismo tiempo que empeoran las condiciones de trabajo en las escuelas, como si la evaluación constituyera en sí misma una política (la única) de mejora de la calidad educativa. En septiembre de 2024 se presentaron en el Congreso Nacional nueve proyectos de ley que, más allá de sus variaciones, coinciden en la necesidad de intensificar la aplicación de operativos nacionales de evaluación estandarizada de aprendizajes. Irónicamente (o no), comenzaron a tratarse en la Comisión de Educación de la Cámara de Diputados en septiembre del año pasado, la misma semana en la que el INDEC publicó los datos de pobreza infantil: 6 millones de chicxs en la edad de la educación obligatoria estaban bajo la línea de pobreza. Es decir, en un país que no podía garantizar al 70% de sus estudiantes condiciones mínimas de vida y menos, condiciones adecuadas para asistir a la escuela, estudiar y aprender, los y las representantes del pueblo consideraron que los problemas educativos de la Argentina se debían a la falta de evaluaciones de la calidad educativa.
Esta progresiva reducción de las políticas educativas a la evaluación no es, por supuesto, un fenómeno local. Por el contrario, la evaluación estandarizada constituye hoy uno de los puntos ineludibles de las agendas de política educativa nacionales e internacionales. Subsidiarias del modelo de la Nueva Gestión Pública y sus principios de estandarización, evaluación de desempeño, responsabilidad y rendición de cuentas, conforman el corazón de lo que se ha denominado la “cultura evaluativa global” que opera como el horizonte de referencia casi excluyente de las políticas educativas nacionales. De hecho, hoy son pocos los países que no cuentan con dispositivos evaluativos estandarizados, con independencia de la orientación política de sus gobiernos. Más aún, el costo político de no evaluar los sistemas educativos con estos instrumentos es cada vez más alto, lo que lleva a los gobiernos a implementar pruebas estandarizadas nacionales e internacionales, más allá de cualquier consideración sobre su utilidad y pertinencia. Esta hegemonía es retroalimentada por los propios organismos internacionales de crédito, que proveen a los Estados comparaciones y pruebas estandarizadas a altos costos y se sostiene gracias a la extensión de un “sentido común neoliberal” que tiene en su núcleo las premisas de medición, evaluación y competencia
Todo este modelo resulta hoy muy difícil de desarmar. Ningún político en su sano juicio sostendría públicamente que hay que evaluar menos y no más. La sobreactuación de transparencia y rendición de cuentas sobre los actos de gobierno es hoy una exigencia de la opinión pública que se resuelve “midiendo” aprendizajes, lo que no hace más que reforzar una triple reducción: 1) la reducción de la calidad del sistema educativo, al aprendizaje de los estudiantes desconociendo otras dimensiones como el acceso, la retención, el abandono, la segregación por sector socioeconómico, las condiciones de enseñanza, la desigual distribución de recursos materiales, entre otras; 2) la reducción del aprendizaje, al desempeño en pruebas estandarizadas, como si fuera indicador de todo lo que se aprende en la escuela; 3) la reducción de las políticas de mejora de la calidad, a la acción misma de medición del desempeño en dichas pruebas
Las evaluaciones estandarizadas no son más que una fuente de información. Aunque se utilicen “pruebas”, se llamen “evaluaciones” y se sistematicen sus resultados a través de escalas de calificación parecidas a las escolares, sus resultados no constituyen en sí mismos una evaluación. Producen una información que se convertirá en evaluación, sólo en la medida en que introduzcamos allí un juicio de valor (los niveles de desempeño son un indicador de aprendizajes, no un juicio de valor). El último operativo Aprender aplicado en 3er grado arrojó que 1 de cada 10 no sabe leer y escribir. ¿Cómo evaluar ese dato? En sí mismo no dice nada si no se emite un juicio de valor mirándolo en relación con otros indicadores. En este sentido, si se tiene en cuenta que la prueba se tomó en noviembre 2024 y que los datos de pobreza del INDEC para la población entre 6 y 11 años en el momento que se toma la prueba (segundo semestre 2024) arroja 52% bajo la línea de pobreza y 12,1% bajo la línea de indigencia, se podría decir que el resultado es muy bueno. Más aún, me atrevería a decir que, en esas condiciones, que 9 de cada 10 hayan aprendido a leer (aunque sea de manera básica) es un milagro de la escuela pública argentina. Sin embargo, el dato se publicó en letra catástrofe sin mayores consideraciones.
La confusión técnica entre un indicador y su evaluación se termina convirtiendo en política. La indignación ante el dato es la regla. Cuanto más crece el escándalo, más se retroalimenta la lógica evaluativa. Pero escandalizarse por los resultados de las evaluaciones de aprendizaje sin considerar las condiciones en las que se enseña y aprende en la Argentina, es, como mínimo, una banalidad. Tanto más si se tiene en cuenta que se aplican evaluaciones prácticamente todos los años, que se producen datos estadísticos anuales sobre el sistema educativo desde hace 30 años, que se dispone de indicadores y datos de calidad que, además, son de acceso público y que en su mayor parte no son utilizados como insumo para definir ninguna política educativa o, simplemente, se utilizan mal.
Como ya he dicho en otro lugar, datos sobran. Lo que falta, son políticas.