DESARROLLO DE POLÍTICAS EDUCATIVAS BASADAS EN EVIDENCIAS Y USO DE LA INFORMACIÓN EMPÍRICA POR TOMADORES DE DECISIONES


Santiago Cueto

En los últimos años en muchos países industrializados se han iniciado programas que buscan establecer con claridad qué evidencias científicas pueden ser tomadas como base para la toma de decisiones de política educativa. Así, en los Estados Unidos se ha establecido un programa para establecer “lo que funciona” (What Works Clearinghouse, WWC){1}. Este programa recolecta información de estudios empíricos que hayan cumplido con criterios científicos rigurosos. En el portal mencionado antes se encuentran resúmenes del conocimiento de investigación educativa acumulado en diversos temas: matemática, lectura, educación en valores, deserción escolar, educación en la primera infancia, inglés como segunda lengua, conducta delictiva, educación de adultos y aprendizaje asistido por pares.

Un segundo ejemplo es el programa Evidencias para Políticas y Prácticas, EPPI{2}, que reúne estudios en educación y salud. En este portal se encuentran revisiones de los conocimientos de investigación sobre uso de la evaluación sumativa, educación ciudadana, desarrollo profesional en servicio, desarrollo infantil, enseñanza del inglés, estereotipos de género, educación inclusiva, educación matemática, motivación, educación en ciencias e influencia de los directores en el aprendizaje de sus estudiantes. A nivel internacional se encuentra la Colaboración Campbell{3}, que registra información de estudios sobre intervenciones exitosas en educación, criminología y desarrollo social en general.

Todas las anteriores establecen criterios para decidir qué estudios cumplen con requisitos científicos mínimos, descartando el resto. Esto es importante pues no toda la investigación empírica disponible tiene niveles aceptables de validez interna. Por ejemplo Urquiola y Calderón (2005) reportan datos nacionales de matrícula neta en que algunos porcentajes excedían el 100% (algo por definición imposible). Estos autores produjeron luego una metodología en base a encuestas nacionales de 23 países de modo que generaron datos comparables entre países. De hecho en esta misma línea en los últimos años se han generado varios informes internacionales para producir datos estadísticos educativos comparables entre países. Por ejemplo la UNESCO, en el marco del acuerdo internacional de Educación para Todos (EPT), cuyos objetivos están planteados para el 2015, ha generado tres informes con abundantes datos para países: “¿Va el mundo por buen camino?” (2002), “Hacia la igualdad entre los sexos” (2003/4) y “El imperativo de la calidad” (2005){4}.  En segundo lugar la UNESCO y la OCDE (Organización de Cooperación y Desarrollo Económico) vienen desarrollando el proyecto World Education Indicators (WEI){5}. Este proyecto busca generar indicadores educativos que sean relevantes para el desarrollo de políticas sectoriales en 19 países de ingresos medios. Entre ellos se ubican Argentina, Brasil, Chile, Paraguay, Perú y Uruguay. Un ejemplo final es el Sistema Regional de Información (SIRI){6}, a cargo de la oficina de UNESCO para América Latina y el Caribe. Este programa busca generar indicadores educativos y construir o reforzar capacidades locales en este sentido. En el marco de SIRI se han producido informes técnicos sobre cobertura escolar, eficiencia y flujo escolar.

Otra línea de trabajo en la que se ha avanzado mucho sin duda es la evaluación del rendimiento escolar. En la actualidad casi la totalidad de países de Ibero América cuenta, o ha contado, con sistemas nacionales de evaluación del rendimiento escolar. Hay también una serie de documentos que analizan y comparan estos sistemas; por ejemplo Ferrer (2005) reporta las características de los sistemas nacionales de evaluación del rendimiento escolar en Argentina, Bolivia, Brasil, Chile, Colombia, Costa Rica, Cuba, Ecuador, El Salvador, Guatemala, Honduras, Méjico, Nicaragua, Panamá, Paraguay, Perú, República Dominicana, Uruguay, Venezuela, además de algunos estados al interior de Brasil, Colombia y México. Ferrer y Arregui (2003) identifican algunos de los dilemas principales que estos sistemas nacionales enfrentan (por ejemplo si la evaluación debería ser muestral o censal o si el uso de la información debería acarrear altas o bajas implicancias, hay ejemplos de todos los casos anteriores en la región). Ravela (2002) ha presentado un detallado informe sobre la forma en que los sistemas nacionales presentan sus resultados.

A escala internacional, la UNESCO organizó en la segunda mitad de la década pasada la primera evaluación internacional de rendimiento escolar a través del Laboratorio Latinoamericano de Evaluación de la Calidad de la Educación (LLECE){7}. En este estudio participaron Argentina, Bolivia, Brasil, Chile, Colombia, Cuba, Honduras, México, Paraguay, Perú, República Dominicana y Venezuela{8}. De hecho LLECE se encuentra organizando la segunda evaluación regional internacional, que debería ocurrir el segundo semestre del 2006 en un número mayor de países que el incluido en la primera evaluación. Algunos países de Ibero América han participado en otras evaluaciones internacionales organizadas por la Asociación Internacional de Evaluación (IEA), como TIMSS{9} (ciencia y matemática) y PIRLS{10} (comprensión de lectura). La evaluación PISA{11}, organizada por la OCDE,  incluye mediciones en matemática, comprensión de lectura y ciencia. Es interesante notar que recientemente se ha formado el Grupo Iberoamericano PISA, integrado por Argentina, Brasil, Chile, Colombia, España, México, Portugal y Uruguay, de modo que tengan un mayor peso en las decisiones de esta evaluación y se puedan compartir luego experiencias de análisis y uso de la información{12}. Los tres programas de evaluación mencionados tienen diferencias y similitudes en cuanto a objetivos, formas de evaluación y análisis que resultan de las evaluaciones que no es el caso comentar aquí. Vale la pena mencionar sin embargo que en todos los casos se tienen previstas nuevas evaluaciones en los próximos años, a las que se puede sumar cualquier país que cumpla con requisitos específicos definidos en cada caso.

Otra fuente importante de información proviene de la investigación educativa, que se difunde a través de diversos medios. Entre estos vale la pena mencionar a las revistas científicas pues tienen un proceso de revisión por pares que permite altos niveles de confianza en los resultados ahí publicados. Entre estas revistas vale la pena mencionar la presente revista, que en poco tiempo ha logrado publicar artículos de gran calidad, la Revista Latinoamericana de Estudios Educativos publicada por el Centro de Estudios Educativos en México y la revista Cadernos de Pesquisa de la Fundación Carlos Chagas en Brasil. También está la revista Educational Policy Analysis Archives, que publica artículos de investigación en castellano, inglés y portugués y está disponible en Internet{13}. También vale la pena mencionar a REDUC, que publica resúmenes analíticos y textos completos de educación en Internet{14}. El proceso de selección de los textos sin embargo no es tan riguroso como el de las revistas científicas mencionadas antes.

Como se puede notar de la breve revisión anterior, la cantidad de información disponible hoy en día para los tomadores de decisiones es abundante, bastante más que lo que era hace unos años. La calidad de esta información, en términos de la validez de los resultados presentados y pertinencia para el desarrollo de políticas, también ha ido en aumento. Esta tendencia no parecería haberse estancado sino que el crecimiento parece continuo. En esta línea una de las dificultades principales identificadas en la investigación educativa es cómo generar un diálogo fluido entre los productores y usuarios de información (principalmente tomadores de decisiones de políticas educativas). Reimers y McGinn (2000) se han referido al anterior como un “diálogo informado”, notando sin embargo las dificultades para que este se produzca de manera efectiva. El estudio de Reimers incluye un análisis de caso para la reforma educativa en Paraguay y un modelo para facilitar el diálogo informado. Levin (1991) ha señalado la importancia de entender que los productores de información y tomadores de decisión pertenecen a dos “culturas” con intereses diferentes que deben ser considerados si es que se busca facilitar la comunicación entre ellos. Biddle y Anderson (1991) argumentan que gran parte del problema se debe a expectativas no justificadas, de acuerdo a las cuales se espera que los datos de la investigación sobre problemas específicos de política educativa estén disponibles el momento en que son requeridos. Este modelo “simple” es simplemente errado de acuerdo a los autores. De hecho la pretensión de los productores de investigación en general es que los tomadores de decisiones se informen no solo en base a un estudio sino a un cuerpo de conocimientos, articulados en teorías o modelos, que en conjunto sugieran posibilidades de políticas educativas. Esto es sin duda difícil de lograr dado que los tomadores de decisiones a menudo no tienen el tiempo ni experiencia de investigación para procesar cuerpos complejos de información. Por lo demás los tomadores de decisiones no se pueden basar solamente en la investigación para justificar su trabajo, sino que deben considerar otros factores como limitaciones en los recursos humanos y financieros, legales y las tradiciones locales e intereses de diferentes grupos de actores claves. En este contexto la investigación empírica debería ser uno de los insumos clave para el desarrollo de políticas que permitan justificar el desarrollo de iniciativas que hayan demostrado eficacia y eficiencia para promover el desarrollo de sistemas educativos con mayores niveles de pertinencia, calidad y equidad.

En América Latina se debe destacar la experiencia de REDUC sobre este tema. Cariola, Schiefelbein, Swope y Vargas (sf), en base a un análisis de las brechas de comunicación entre investigadores y tomadores de decisiones en educación, llegan a la conclusión que es necesario desarrollar un nuevo perfil profesional orientado a facilitar la comunicación entre estos. Estos profesionales serían los “analistas de políticas”, “intermediadores del conocimiento” o “brokers de información”. En los años 90 REDUC organizó cursos cortos para la formación de estos especialistas. Estos cursos cuentan con evaluaciones positivas de los profesores y participantes pero no estudios sobre su impacto en el uso de la información empírica. Recientemente fueron publicados estudios de casos en Argentina, Chile, Honduras, México y Uruguay que analizan el uso de la información por parte de diversos actores (Cueto, 2005). El uso de la información empírica por parte de tomadores de decisiones educativas merecería contar con mayor número de investigaciones en la región, pues el fomento de la investigación depende en gran medida de la relevancia con que tal actividad sea percibida por ellos.

 

Referencias bibliográficas

Biddle, B. y Saha, L. (2002). ”The untested accusation. Principals, research knowledge, and policy making in schools”. USA: Ablex Publishing.

Cariola, P., Schiefelbein, E., Swope, J., y Vargas, J. (sf). La Vinculación entre la Investigación y la Toma de Decisiones en Educación: Un Nuevo Enfoque. Santiago de Chile: REDUC. Serie Teoría y Práctica, #1.

Cueto, S. (2005) Uso e Impacto de la Información Educativa en América Latina. Santiago: PREAL (Editor).

Ferrer, G. (2005). Estado de situación de los sistemas nacionales de evaluación de logros de aprendizaje en América Latina. Santiago: PREAL.

Ferrer, G. y Arregui, P. (2003). Las pruebas internacionales de aprendizaje en América Latina y su impacto en la calidad de la educación: Criterios para guiar futuras aplicaciones. Documento de trabajo Nº 26. Santiago: PREAL.

Levin, H. (1991). Why isn’t educational research more useful? En Anderson, D. y Biddle, B. (Eds.). “Knowledge for policy: Improving education trough research” (pp. 70-78). Inglaterra: The Falmer Press.

Ravela, P. (2002). ¿Cómo presentan sus resultados los sistemas nacionales de evaluación educativa en América Latina? Documento de trabajo Nº 22. Santiago: PREAL.

Reimers, F. y McGinn, N. (2000). Diálogo informado: el uso de la investigación para conformar la política educativa. México D.F.: Centro de Estudios Educativos.

Urquiola, M y Calderón, V. (2005). Manzanas y Naranjas: Matrícula y Escolaridad en Países de América Latina y el Caribe. Washington D.C.: Banco Interamericano de Desarrollo. Diálogo Regional de Política.

{1} What Works Clearinghouse, disponible en http://www.whatworks.ed.gov/.
{2} Evidence for Policy and Practice Information, ver http://eppi.ioe.ac.uk/EPPIWeb/home.aspx.
{3} Ver http://www.campbellcollaboration.org/.
{4} Ver www.efareport.unesco.org
{5} Ver http://www.uis.unesco.org/ev.php?URL_ID=5263&URL_DO=DO_TOPIC&URL_SECTION=201.
{6} Ver http://siri.unesco.cl/.
{7} Ver http://llece.unesco.cl/ para objetivos y publicaciones.
{8} Si bien los datos de Perú no fueron publicados en el reporte original de LLECE sí fueron publicados luego por el Ministerio de Educación del Perú. Ver Boletín UMC 9 en www.minedu.gob.pe/mediciondelacalidad.
{9} Inicialmente conocida como Third International Mathematics and Science Study y luego como Trends in International Mathematics and Science Study. Para resultados y reportes de las evaluaciones de 1995, 1999 y 2003 ver http://nces.ed.gov/timss/.
{10} Progress in International Reading Literacy Study, ver http://nces.ed.gov/surveys/pirls/.
{11} Programme for International Student Assessment, ver http://www.pisa.oecd.org/.
{12} Perú participó en la primera ronda de PISA pero no tiene previsto volver a hacerlo.
{13} Ver http://epaa.asu.edu/epaa/.
{14} Ver http://www.reduc.cl/.