En los últimos años la difusión de los rankings internacionales de universidades ha provocado remezones en la comunidad académica y las autoridades universitarias de Argentina, además de trascender periodísticamente en forma masiva. En algunos casos cierta debilidad en la presencia en lugares destacados entre las universidades de la región ha dado lugar a explicaciones confusas, y en otros casos se asiste a esfuerzos importantes que incluyen la asignación de recursos humanos para trabajar en la mejora de las posiciones que ocupan las universidades. Pero en muy pocos casos ha habido esfuerzos para valorar la aptitud de este tipo de mediciones para medir la calidad de las instituciones universitarias.
En estas notas se pretende contribuir a explicar el origen y las dificultades metodológicas de los rankings internacionales, y las respuestas que a escala internacional están encarando las comunidades académicas donde se ha hecho conciencia de los impactos negativos de estas mediciones de excesiva precariedad. También se señalan la conexión de estas temáticas con políticas nacionales de evaluación universitaria en Argentina que vuelven a adquirir relevancia frente a esta problemática.
1. Introducción.
En los últimos años la difusión de los rankings internacionales de universidades ha provocado remezones en la comunidad académica y las autoridades universitarias de Argentina, además de trascender periodísticamente en forma masiva. En algunos casos cierta debilidad en la presencia en lugares destacados entre las universidades de la región ha dado lugar a explicaciones confusas, y en otros casos, particularmente en las universidades privadas, se asiste a esfuerzos importantes que incluyen la asignación de recursos humanos para trabajar en la mejora de las posiciones que ocupan las universidades. Pero en muy pocos casos ha habido esfuerzos para valorar la aptitud de este tipo de mediciones para medir la calidad de las instituciones universitarias.
En estas notas se pretende contribuir a explicar el origen y las dificultades metodológicas de los rankings internacionales, y las respuestas que a escala internacional están encarando las comunidades académicas donde se ha hecho conciencia de los impactos negativos de estas mediciones de excesiva precariedad. También se señalan la conexión de estas temáticas con políticas nacionales de evaluación e información universitaria que vuelven a adquirir relevancia frente a esta problemática.
Un ranking o tabla clasificatoria es una relación entre un conjunto de elementos tales que, para uno o varios criterios, el primero de ellos presenta un valor superior al segundo, este a su vez mayor que el tercero y así sucesivamente, permitiéndose que dos o más elementos diferentes puedan tener la misma posición. El orden se refleja asignando a cada elemento un ordinal, generalmente números enteros positivos o con decimales si se comparan cantidades significativas. De este modo se pueden reducir medidas detalladas a una secuencia de números ordinales, proporcionando una clasificación más simple y fácil de entender y que sustituye a información más compleja que puede incluir múltiples criterios.[1]
El origen de los rankings es deportivo. Permitió agrupar a los resultados de los equipos o de individuos de distintos deportes en orden descendente de manera de definir finalmente una tabla de acuerdo a puntajes obtenidos. El orden en la misma de alguna forma definía no sólo ganadores sino también parámetros de calidad, fácilmente medibles y también factibles de ser entendidos por los seguidores de estas actividades, facilitando el trabajo de los periodistas y de los medios de comunicación masivos.
La medición en deportes es sencilla. Los equipos o jugadores se enfrentan en cada partido con el objetivo de ganar en un tiempo determinado y sumar puntos en el período fijado para la competencia global organizada.
Por su propia naturaleza institucional compleja las universidades, que agrupan carreras disímiles que integran disciplinas con tradiciones diferenciadas en relación a los campos del conocimiento y de las aproximaciones epistemológicas a los mismos, parecen imposibles de ser sometidas a un tratamiento similar a escala planetaria. No todas las universidades tienen los mismos objetivos ni la misma historia institucional y nacional, por lo tanto no puede decirse que jueguen el mismo juego, ni compitan directamente entre sí para obtener puntajes, ni tampoco pueden acumularlos ya que no se sabe cuáles serían los criterios para ganar[2].
Sin embargo lo que parecía un despropósito, sobre todo en escala internacional, no fue obstáculo para que la temática avanzara y se concretara en un núcleo de ámbitos académicos y particularmente de revistas y periódicos que encontraron una fuerte repercusión en la opinión pública y en potenciales clientes de esta información. En los medios académicos latinoamericanos se asiste a una reacción frente a la creciente difusión periodística y las repercusiones institucionales. De todos modos sigue pesando frente a estas clasificaciones, y particularmente frente a los criterios de “modelo de universidad implícita”, un estado de adaptación o en todo caso de culpabilidad o impotencia frente a las dificultades de adaptarse a estos niveles de calidad que se suponen objetivos y universales.
Desentrañar esta temática en profundidad, supone remontarse a la evolución del sistema universitario internacional y al desarrollo de los procesos de evaluación de la calidad de las actividades universitarias y de su acreditación, dado que de estos se derivan la construcción de indicadores que luego han sido utilizados en las tablas clasificatorias que concitan nuestra atención. En estas notas pretendemos avanzar en el análisis de estos temas en relación a los sistemas de evaluación en Argentina.
2. El origen de la clasificación de las universidades en países, disciplinas y regiones.
Los antecedentes de los rankings se vinculan a procesos de la sociedad norteamericana, donde ya existían en la década de 1920 en el deporte y en la educación como parte de una cultura nacional habituada a la evaluación y a la competitividad. Esto está ligado al origen de las universidades norteamericanas, con un fuerte peso de las universidades privadas y de las estatales descentralizadas por estado, en ambos casos con fuertes controles de la sociedad civil de sus objetivos y de su calidad.
Las acreditaciones de las instituciones universitarias por las Asociaciones de Universidades desde fines del siglo XIX convirtieron en práctica habitual el acceso al conocimiento público de las normas de calidad aplicadas para evaluar y reconocer a los miembros del sistema universitario. In the United States, academic rankings first appeared in the 1870s. En los Estados Unidos, las clasificaciones académicas aparecieron por primera vez en la década de 1870. Entre ese año y 1890 la Oficina de Educación publicó un reporte anual con datos estadísticos y clasificando a las instituciones. En 1910 la Asociación Americana de Universidades instó a la Oficina a reinstalar las clasificaciones. In En 1911 the Bureau of Education published a rating of 344 institutions. 1911, la Oficina de Educación publicó una clasificación de 344 instituciones. Entre 1910 y 1933 el psicólogo James Catelli, profesor de la Universidad de Pennsylvania publicó “American Men of Science” rankeando anualmente a las instituciones en base al número de científicos eminentes asociados a las instituciones como miembros o como estudiantes y el porcentaje sobre el total de profesores. The En 1925 Raymond Hughes, presidente de la Universidad de Miami y luego director del American Council on Education publicó “A Study of the Graduate Schools of America” que rankeaba a 26 disciplinas de 36 instituciones de acuerdo a su reputación. En 1957 Chesley Manly, del periódico Chicago Tribune, publicó seis diferentes rankings: las mejores universidades, los mejores colegios mixtos, los mejores colegios de hombres, los mejores colegios de mujeres, las mejores escuelas de leyes y las mejores de ingeniería. En 1959 Hayward Keniston de la Universidad de Pennsylvania publicó un ranking en base a las reputaciones de 15 universidades en una amplia gama de disciplinas. En 1966 Allan Carter del American Council of Education publicó “An Assesment of Quality in Graduate Education” rankeando 106 instituciones. Peter M. Blau y Rebecca Z. Margulies rankearon entre 1973 y 1975 a las escuelas profesionales en base a las opiniones de los decanos de las mismas publicando en 1974 “The Reputations of American Professional Schools”. (Véase, entre otros, a Salmi y Saroyan, 2007)
Si bien los sistemas de clasificación jerárquica de universidades o departamentos existen en los Estados Unidos desde hace más de un siglo, los rankings comenzaron a adquirir mayor visibilidad e importancia a partir su aplicación sobre la enseñanza de grado como en 1982 la Fiske Guide to Colleges, por ejemplo. Pero alcanzaron repercusión masiva por la publicación por Roberto (Bob) Morse[3] del US News and World Report (America´s Best Colleges) en 1981.
Desde su primera aparición en 1983, las revistas the US News and World Report rankings of colleges and graduate schools have USNews y el World Report de los colegios y escuelas de postgrado hanreceived a lot of public attention. recibido mucha atención del público norteamericano. The USNWR annually publishes ‘America’s El USNWR publica anualmente lasbest graduate schools’ based on six major indicators and ten sub-variables that mejores escuelas de postgrado de Estados Unidos en base a seis indicadores principales y diez sub-variables que include academic reputation, student selectivity, faculty resources, financial incluyen la reputación académica, la selección de los estudiantes, los recursos docentes y financierosresources, retention rate, and alumni satisfaction., la tasa de retención y la satisfacción de alumnos.[4] Rankings have been States.
Para ciertas disciplinas como las vinculadas a administración y negocios, las revistas especializadas comenzaron a rankear a las instituciones en base a encuestas de opinión entre académicos, usuarios y receptores de los egresados, es decir a empresas.
Estas formas de reconocimiento se desarrollaban en forma paralela a métodos propios del sistema académico, como la consolidación de revistas con referato por disciplina, y a distinciones internacionales de gran exposición pública que premian a la calidad científica, entre las que se destacan por su tradición los premios Nobel.
Pero esta problemática adquirió una fuerte relevancia a partir de cambios en el control de los recursos estatales destinados a la educación superior. Y ello está asociado en gran parte a los procesos que se desarrollaron en Europa donde el peso histórico del modelo de financiamiento estatal comenzó a ser cuestionado y a exigirse crecientes contrapartidas de calidad institucional de las universidades beneficiadas. En primer lugar en Inglaterra. Allí, en la década de 1960 después del Informe Robbins se incrementó el rol del estado para reformar y modernizar las universidades y lograr que jugaran un rol más decisivo en la innovación científica y tecnológica. Este proceso, inicialmente asociado a la creación de nuevas universidades y un gran incremento de la matrícula de estudiantes después de la segunda guerra mundial, se modificó fuertemente desde 1979. La asunción de Margaret Thatcher impulsó desde la publicación del informe Jarrat en 1985, una fuerte reorientación de los procesos universitarios. Se disminuyeron los presupuestos estatales y se fortalecieron tendencias privatizadoras. Se concentró en la industria la capacidad para producir innovación tecnológica y se planteó a la universidad la necesidad de posicionarse con prestigio y calidad para afrontar estos nuevos desafíos generados desde la demanda productiva. El informe Dearing de 1997 reforzó estas tendencias privatizadores reorientando la investigación de las universidades hacia las nuevas tecnologías de la información y la comunicación para que las mismas pudieran obtener financiamiento.
La extensión de estos procesos impulsó a las universidades a convertirse en receptoras de recursos provistos por la inversión privada o por los estados que promovían desarrollos científico-técnicos asociados a cambios en la productividad del sistema económico
En este contexto pasan a ser funcionales los rankings universitarios por países y regionales, generales y especializados. El Sunday Times publicó por primera vez su rango de las universidades del Reino Unido en in 2001.el año 2001 (UK THES) incluyendo las siguientes dimensiones: selección de los estudiantes, cociente entre académicos y estudiantes, alojamiento, tasas de egreso, número de estudiantes con altas notas, gasto en biblioteca, valor de las matrículas, número de estudiantes de posgrado y niveles y calidad del empleo de los graduados. En abril de 1998 el semanario Der Spiegel de Alemania publicó un ranking europeo de universidades en varias disciplinas. El diario La Repubblica se sumó a estas iniciativas y otras instituciones académicas y medios de difusión lo hicieron.
Estos procesos se expandieron en otros continentes. En Australia la Good Universities Guide (Guía de buenas universidades) utiliza dieciséis indicadores de calidad. En Canadá desde 1991 la revista Maclean’s utiliza 22 indicadores en base a encuestas a las universidades. Desde 1989 se publica en Estados Unidos el Informe Gourman sobre carreras de grado y desde 1997 el Informe Gourman de Programas de Posgrado. La revista Asiaweek publicó el reporte sobre las mejores universidades de Asia entre 1997 y 2000. A lo anterior es necesario añadir que revistas especializadas privilegian a las carreras ligadas a la Administración de Negocios, lo que ha dado lugar a que el Master en Business Administration (MBA) sea a nivel internacional probablemente el programa objeto del mayor número de rankings mundiales y regionales. Creado pioneramente en el año 1900 por Amos Tuck School of Busines Administration de Estados Unidos esta modalidad se ha expandido a gran parte de los países.
3. La internacionalización de los rankings. Las tramas institucionales.
Los rankings a escala planetaria son una manifestación de cambios en los contextos en los que se desempeñan las instituciones de educación superior. Se vinculan con tres transformaciones recientes:
a) la creciente internacionalización de la educación superior.
b) los procesos de mercantilización de la educación universitaria ligados a la constitución de mercados de alcance global o regional de estudiantes y de académicos. (Véase Barsky, O. et. al, 2004)
c) los cambios en las modalidades de gestión de las instituciones universitarias que destacan las vinculaciones con distinto tipo de actores interesados lo que conlleva la necesidad de la provisión por parte de las mismas de información adecuada y accesible sobre su desempeño.
3.1. Rankings formales de universidades e impacto mediático.
El primer ranking mundial de universidades reconocido por la comunidad internacional es el publicado por la universidad Jiao Tong de Shanghái desde el año 2003, el Academic Ranking of World Universities (ARWU). La universidad depende directamente del Ministerio de Educación y de la municipalidad de la ciudad de Shanghái y sus orígenes se remontan a 1896 con la fundación de la escuela pública Nan Yang. Es una institución reconocida por su destacado papel en las ciencias y en las ingenierías y entre sus numerosos institutos de investigación el Instituto de Educación Superior es el que ha construido la metodología y elabora anualmente este ranking de universidades
Este ranking de universidades de todo el mundo está basado en indicadores cuantitativos de producción científica. La creación de este ranking estuvo estrechamente asociada a la decisión del sistema científico y universitario chino fuertemente centralizado bajo la órbita estatal de tener un modelo a replicar para el avance de la formación de científicos en China. El modelo escogido fue el de las universidades donde buena parte de las nuevas camadas de científicos chinos se han formado, es decir preferentemente las llamadas “universidades de investigación” de gran relevancia en Estados Unidos, unas 125 entre las 4.000 universidades y colleges que integren el sistema de educación superior de este país, pero de alto impacto en el proceso internacional de desarrollo científico. La lógica central de este ranking es de política estatal de una nación que privilegia fuertemente el desarrollo de la ciencia y que toma como modelo ideal al vigente en los países capitalistas más avanzados.
Desgraciadamente la denominación genérica de este ranking introdujo de entrada una gran confusión sobre estas clasificaciones. La lista de clasificación de Shanghai utiliza casi exclusivamente indicadores ligados a la máxima producción científica mundial (Premios Nobel y Premios Field (Matemáticas) obtenidos por profesores y alumnos, artículos publicados en Nature and Science, papers y citas correspondientes a los indexados en Science Citation Index and Social Science Citation Index, totalizan el 90% de la evaluación. Se trata entonces de un ordenamiento de este perfil de universidades en que se rankean unas 500, que representan el 2% del total mundial.
Así se registran 149 universidades norteamericanas con Harvard como el máximo referente, con 17 sobre las 19 primeras, completadas por las británicas Oxford y Cambridge. De Latinoamérica solo aparecen cuatro universidades brasileñas, una argentina, una mexicana y una chilena todas a partir de la escala 100-150. Si bien aparecen 29 universidades chinas, ninguna lo hace antes del puesto 151-200, lo que revela con toda crudeza la importante diferencia entre el nivel de la calidad de estas universidades y el modelo ideal escogido, además de la honestidad intelectual con que fue elaborada la clasificación sujetándose rígidamente a los indicadores escogidos.
Claramente entonces, con los indicadores seleccionados, esta clasificación es estrictamente parcial y sólo mide la función de investigación en las universidades de acuerdo a los parámetros dominantes en ciertas comunidades académicas.
En los países desarrollados de economía de mercado los procesos de mercantilización de la educación universitaria ligados a la constitución de mercados de alcance global o regional de estudiantes y de académicos incluyen también al enorme negocio de la evaluación universitaria. No podía escapar a ello el tema de los rankings universitarios. En el siguiente caso que presentamos este entramado no sólo aparece con claridad sino también el tamaño de los grandes jugadores de este mercado y las disputas abiertas de intereses mercantiles sobre esta temática.
Con variantes metodológicas en el año 2004 el periódico The Times de Londres difunde el segundo ranking de impacto internacional. El ranking Times Higher Education (THE) fue originalmente publicado por el suplemento de educación superior del periódico. A partir de 2007 estos rankings fueron compilados por la consultora de temas educacionales Quacquarelli-Symonds (QS), dirigida por Nunzio Quacquarelli. Esta clasificación jerarquiza a universidades de todo el mundo a partir de una combinación de indicadores de producción científica y calidad de la enseñanza, presencia internacional de docentes y estudiantes y, en gran medida, opinión de empleadores y académicos seleccionados con relativa arbitrariedad por la consultora.
En el año 2009 Times Higher Education cortó sus vínculos con QS y firmó un acuerdo con Thomson Reuters. Esta es una enorme empresa de información generada por la compra que hizo The Thomson Corporation del Reuters Group Limited, más conocido como Reuters, una tradicional agencia de noticias con sede en el Reino Unido conocida por suministrar información a los medios de comunicación y a los mercados financieros. El 15 de mayo de 2007, The Thomson Corporation llegó a un acuerdo con Reuters para combinar las dos empresas. El 17 de abril de 2008, la nueva compañía fue creada bajo el nombre de Thomson Reuters, asentada legalmente en Canadá.
Thomson Reuters es ahora una de las grandes compañías que suministra información para empresas y profesionales sobre diversos temas y mercados. Su plataforma proporciona a los académicos y administradores universitarios acceso a bases de datos del mundo de 12.000 de las revistas de mayor impacto académico y más de 110.000 resúmenes de congresos. Cubre las ciencias exactas y naturales, las ciencias sociales, artes y humanidades y una cobertura retrospectiva que se remonta al año 1900. Tiene su sede en Nueva York, con sucursales en Londres y Eagan, Minnesota y opera en más de 100 países y emplea unas 50.000 personas.[5]
Principio del formulario
A pesar de la larga experiencia y tradición norteamericana en evaluación (o quizás justamente por ello), las revistas de este país se limitaron inicialmente a la evaluación de carreras de grado y posgrados locales o disciplinas específicas pero también locales. Actualmente la pionera del sistema, USNews, ha incorporado el ranking mundial de QS asociándose con la consultora inglesa, pero sin generar su propia metodología o tabla.
Luego de la ruptura con The Times, la consultora Quacquarelli Symonds (QS) continuó publicando su ranking mundial sobre universidades (QS World University) avanzando sobre mediciones por disciplinas y por regiones, con una metodología más abarcativa. Esta estrategia le permitió incorporar a un número mayor de universidades medibles, clientes potenciales para los avisos comerciales que ayudan a sumar ingresos a la consultora además de las alianzas mencionadas. Este ranking se difunde directamente como de QS o, como dijimos, a través de USNews & World Report de los Estados Unidos. Hay que señalar que la ruptura mencionada con el Times no fue por cierto amigable y ambos grupos se critican duramente en sus documentos y compiten fuertemente por sus posiciones en el mercado de evaluación.
La clasificación del ranking ARWU -que como se mencionara más arriba fue creada por la Universidad Jiao Tong de Shangai en el año 2003- tuvo un fuerte impacto a escala internacional. En una comunidad académica de gran tradición como la rusa y de otras naciones que integraban la Unión Soviética, los criterios utilizados dejaban en niveles muy bajos a sus comunidades universitarias. En el año 2003 la primera universidad que aparecía ranqueada, la Universidad de Moscú, figuraba en la posición 102-151. Ello provocó un gran malestar en las universidades rusas[6].
La respuesta fue la creación del Global Universities Ranking-Reitor (Peümop) elaborado por la agencia Reitor y la Universidad estatal Lomonosov de Moscú y los primeros resultados fueron publicados en el año 2009. Su nacimiento partió del diagnóstico de que los rankings internacionales difundidos no reflejaban adecuadamente las realidades de las universidades rusas. Su ranking se diferencia bastante en los indicadores de calidad utilizados hasta ese momento. Además de las universidades recogidas por los otros rankings analizados más arriba se agregan aquí las casas de altos estudios de mejor nivel de la Federación Rusa e instituciones de los países que formaron la Unión Soviética. Se reformulan y amplían considerablemente los indicadores.
Además de otros tradicionales utiliza indicadores como:
Número de programas de estudio por nivel (licenciatura, especialista, etc).
Número de estudiantes ganadores de concursos académicos internacionales.
Número de publicaciones de funcionarios que no sean artículos de revistas o monografías científicas, es decir, libros de texto, manuales y otros
Número de certificados sobre descubrimientos y las patentes de invención obtenidas por la universidad y por los funcionarios de investigación y académicos.
Valor total de los servicios de formación y de laboratorio de las universidades.
Número de investigadores que han sido investidos Doctor Honoris Causa por universidades extranjeras.
Número de profesores que son miembros de las Academias nacionales e internacionales de ciencias.
Características socialmente significativas de las actividades de los graduados en el campo de la cultura, los negocios, la política, o como funcionarios o directivos de organizaciones gubernamentales internacionales. (Fuente: Ministerio de Educación y Ciencia de la Federación Rusa)
3.2. Rankings sobre la productividad en la función de investigación (sean o no universidades).
Después de realizar importantes críticas a las metodologías de los rankings existentes, señalando la necesidad de restringir estas mediciones a actividades específicas como la enseñanza o la investigación y a espacios territoriales e institucionales homogéneos, el Centro para la Ciencia y Estudios Tecnológicos de la Universidad de Leiden, Suiza, elaboró el Leiden Ranking una lista de clasificación que se basa exclusivamente en indicadores bibliométricos. A principios de 2007 clasificó a las 100 universidades europeas con mayor número de publicaciones científicas
The Taiwan Higher Education Accreditation and Evaluacion Council Ranking rankea las performances de los papers científicos publicados por 500 universidades a nivel mundial usando la información proporcionada por SCI (Science Citation Index) y SSCI (Social Sciences Citations Index) de Thomson Reuters midiendo la productividad de las investigaciones, el impacto de las mismas y su excelencia. Se publica desde el año 2007.
El Ranking Iberoamericano de SCImago Institutions Ranking (SIR) rankea a las instituciones universitarias iberoamericanas en base a los datos cuantitativos de publicación y citación de trabajos de investigación. Se vale para ello de la base de datos Scopus perteneciente a Elsevier, que agrupa a las revistas de mayor peso o prestigio en la producción científica. En el año 2012 presentaba información sobre 1.401 universidades de España, Portugal y América Latina. SCImago es un grupo de investigación dedicado a la Evaluación de la Ciencia mediante análisis, representación y evaluación de la información contenida en bases de datos. Los miembros del grupo SCImago pertenecen al Consejo Superior de Investigaciones Científicas (CSIC) y a las Universidades de Granada, Alcalá de Henares y Carlos III de Madrid, Extremadura, Oporto (Portugal), Universidad Nacional de la Plata (Argentina) y Pontifica Universidad Católica de Valparaiso (Chile).
3.3. Utilización de indicadores y clasificaciones sin el propósito de generar listados o rankings.
El impacto de la difusión de los rankings internacionales de universidades produjo una fuerte reacción de las comunidades académicas de distintas regiones del mundo. Ya hemos visto lo que sucedió en Rusia y en los países que componían la Unión Soviética con otra historia de tradiciones científicas e instituciones. Pero también en Europa y América Latina se objetaron fuertemente estas mediciones tal como se formularon e instrumentaron. En el año 2008 el Directorio General para la Investigación de la Comisión Europea creó un grupo de trabajo para la Evaluación de la Investigación Universitaria que en 2010 publicó un documento que mostraba la gran complejidad de clasificar a las actividades de investigación de las universidades dadas sus diversas tradiciones disciplinarias e instrumentos de validación de la calidad elaborando una matriz de indicadores multidimensional.
Paralelamente el German Centre for Higher Education Development (CHE) de Alemania comenzó en 1998 a publicar un conjunto de indicadores rankeados, pero sin trasladar este ordenamiento a las instituciones. La idea central es que los estudiantes puedan construir su propio perfil de universidad a la que se aspira. Universidades austríacas y suizas se sumaron a esta iniciativa dándole un perfil internacional. A partir del año 2007 se comenzó a publicar el CHE Excellence Ranking sobre ciencias naturales. Desde el 2009 ello se extendió a la ciencia política, economía y psicología. Metodológicamente no se trata de construir un ordenamiento global simple sino un análisis detallado que evita agregar datos parciales para producir un puntaje global. Ello se basa en la idea de que no existe una institución o modelo de institución universitaria que se pueda considerar “la mejor” ya que cada una puede ser más relevante en ciertos campos disciplinarios o en ciertos aspectos (docencia, investigación, transferencia de conocimiento). En lugar de decretar a un presunto ganador universal ofrece un ordenamiento multidimensional. Las ubicaciones de las instituciones en cada dimensión y en cada disciplina a su vez las ubica dentro de un grupo: alto, medio o bajo. Las diferencias son consistentes entre cada grupo pero no entre instituciones dentro de los mismos que sólo son ubicadas en orden alfabético.
El proyecto The U-Map creado por la Unión Europea es desarrollado por el Centre for Higher Education Policy Studies (CHEPS) de la Universidad de Twente de Holanda. Presenta un conjunto de indicadores en porcentajes y rangos de manera de hacer muy dificultoso construir tablas ordenadas de instituciones, ya que su propósito es sólo ofrecer información. Inicialmente fueron publicados datos sobre Noruega, Holanda y Bélgica.
Como una continuidad de los dos anteriores se crea el European Multidimensional University Ranking System (U-Multirank) que es un proyecto financiado por la Unión Europea ejecutado por the Centre for Higher Education Policy Studies at Twente University de Holanda y el Zentrum für Hochschulentwiclung (CHE) de Alemania. Está destinado a crear un ranking mundial de universidades que debería permitir superar los principales inconvenientes de los actuales rankings mundiales de universidades y se apoya en los avances del proyecto CHE. En materia de enfoque multidimensional cubre las distintas misiones de las universidades: enseñanza, investigación, innovación, internacionalización impacto en la sociedad y empleabilidad de los egresados.
En la misma dirección metodológica América Latina y el Caribe lograron unificar criterios y decidieron adoptar la propuesta del Mapa de Educación Superior en América Latina y el Caribe (MESALC) impulsada por el Instituto Internacional de la UNESCO para la Educación Superior en América Latina y el Caribe (UNESCO-IESALC). Esta herramienta profundiza los conocimientos sobre la Educación Superior (ES) desarrollando y promoviendo la cultura de información, como una alternativa regional que trascienda las esferas de comparación que proponen los rankings universitarios. La decisión fue tomada como parte de la celebración del IV Encuentro de Redes Universitarias y Consejos de Rectores de América Latina y el Caribe, del 6 de mayo de 2011. El MESALC es un sistema de información de libre acceso que contiene datos estadísticos de las diferentes instituciones de educación superior de América Latina y el Caribe, que surge de la necesidad de conocer cómo se comporta la educación superior en la región y cuáles son sus principales características, fortalezas y debilidades.
El MESALC se define como un sistema de información en línea, creado por UNESCO – IESALC, cuyo propósito es promover la articulación de los sistemas nacionales de información sobre ES en la región, contemplando la creación de estos espacios en aquellos países carentes de la infraestructura necesaria. MESALC busca profundizar el conocimiento de la ES y promover la cultura de información, para ello cuenta con un articulado de descriptores, variables e indicadores orientados al diagnóstico de la situación académica de cada nación; acompañado por un Glosario de la ES que permite identificar y definir los conceptos básicos utilizados en la implementación del proyecto. Las categorías y los datos estadísticos comprenden una base de información en escala, lo que permite al usuario ubicarse en tres perspectivas: regional, nacional e institucional. La creación y desarrollo del proyecto depende de cada país e institución de educación superior (IES) involucrado; por lo tanto parte del enriquecimiento nacional, adaptándose a las políticas públicas que promueven el desarrollo de la ES.
A diferencia de los rankings, el Mapa permite al usuario final tanto conocer las dimensiones de la ES en las distintas IES de ALC, como la comparación libre de variables e indicadores de su preferencia, haciendo del proceso selectivo un espacio transparente que otorga al interesado la libertad de realizar criterios de búsqueda en áreas y aspectos específicos de su interés.
Actualmente el Proyecto MESALC se encuentra en fase final de desarrollo e implementación de la plataforma tecnológica. Esta sugiere un alto nivel de apertura y flexibilidad ante la compleja diversidad de los sistemas de recolección de información de la ES presentes en la región.
En esta misma línea y con el fin de promover la internacionalización del Proyecto, MESALC en el año 2010 se asocia al proyecto INFOACES, financiado mayoritariamente por la Comisión Europea, dentro del programa ALFA III, que aglutina a un total de 32 socios de 22 países diferentes -17 de América Latina y 5 de Europa- todos ellos coordinados por la Universitat Politècnica de València, a través del Centro de Gestión de la Calidad y del Cambio. Este tiene como objetivo principal crear indicadores de segunda y tercera misión con el fin de establecer las tipologías de un grupo diverso de IES de América Latina y con miras a expandir el proyecto la totalidad de instituciones de la región. UNESCO – IESALC como miembro del Comité Ejecutivo de INFOACES ha propuesto el trabajo en sinergia con MESALC, con el fin de que ambos puedan completarse y nutrirse con la información levantada.
INFOACES contempla los mismos principios del MESALC pero con un objetivo diferente; mientras que el MESALC busca en primera instancia resaltar y conocer la realidad de cada IES y de cada Sistema Nacional de Educación Superior (SNES), INFOACES se orienta a estudiar la dinámica y la interacción de estas realidades. El sistema de indicadores se plantea en dos niveles. El primero estará constituido por un Sistema Básico de Indicadores (SB) referidos a la estructura (recursos y procesos), resultados (producto) y datos externos (contexto) de las Instituciones de Educación Superior. En base a estos indicadores se construye la definición de tipologías, válidas no sólo para las instituciones participantes sino para todas las instituciones de América Latina. En un segundo nivel, INFOACES incluye un Sistema Estratégico de Indicadores (SE) que recogerá aquellos que están orientados a la gestión, evaluación y benchmarking de las Instituciones.
Por cierto existe una importante discusión sobre las dificultades de la utilización de indicadores en la evaluación de la educación superior aunque su utilización esté muy extendida. Por eso a distintos autores les gusta citar a Nicholls (1992): “los indicadores son valores numéricos que se utilizan para medir algo difícil de medir”. Pérez Rasetti (2011:13-14) destaca estas dificultades cuando al criticar metodológicamente a los rankings señala: “Lo primero que hay que descartar es la ponderación entre indicadores, especialmente porque es la operación que simplifica y reduce la información y también porque depende de una construcción poco sustentada, arbitraria y prejuiciosa. Es decir, presupone un modelo de excelencia previamente adoptado; en el caso del Ranking de Shangai, es bastante evidente que se trata del modelo de universidad investigación norteamericana y deja afuera todo otro modelo institucional de educación superior, Por otra parte, algo nos enseñan los rankings sobre los criterios para la selección de los indicadores. Estos deben estar adaptados a la mostración del universo que se quiere abarcar y no nos serán de gran utilidad aquellos de ocurrencia excepcional, como sería el caso de los premios Nobel para nuestra región”
Una de las dificultades de la construcción del MESALC y del Proyecto INFOACES es precisamente la rigidez en la utilización de ciertos indicadores válidos para ciertas disciplinas pero mecánicamente extendidos por las comunidades científicas dominantes al conjunto del universo del conocimiento, reproduciendo así parte de los problemas que se busca evitar al abandonar la utilización de los rankings internacionales.
3.4. Rankings de páginas web.
En el año 2004 aparece el Webometrics Ranking of World Universities que es producido por el Cybermetrics Lab (CCHS), un grupo de investigación perteneciente al Laboratorio de Cibermetría del Consejo Superior de Investigaciones Científicas (CSIC) de España en alianza con diversas universidades de este país y de Portugal. Webometrics clasifica a más de 20.000 universidades de todo el mundo a partir de la presencia de sus páginas web, y 12.000 son incluidas en sus listados.
Se considera que la importancia que ha adquirido la internet es tal que se puede apreciar qué tan buena es una universidad analizando la presencia que tiene en la web la producción de sus académicos y la frecuencia con la que se consultan los productos respectivos y, en general, la página institucional. En consecuencia, la unidad de análisis en este caso es el dominio web institucional, por lo que sólo aquellas universidades y centros de investigación con un dominio web independiente son considerados. Se diseñaron cuatro indicadores a partir de los resultados cuantitativos obtenidos de los principales motores de búsqueda (Google, Yahoo, Live Search y Exalead).
El Factor de Impacto Web (WIF por sus siglas en inglés) combina el número de enlaces externos entrantes con el número de páginas web de un dominio, siguiendo una relación 1:1 entre visibilidad y tamaño. Esta relación se usa para hacer el ranking, añadiendo los otros dos indicadores: el número de archivos ricos que contiene un dominio web, y el número de publicaciones incluidas en la base de datos de Google Scholar. Por su relevancia en las actividades académicas y de publicación y su volumen de uso, se consideran archivos ricos el número de Adobe Acrobat, Adobe PostScript, Microsoft Word y Microsoft PowerPoint con terminaciones .pdf, .ps, .doc y .ppt.
3.5. Ranking de universidades por un aspecto específico.
En el año 2007 la École Nationale Supérieure des Mines de Paris organiza el Professional Ranking of World Universities. Se clasifican aquí a universidades de todo el mundo por la presencia de sus egresados como CEO’s de las empresas listadas en la revista Fortune 500. Lo interesante es que en este ranking, dentro de los primeros 5 lugares, e incluso dentro de los 28, Japón encabeza el listado, seguido de Estados Unidos, Francia, Gran Bretaña y aparecen con presencia Corea y Brasil, lo que mostraría una diferencia importante en relación a los ordenamientos basados en la calidad de las instituciones que miden otros rankings, aunque obviamente la propiedad nacional de las empresas está en muchos casos asociada a la de sus CEO’s.
4. Limitaciones metodológicas en la construcción de los rankings internacionales.
Desde su aparición los intentos de generar escalas clasificatorias de instituciones complejas en base a algunos indicadores simples han sido objetos de análisis comparativos refinados[7] y de duras críticas por diversos académicos. Expondremos lo que en nuestra opinión son los ejes más relevantes de cuestionamiento a los rankings universitarios internacionales.
4.1. La imposible evaluación de objetos institucionales diversos.
El sólo intento de rankear en orden descendente a miles de instituciones universitarias de diferentes países implica ocultar la principal característica de las instituciones universitarias, que son normalmente grandes, complejas y que articulan una extraordinaria diversidad de distintas tradiciones universitarias y disciplinarias. A su vez las universidades pueden tener algunas disciplinas con fuerte tradición en investigación y otras en transferencia, o en calidad de la docencia universitaria.
Un caso notable por su dimensión que permite ejemplificar esta cuestión es el de la Universidad de Buenos Aires. Desde su constitución es en realidad una Federación de Facultades de gran tamaño. La Facultad de Ciencias Económicas, por ejemplo, tiene 55.000 estudiantes, cifra que está por encima de la gran mayoría de las universidades del mundo. En esta Universidad hay Facultades como las de Ciencias Exactas y Naturales con un peso importante de profesores de dedicación completa, muchos de ellos investigadores de primer nivel del Consejo Nacional de Investigaciones Científicas y Tecnológicas y con un relativamente bajo número de estudiantes. Con el apoyo del Ministerio de Ciencia y Tecnología se desarrollan aquí muchos proyectos de investigación de alto nivel con alumnos becados como auxiliares de investigación. En la misma Universidad, la Facultad de Ciencias Sociales con una gran cantidad de estudiantes (25.000), un número reducido de docentes de dedicación completa y bajos recursos de investigación ofrece un contraste notable
Cuando los rankings internacionales miden con sus parámetros a la UBA, toman un promedio de situaciones extremadamente diversas. Arrastrada por algunas disciplinas la Universidad aparece entonces con altos niveles en materia de investigación entre las universidades latinoamericanas, pero su promedio general se cae fuertemente al incluirse dimensiones como la relación entre alumnos y docentes de dedicación completa, o el número de doctores sobre los profesores, aspecto que en la tradición argentina no ha sido valorizado hasta épocas recientes porque sólo corresponde a las disciplinas de aquellas de menor peso relativo (exactas, naturales, humanidades) frente al gran peso de las carreras profesionales que privilegian a los títulos de grado u a otros títulos de posgrados (Especializaciones en Medicina y Derecho, Maestrías en Administración y Ciencias Sociales). Esquemas organizativos similares se encuentran en la Universidad Nacional Autónoma de México (UNAM) la más grande de América Latina con sedes a lo largo del territorio mexicano y en Canadá y Estados Unidos.
Emprendimientos institucionales de esta magnitud son imposibles de evaluar en términos comparativos en su globalidad. Las universidades argentinas de gestión estatal con ingreso irrestricto y sin costo matricular, con centenares de miles de estudiantes y decenas de miles de docentes, no pueden compararse en términos agregados con algunas universidades privadas con examen de ingreso, alto costo de matrículas, escaso número de estudiantes, docentes de dedicación full time y máximo título académico, instalaciones académicas de alto nivel y concentradas en pocas carreras académicas preferentemente de posgrado.
4.2. El concepto de calidad subyacente o de modelo universitario implícito.
Los rankings internacionales más difundidos parten abiertamente de un “determinado tipo ideal” de universidad, y los indicadores que se utilizarán son finalmente desagregaciones de los rasgos del mismo. Más sistemáticamente a este modelo de universidad se lo denomina actualmente “universidades de rango mundial” (Salmi. J.2009). Si bien quienes las analizan sostienen que no necesariamente deben tratarse de universidades de investigación, es evidente que los rankings internacionales al seleccionar las instituciones privilegian abiertamente aquellas que muestran altos nivel en materia de investigación.
El ranking más influyente desde esta mirada, elaborado por la Universidad Jiao Tong de Shangai, se apoya en indicadores objetivos que tanto en materia de publicaciones, composición del personal docente y de los alumnos, refiere a los indicadores de más alta calidad internacional en materia de producción de ciencia. Los indicadores objetivos del THES y el de la consultora QS asignan un papel destacado a la investigación y sus formas de medir la calidad de la enseñanza son muy pobres (relación profesores de dedicación exclusiva con número de alumnos). El hecho de que se sumen indicadores subjetivos de opinión de académicos y empleadores introduce factores poco controlables ya que supondría un conocimiento del sistema universitario internacional por los encuestados que no existe, y por ende las opiniones están sesgadas por diverso tipo de imágenes (impactos publicitarios, difusiones en medios, etc) que en todo caso permiten apreciar distancias con los indicadores más duros, sobre todo a medida que se desciende en las escalas de las universidades rankeadas. De todos modos, las posiciones de elite están reservadas a las universidades de investigación de gran tamaño.
Los indicadores subjetivos recogen las opiniones de los académicos consultados sobre la calidad de las instituciones. Esta forma de recoger información ha sido ampliamente criticada por distintos especialistas, ya que es imposible que los informantes tengan nociones precisas de la calidad de las instituciones más allá de los saberes de su propia disciplina. E incluso en su propio campo no necesariamente están actualizados de nuevos desarrollos y además los criterios son afectados por razones de competencia, lo que suele estar muy presente en el mundo académico donde se disputan espacios de prestigio y de recursos.
En cuanto a las opiniones de los empleadores otros estudios señalan que en realidad las decisiones de contratación por las empresas están asociadas a las cualidades personales del candidato, tales como aptitud de trabajo en equipo, creatividad, capacidad de resolver problemas, habilidades de comunicación, y otras, cualidades que pueden ser evaluadas directamente por los empleadores, y donde la institución donde estudió el egresado e incluso el carácter de su título de posgrado es un factor que se tiene en cuenta pero que no define su ingreso. Ello explica en el caso de Argentina la mayor demanda de profesionales con especialidades y maestrías que de doctorados.
En relación a los indicadores que aparecen como “objetivos”: cantidad de profesores con título de doctorado, impacto de la producción científica en las revistas con referato en inglés, publicaciones por académico, repercusión de las actividades de la universidad en las mediciones realizadas en los sistemas informáticos (web), cantidad de alumnos por profesores, tienen varias dificultades. La primera son los porcentajes asignados arbitrariamente a cada rubro. La segunda tiene que ver con la diversidad de situaciones dentro de algunos indicadores que dependen de la disciplina y cuya divergencia no expresa necesariamente calidad diversa. Así en las carreras más profesionales la dedicación de los docentes es más baja, y ello tiene que ver con su mayor inserción en actividades profesionales que son una condición necesaria para elevar la calidad de los conocimientos transmitidos en estas áreas. Los indicadores en realidad están construidos sobre los criterios de calidad fijados desde su origen en las universidades norteamericanas de investigación.
4.3. La medición de la producción científica limitada por el idioma y un único medio de publicación.
Las mediciones de las publicaciones académicas se restringen a una de las formas de circulación del conocimiento científico, las revistas con referato. Notablemente ello afecta a una de las formas de producción científica que siguen siendo esenciales sobre todo en las ciencias sociales y humanidades, los libros. Para ciertas disciplinas claramente no es comparable la importancia de una publicación en revistas con un libro, que no es la mera suma de artículos sino una obra integral del conocimiento de otra valía. Lateralmente, también han perdido la importancia que merecen los artículos en libros, que suelen ser relevantes de acuerdo al académico que opera de compilador. Su pérdida relativa de importancia en relación a los artículos en las revistas no tiene que ver con razones de calidad, sino estrictamente pragmáticas: las posibilidades de estandarizar cuantitativamente niveles de comparabilidad.
Ya hemos señalado la alta conexión existente entre algunas consultoras o revistas internacionales productoras de rankings y el control que las mismas empresas ejercen sobre la sistematización de las publicaciones en revistas con referato y en las citas que se derivan de las mismas. Los rankings de Jiao Tong de Shangai y el THES utilizan la frecuencia con que aparecen mencionados los artículos científicos elaborados por los profesores de las universidades, en las bases de datos Thomson conocidas bajo las siglas SCI (Science Citation Index Expanded) y SSCI (Social Science Citation Index. Habíamos señalado que Thomson Reuters es ahora una de las grandes compañías que proporcionan información para empresas y profesionales sobre diversos temas y mercados. Su plataforma proporciona a los académicos y administradores universitarios acceso a bases de datos del mundo de 12.000 de las revistas de mayor impacto académico y más de 110.000 resúmenes de congresos.
La otra gran alianza a nivel privado en materia de rankings, se desarrolla entre la revista norteamericana pionera del sistema, USNews, y la consultora inglesa QS con la empresa Elsevier a través de la utilización de la base de datos bibliográfica y de resúmenes y citas de artículos de revistas científicas denominada Scopus. Esta base cubre unos 18.000 títulos de más de 5.000 editores internacionales, incluyendo la cobertura de 16.500 revistas con referato de las áreas de ciencias exactas y naturales, tecnología, medicina, ciencias sociales, artes y humanidades. Elsevier es una empresa refundada en 1880 pero tomó su nombre de una tradicional editorial holandesa creada en 1580.
Las revistas son organizadas jerárquicamente a escala internacional a través de dos mecanismos. Aquellas que son editadas y publicadas por sociedades científicas reconocidas internacionalmente, y aquellas cuyos procesos de edición, publicación y comercialización se realizan a través de grandes empresas trasnacionales.
La producción científica mundial está dominada por el conocimiento generado en los países de alto desarrollo económico lo que se expresa también en el dominio del procesamiento y la difusión de la información científica. La suma de publicaciones registradas en todos los campos de la ciencia que considera el Institute for Scientific Information (ISI), que generó el grupo de los siete (USA, Reino Unido, Japón, Alemania, Francia, Canadá e Italia) en el período 1981-2002, fue de 9.869.717. En cambio, los seis países iberoamericanos más productivos (España, Brasil, Argentina, México, Chile y Venezuela) registraron un total de 520.155 publicaciones en el mismo período, es decir 19 veces menos.
Si bien en los últimos años se ha expandido la cantidad de publicaciones latinoamericanas con reconocimiento internacional, los puntos de partida son extremadamente disímiles y las tendencias de reproducción del sistema difíciles de equilibrar. Ello se agrava porque siendo el inglés el idioma por excelencia en el mundo de la ciencia, los científicos angloparlantes ignoran el contenido de la literatura redactada en otros idiomas, lo que explica en gran parte, el menor acceso que tienen los trabajos publicados en otras lenguas a la comunidad científica internacional. Ello tiene a su vez otro efecto rebote. Las publicaciones nacionales orientadas a temas aplicados, cuyo público corresponde esencialmente a comunidades científicas o de utilización en estas áreas, son editadas en el idioma local y las temáticas son también esencialmente de interés específico.
De la mano de lo anterior está el otro gran desafío: enfrentar las mediciones actuales de la producción científica, centralizadas en torno al Instituto para la Información Científica (Institute for Scientific Information) (ISI) que fue fundado por Eugene Garfield en 1960. Posteriormente fue adquirido por Thomson en 1992 y a partir de 2008 a su vez comprado por Reuters. Thomson Reuters ISI, ofrece servicios de bibliografía. Está particularmente especializado en el análisis de citación. Mantiene una base de datos de citaciones que cubren miles de revistas, conocida como el Science Citation Index (SCI) que es posible consultar on line a través del servicio Web of Science (WOS). Esta base de datos permite a los investigadores identificar qué artículo ha sido citado más frecuentemente, y quien lo ha citado.
ISI también tiene una publicación anual, el Journal Citation Report que lista el “factor de impacto” de cada una de las revistas que controla. Dentro de la comunidad científica el factor de impacto juega un enorme y controvertido papel en determinar el reconocimiento atribuido a las publicaciones científicas. El factor de impacto se calcula generalmente con base en un periodo de 2 años. Por ejemplo, el factor de impacto en el año 2011 para una determinada publicación puede calcularse como sigue:
A = Número de veces en que los artículos publicados en el periodo 2009-2010 han sido citados por las publicaciones a las que se les da seguimiento a lo largo del año 2011
B = Número de artículos publicados en el periodo 2009-2010.
Factor de impacto 2011 = A/B
El factor de impacto mide la calidad de las revistas o su importancia. Esas revistas son de solvencia contrastada y de referencia en cada especialidad, y cada una tiene un factor de impacto (FI) calculado a partir del número de veces que los artículos publicados en ella son citados después en otros artículos. Como el número de citas que recibe un artículo indica el interés que suscita, el FI deviene un referente del prestigio de la revista donde se publican. Por lo demás, el FI de esas revistas (unas 8.000) es muy dispar, variando entre 0,01 y 49,79.
Este tipo de indicadores facilita las evaluaciones de los patrocinadores (privados o estatales) de grupos de investigación para dar cuenta de la productividad de las inversiones realizadas, por ello existe una demanda por medidas como esta. Tiene cobertura internacional amplia y es fácil de utilizar. También mide a las propias revistas y define financiamientos al respecto. Sin embargo el factor de impacto ha sido cuestionado desde diversos ángulos.
El número de las citas no mide realmente la calidad de la publicación, sino la cantidad de publicaciones.
El periodo de cálculo base para citas es muy corto. Los artículos clásicos son citados frecuentemente aún después de décadas.
La naturaleza de los resultados en distintas áreas de investigación produce distinta cantidad de publicaciones y a diferente ritmo, lo que tiene un efecto en el factor de impacto. Generalmente, por ejemplo, las publicaciones de la física tienen un período muy corto para ser citados, de una o dos años, mientras que las del campo de la medicina tienen un factor de impacto más bajo, incluso dentro del campo médico es mucho más alto el impacto de las publicaciones en cardiología que en el resto de las especialidades.
La arbitrariedad del período de dos años fijados por el ISI para calcular el factor de impacto, la limitada cantidad de revistas incluida en la base de datos del ISI, el contar “revisiones” citadas con mayor frecuencia que un artículo original, no tomar en cuenta el efecto que producen las “auto-citas” para el cálculo de este índice o presumir una relación directa entre citaciones y calidad de un artículo, son algunas de las razones que han motivado innumerables críticas al uso del factor de impacto como indicador de la producción científica sin poder impedir su utilización mecánica en la evaluación de los investigadores y en el apoyo a los proyectos.
4.4. Las dificultades en la medición de la calidad de la enseñanza en los rankings internacionales.
Una de las mayores dificultades con que tropiezan quienes elaboran los rankings internacionales es medir la calidad de la enseñanza y hacer estas mediciones comparables. Por ello suelen asignarse representaciones proporcionales menores a esta dimensión. En un artículo publicado en octubre de 2011 Phyl Bate, el principal responsable de la metodología del ranking del Times, señaló la pobreza de uno de los indicadores utilizados: la cantidad de profesores a tiempo completo por estudiante. Se supone que si hay una baja proporción de estudiantes por docente esto mejora la calidad de la enseñanza. La evidente debilidad del indicador le llevó al propio Bate a señalar: “After all, you cannot judge the quality of the food in a restaurant by the number of waiters employed to serve it” (después de todo no puedes juzgar la calidad de la comida de un restaurant por la cantidad de mozos empleados para servirla). Este indicador es directamente inaplicable como promedio de diferentes tradiciones disciplinarias que conllevan también diferentes relaciones docente-alumno, pero se usa.
Para las universidades argentinas, sobre todo las de gestión estatal, este indicador es globalmente negativo, dado que el sistema de ingreso irrestricto en las universidades estatales y el importante tamaño de algunas universidades privadas con ingresos irrestrictos o con limitaciones relativamente débiles, determinan un cociente muy alto comparado con buena parte de las otras universidades latinoamericanas, particularmente de Chile y Brasil.
Otro indicador que se utiliza es la cantidad de doctores por docentes totales. El sistema tradicional argentino de grado largo y gran peso de especialidades y maestrías, ha hecho que en las disciplinas de mayor tamaño la cantidad de doctores sea muy escasa y aunque existen incentivos continuos del estado en esta dirección a través de becas, los cambios en esta temática tomarán décadas y no siempre arrojan resultados linealmente positivos[8]. Ello también contrasta fuertemente con países como Brasil donde el doctorado después de grados cortos y maestrías académicas cortas está estructurado ascendentemente desde 1964. El peso de la comunidad académica brasileña en los rankings de QS está explícitamente planteado por los directivos de la consultora en diversos artículos y ello se aprecia en haber sumado este indicador que da un 10% de puntaje en las mediciones recientes para América Latina, rubro no contemplado en el ranking internacional de QS.
Finalmente existen análisis muy refinados sobre la inconsistencia en los porcentajes asignados, y particularmente en el gran peso de los factores subjetivos en los ranking del Times y de QS, donde la mitad de los puntajes se asignan a consultas necesariamente arbitrarias a las comunidades académicas y a los empleadores que sólo pueden dar respuestas acotadas a las disciplinas que conocen directamente y en ningún caso a las universidades en su conjunto, lo que requeriría sofisticados mecanismos de evaluación y tiempos que exceden ampliamente a una consulta puntual.
Las comunidades académicas que elaboraron el CHE y el MESALC basadas en una filosofía diferente a la de los rankings internacionales y promotoras de bases de información multivariables no valorativas se extendieron ampliamente en estas críticas. Las comunidades académicas que habían impulsado estos procesos a nivel nacional intentaron no quedar asociados a estos tropezones internacionales.
5. Repercusión de los rankings y respuestas a las críticas.
Desde su aparición los rankings han merecido profundas objeciones conceptuales y críticas estimuladas por las posiciones no siempre favorables para muchas comunidades académicas en relación a sus expectativas. No podemos detallar acá la innumerable cantidad de cuestionamientos. Pero es importante señalar que la fuerza indudable de la tentación de clasificar a las instituciones por razones de mercado y opinión pública, además de prestigio de las comunidades académicas en juego, no sólo no debilitó el proceso de construcción de estos indicadores sino que se fortalecieron en la opinión pública y en su repercusión en las comunidades académicas.
La respuesta a las críticas fue la creación de un verdadero movimiento académico vinculado favorablemente con la elaboración de los rankings traducido en la creación del IREG (Observatory on Academic Ranking and Excellence) que fue establecido en 2004 en el marco de la Reunión de Seguimiento de la Mesa Redonda sobre “Indicadores Estadísticos para Evaluación de la Calidad de Instituciones de Educación Superior: Metodologías de Ranking y Tablas de Posiciones”, convocada conjuntamente por el Centro Europeo de la UNESCO para la Educación Superior (CEPES) y el Instituto de Políticas de Educación Superior (IHEP)
El grupo de especialistas articulado en torno al IREG dio a conocer, durante la segunda reunión formal sobre rankings, celebrada en Berlín, Alemania (mayo de 2006), el documento titulado Principios de Berlín sobre los Rankings de Instituciones de Educación Superior. Con posterioridad a este ejercicio, el trabajo del IREG se ha enfocado a la organización del Observatorio Internacional sobre Rankings Académicos y Excelencia, a través del cual se difunde información sobre los principales rankings de carácter nacional e internacional, así como el programa de actividades del grupo de trabajo.
El documento de Berlín sostiene los siguientes principios como a) Ser una entre múltiples y diversas aproximaciones a la evaluación (assessment) de insumos, procesos y resultados de la educación superior. b) Reconocer la diversidad de instituciones y tomar en cuenta sus diferentes misiones y objetivos. c) Especificar el contexto lingüístico, cultural, económico e histórico de los sistemas educativos calificados mediante rankings. d) Dar preferencia a la medición de resultados.
La atenta lectura de estos criterios resalta la imposibilidad de la construcción de un ranking global unificado que incorpore todas las dimensiones señaladas. Justamente las críticas que reciben estas tablas clasificatorias son las aquí enumeradas. Cada una de las dimensiones planteadas ha sido rigurosamente cuestionada.
Así los rankings aparecen como medidas absolutas y no una de las diversas aproximaciones a la evaluación. Tiene criterios predefinidos y por ende no incorporan la diversidades de las instituciones y mucho menos sus distintas misiones y objetivos como sí hacen las evaluaciones institucionales. Mucho menos se amoldan a los distintos contextos nacionales de los sistemas educativos. Finalmente muchos de los indicadores son de disponibilidad de recursos y no de resultados y otros son opiniones subjetivas estáticas sobre las instituciones.
Notablemente estas y otras trabas extensamente numeradas en este documento son presentadas como estándares para la construcción de rankings y no como luces rojas sobre las enormes dificultades para hacerlo. Como señalan agudamente Stella y Woodhouse (2006), parece como si una alerta sobre los peligros de fumar fuera convertida en un documento que dijera: “no hay problemas con fumar siempre y cuando usted evite los peligros del cigarrillo”.
6. Los medios de comunicación y los rankings.
En el año 2010 el reconocido periodista argentino Andrés Oppenheimer publicó su libro “¡Basta de historias!. La obsesión latinoamericana con el pasado y las 12 claves del futuro”. El mismo, y diversos artículos del autor, han tenido una notable repercusión periodística, por lo que es un buen punto de partida para el debate sobre la calidad de la educación en Argentina y particularmente sobre los mecanismos de evaluación existentes a nivel internacional y nacional.
La tesis principal del libro es que los países latinoamericanos están demasiado inmersos en una revisión constante de la historia, que los distrae de lo que debería ser su principal prioridad: mejorar sus sistemas educativos. Se señala que los recursos naturales ya no son los que producen más crecimiento y que los países que más avanzan en el mundo son los que apostaron a la innovación y producen bienes y servicios de mayor valor agregado. Su visión de la situación del sistema educativo latinoamericano es profundamente crítica. Plantea que si bien se ha producido un gran avance en la expansión cuantitativa de la educación en todos los niveles, para nada ello ha sido similar en términos de la calidad de la educación.
Específicamente en relación al sistema universitario señala que la visión triunfalista existente en la región sobre los logros de las grandes universidades latinoamericanas y de los sistemas educativos en general, se desmorona en la medida en que se comparan con el resto del mundo. Utiliza para ello los rankings internacionales más conocidos. El realizado por el Suplemento de Educación Superior del diario Times de Londres, en el que figura una sola universidad latinoamericana entre las primeras 200 a nivel mundial, la Universidad Nacional Autónoma de México (UNAM) en el puesto 190. También el de la Universidad Jiao Tong de Shanghai de China que no ubica a ninguna de las latinoamericanas entre las 100 mejores, y sólo aparecen la de San Pablo entre el puesto 100 y 151 y las de Buenos Aires y de la UNAM de México entre el puesto 152 y 200.
Otro comentario crítico está asociado a que las grandes universidades latinoamericanas tienen gran cantidad de estudiantes de las carreras humanísticas u otras con poca salida laboral o divorciadas de la economía del conocimiento del siglo XXI. Demasiados estudiantes en derecho, psicología, sociología, filosofía e historia y pocos en ciencias e ingeniería. Cincuenta y siete por ciento de los estudiantes de la región cursan carreras de ciencias sociales contra el diez y seis por ciento que cursan carreras de ingeniería y tecnología. Estas cifras van en la dirección inversa de países como China o la India donde los estudiantes de ingeniería superan con gran amplitud a los de las carreras de ciencias sociales y humanísticas.
Percibe a estos procesos estrechamente asociados al hecho de que América Latina junto con África sean las regiones del mundo con menor inversión en investigación y desarrollo de nuevos productos y con menos patentes registradas en el mercado mundial. Todos los países latinoamericanos invierten menos en investigación y desarrollo que un solo país asiático, como Corea del Sur. Ello se explicaría porque la mayor parte de la investigación en Latinoamérica se hace en el ámbito académico estatal y está divorciada de las necesidades del mercado. Cita a la OCDE que señala que “no hay países que jamás hayan logrado un estatus tecnológico avanzado sin un porcentaje significativo de inversión privada en investigación y desarrollo” (OCDE, Rewiews of Tertiary Education, p.50). Compara porcentajes de dicha inversión entre Corea del Sur (74%), EE.UU. (64%), China (60%) con el 47% de Colombia, 41% de Brasil, 30% en México, 29% en Chile, 26% en Argentina y 10% en Venezuela.
Indica que en términos de inversión sobre el PBI China invierte el 1.4% contra 0.9% de Brasil, 0,6% de Argentina u 0.4% de México, a pesar de que en China hay todavía una gigantesca pobreza, pero que están saliendo de la misma en base a fortalecer procesos como los de educación e investigación aplicada.
Hábilmente el periodista relaciona problemas estructurales de los países latinoamericanos que explican la baja inversión privada en ciencia y tecnología y la deformación de la oferta académica en perjuicio de las carreras de ingeniería, con la ubicación desfavorable en rankings internacionales construidos con grandes debilidades metodológicas y sesgados hacia la función de investigación. Este tipo de enfoque justamente superpone esta función con el rango de calidad universitaria, empobreciendo notablemente el análisis de las instituciones universitarias.
En una nota reciente (La Nación, Buenos Aires, 9 de octubre de 2012) Oppenheimer insiste sobre el tema. Allí cita una conversación con Phil Baty, editor del ranking de Educación Superior del Times que confirma que estas mediciones identifican calidad de la universidad con calidad en investigación. Dice Baty: ‘Las universidades de primera línea cuestan dinero. Y en América Latina vemos una concentración de recursos en universidades que tienen un enorme número de estudiantes y requieren mucho gasto en infraestructura, lo que les hace difícil invertir en investigación’. Lo que el entrevistado y Oppenheimer no advierten es que una gran parte del sistema universitario mundial, incluido el de los países desarrollados, se dedica a la formación de profesionales y técnicos en forma masiva, no necesariamente asociados a procesos de investigación de punta, lo que está reservado a instituciones universitarias y no universitarias (incluidas crecientemente empresas privadas de gran tamaño) que dan cuenta de lo fundamental de la investigación, tanto básica como aplicada. Buena parte de estos procesos avanzados de investigación, no se reflejan en las formas tradicionales de registro del mundo académico.
Frank H.T. Rhodes, presidente de la Universidad de Cornell, señala que las denominadas “principales universidades de investigación” públicas y privadas del sistema norteamericano son 125 instituciones sobre 4.096 colleges y universidades de todo el sistema. Las universidades de investigación se distinguen por tener un número sustancial de estudiantes de doctorado y un compromiso significativo con la investigación organizada, y representan el 77% de los gastos de investigación y desarrollo del sistema universitario. Rhodes señala críticamente los esfuerzos de otras universidades no incluidas en este selecto grupo de desarrollar actividades de investigación y posgrado: “La suposición ocasional de que la investigación –de la calidad que sea- es algo superior a la enseñanza, lleva en muchos casos, a reducir la responsabilidad esencial de la enseñanza, en la cual la institución puede tener un récord largo y distinguido, y dedicarse a los estudios de posgrado e investigación, para lo que puede estar mal equipada” (2009, pp.48).
En la misma dirección, para América Latina José Joaquín Brunner (2012) señala: “Entre las casi 4 mil universidades iberoamericanas (3.999) sólo 62 (menos de un 2%) se aproximan a la noción de una research university por el volumen de su producción científica medida bibliométricamente; un segundo grupo, de tamaño similar (69 universidades), puede calificarse como compuesto por universidades con investigación; luego hay un tercer grupo, de 133 universidades (3.3% del total) que, con benevolencia, puede decirse que se halla integrado por ‘universidades emergentes’ a la investigación, cada una de las cuales publican, en promedio, durante un período de cinco años entre 50 y 200 artículos anuales. En consecuencia, el 93% de nuestras 4.000 universidades debe clasificarse como instituciones puramente docentes, incluyendo entre ellas a un grupo de algo más de 1.100 universidades (28%) que tienen una actividad artesanal de investigación, publicando en promedio entre 1 y hasta 49.8 artículos anualmente durante el último lustro. Ahora bien, el hecho que en la época de la educación superior masiva y en vías de universalizarse, la mayoría de estudiantes curse sus estudios superiores en institutos no-universitarios y en universidades puramente docentes –públicas o privadas- no puede sorprender. Pues son estas instituciones –menos selectivas y, por ende, de menor prestigio académico y social, y con un menor costo unitario por alumno–las únicas que están en condiciones de garantizar un acceso masivo, y eventualmente universal, para estudiantes provenientes de hogares con menor capital económico, social y cultural. A ellas debemos que se hayan abierto las puertas hasta ayer cerradas hacia la educación terciaria, permitiendo el ingreso de un contingente cada vez más grande de jóvenes y adultos al dominio del conocimiento profesional y técnico hasta ayer controlado por una minoría”
En el mismo artículo Oppenheimer confunde la iniciativa del MESALC con la construcción de un ranking latinoamericano, cuando justamente se trata de un sistema de información que está diseñado, al igual que el CHE en Europa, para informar específicamente sobre fortalezas de las universidades en disciplinas específicas pero nunca para cruzar dimensiones para rankear en forma agregada a estas instituciones.
Este diagnóstico, y las numerosas notas periodísticas que han aparecido desde la difusión del ranking latinoamericano de la consultora QS, hacen relevante profundizar en el análisis del tema de los rankings de las universidades en Argentina. Notablemente, la potencia comunicacional de los rankings, que permiten escalas simples de comparación, permiten su difusión a públicos masivos que por cierto no se interesarían demasiado en análisis más complejos de temas como la evolución de la calidad de la educación universitaria y la importancia de políticas refinadas y de larga duración al respecto.
Así planteada, la temática de la evaluación de la calidad, que fue el origen histórico de estos procesos, queda desfigurada y absorbida por estas generalizaciones. Por ello es relevante replantear la historia de estos procesos en el país.
7. Evolución de los procesos de evaluación de la calidad universitaria en Argentina y el desafío de los rankings.
7.1. La organización institucional.
Como sabemos, los orígenes de los modernos sistemas de evaluación universitaria están asociados a las características de la expansión del sistema universitario norteamericano. Las iniciativas privadas y de los estados federales, determinaron la creación de una importante cantidad de colegios y universidades en que convivían un pequeño sector de alta calidad y tradición con gran cantidad de nuevas instituciones en expansión. El modelo estadounidense tiene una tradición antigua en el manejo de un sistema educativo heterogéneo, que desde su origen se basó en la competencia, la alto peso de la educación privada y un importante grado de descentralización del sector estatal a través de los estados federales, por lo que requirió estructurarse tempranamente mediante organismos de coordinación, de acreditación y de control de calidad.
Desde fines del siglo XIX las asociaciones de universidades establecieron estándares mínimos de calidad y las asociaciones profesionales pasaron a controlar los procesos de acreditación para el ejercicio de las mismas. Las universidades existentes obtienen una licencia de los Estados Federales para otorgar grados académicos. Luego las asociaciones regionales de universidades organizan la evaluación de las universidades que es obligatoria cada diez años para mantener su acreditación. Los procesos son conducidos por el Council of Graduate Schools y por el American Council of Education. La acreditación institucional es por diez años y la acreditación de programas por cinco.
En Europa hay fuerte tradición estatal en el control procesos universitarios y son los estados nacionales los que organizan los procesos de evaluación generalmente a través de un organismo intermedio y especializado entre el Gobierno y las universidades, estableciendo estándares y procedimientos. El actual modelo europeo de convergencia hacia un área de educación superior europea, por la integración de los países y la creciente articulación con el mercado lleva a complejos sistemas de evaluación y de integración (reconocimiento de créditos, etc), que se suman a formas de control previas de cada estado.
En América Latina hay una gran superposición de las distintas tradiciones académicas internacionales. El peso del liberalismo de fines del siglo XIX impulsó con gran relevancia a las Universidades estatales, que establecieron el monopolio de la acreditación automática de la calidad en sus títulos y la habilitación profesional directa. En algunos países las Universidades Católicas –algunas desde la época colonial-primero, y otras universidades de gestión privada después, fueron complejizando el sistema institucional.
El gran crecimiento y masificación del sistema universitario, la expansión de un sistema de posgrados basado en tradiciones de distinto origen y con asignación de valor diferencial a los diversos títulos, debilitaron el “sello de fábrica” de los títulos universitarios. Las crisis presupuestarias de los estados latinoamericanos en las décadas de 1980 y 90 plantearon la necesidad del control de los presupuestos universitarios. Aparece con fuerza la acción del “Estado evaluador” con programas de evaluación de la calidad universitaria, un hecho inédito para las universidades latinoamericanas[9].
En la región estos procesos toman fuerza en Brasil con la acción de la CAPES (Coordinación y Perfeccionamiento del Personal de Nivel Superior) que impulsó procesos de evaluación de los sistemas de posgrado con consecuencias en la adjudicación de recursos estatales a dichas actividades. En México la adjudicación de recursos estatales se fue asociando a procesos de evaluación de académicos y de las instituciones.
En Argentina la evaluación institucional ha sido introducida en la agenda universitaria recién hacia 1990. La necesidad de la evaluación institucional había sido expresada por la comunidad universitaria a través de encuentros, talleres y actividades organizados con el fin de facilitar un debate democrático sobre una temática nueva y compleja como ésta. Pero fueron las políticas impulsadas por la Secretaría de Políticas Universitarias del Ministerio de Cultura y Educación a través de la Ley de Educación Superior 24.521 sancionada en 1995 las que dieron un impulso decisivo a estos procesos. La resistencia del sistema universitario estatal estaba asociada a una mirada autosuficiente y autocomplaciente y al control político de las autoridades de las universidades estatales de los procesos académicos. Se asociaba también a esta resistencia el temor del sistema privado por el control de la evaluación estatal en relación a sus actividades.
La Ley le dedica una sección completa a la evaluación institucional y a la acreditación y en su Artículo 44 plantea: “Las instituciones universitarias deberán asegurar el funcionamiento de instancias internas de sistemas de evaluación institucional que tendrán por objeto analizar los logros y dificultades en el cumplimiento de sus funciones, así como sugerir medidas para su mejoramiento. Las auto-evaluaciones se complementarán con evaluaciones externas, que se harán como mínimo cada seis años, en el marco de los objetivos definidos por cada institución”. La obligatoriedad fue justificada hasta que se consolidara una cultura de la evaluación, por la escasa propensión de las instituciones a la evaluación externa.
En base a la experiencia institucional francesa se crea la CONEAU (Comisión Nacional de Evaluación y Acreditación Universitaria), aunque se intenta asimilar también la experiencia norteamericana y se admite como complementarias bajo la supervisión de la CONEAU a las Agencias Privadas de Evaluación reconocidas por el Ministerio de Educación[10]. Los procesos bajo supervisión de la CONEAU son: a) la evaluación institucional externa de las universidades; b) la evaluación del proyecto institucional para la creación de nuevas universidades estatales; c) la evaluación para la autorización provisoria o el reconocimiento definitivo de las universidades privadas y d) la acreditación de las carreras de grado y de posgrado.
7.2. La evaluación de las instituciones universitarias.
Sobre la evaluación institucional el sistema que adoptó la Argentina fue inspirado en el modelo francés de evaluación. (aunque el francés no incluye acreditaciones). Se basa en una autoevaluación y en una evaluación externa. La diferencia es que en el caso francés el proceso de evaluación es estructurado, a partir de una serie de indicadores elaborados por un Comité Nacional de Evaluación (CNE) y de un cuestionario detallado. En el caso argentino si bien hay lineamientos generales para el desarrollo del proceso y algunos lineamientos generales, la autoevaluación no es estructurada y depende su elaboración de los equipos o comisiones que se organicen en las instituciones. No se cuenta con financiamiento que permita que el resultado de las recomendaciones reciba recursos adicionales externos.
En 1997 la CONEAU elaboró un documento denominado “Lineamientos para la evaluación institucional”. El mismo incluía una ejemplar carta de su Presidente, el destacado educador Emilio Mignone a la que llamó “Criterios básicos para la autoevaluación universitaria desde el punto de vista de la evaluación externa”.
Allí se señalaba que tanto la autoevaluación como la evaluación externa deben realizarse, según lo prescribe la cláusula citada, en el marco de los objetivos definidos por cada institución. Y agregaba que estos, por lo general, se encuentran explicitados en los fines y funciones establecidos en los estatutos de las universidades nacionales y en los proyectos fundacionales de las universidades privadas, además de los propósitos y metas contenidos en planes de desarrollo, memorias anuales, políticas y reglamentaciones aprobadas por sus órganos de gobierno.
Esta definición sitúa el contexto de la evaluación y resalta con nitidez lo inadecuado de las metodologías de los rankings que son una evaluación institucional abstracta con indicadores genéricos que justamente prescinden de las características específicas de las instituciones universitarias y de su accionar definido por sus objetivos institucionales.
Y explicitaba: “En cuanto a la autoevaluación resulta imprescindible señalar que su ejecución es de responsabilidad exclusiva de las instituciones universitarias en el marco de las normas reseñadas. Esto surge del carácter autónomo y autárquico de las universidades nacionales y provinciales, según lo establecen los artículos 75 inciso 19 de la Constitución Nacional y 48/61 y 69 de la ley 24.521; y la personería jurídica de las privadas, reconocida y reglamentada por los artículos 62 a 68 inclusive del mismo ordenamiento legal. El marco antedicho, exponente de una vigorosa tradición argentina, exige a la Comisión Nacional de Evaluación y Acreditación Universitaria un cuidadoso respeto hacia el proceso de autoevaluación encarado por los establecimientos. La CONEAU entiende que no es atribución suya la imposición de modelos ni metodologías en la materia”.
La riqueza del principio de autoevaluación de las universidades que planteaba la CONEAU y que se llevó adelante en los procesos de evaluación institucional de muchas universidades de gestión estatal y privada del país, debe ser rescatada para contrastarla con la pobreza informativa en que se basan las metodologías de los rankings, tanto en materia de los escasos indicadores utilizados como de las fuentes de información. Señalaba así el documento de CONEAU:
“La autoevaluación debe ser necesariamente participativa, con la intervención de todos los actores de la comunidad universitaria, utilizando las competencias que puedan resultar útiles provenientes de las distintas disciplinas y metodologías. Es aconsejable igualmente la consulta de sectores ajenos, pero vinculados con los objetivos y las tareas de la universidad.
La autoevaluación debe contener información cuantitativa y cualitativa suficiente como para permitir una interpretación y un juzgamiento objetivo de la realidad. Esto no implica una acumulación abusiva de estadísticas – que a veces ocultan los hechos y dificultan el análisis – pero si de elementos fácticos respecto a los alumnos ( número, categorías, ingreso, actuación, dedicación, evaluación, desgranamiento, período de graduación, etc.); a carreras, cursos, exámenes, promoción, correlatividades etc; al personal docente ( títulos académicos, ingreso, carrera, evaluación, curriculum vitae actualizados, dedicación, concursos, consagración a la investigación, dedicación, publicaciones etc. ); personal no docente ( número, clasificación, ingreso, capacitación, evaluación etc.); programas de extensión y bienestar estudiantil; edificios, infraestructura, bibliotecas, laboratorios, equipos, informática, presupuesto etc.
Toda evaluación, en cualquiera de sus fases, implica la utilización de medios cuantitativos y cualitativos, que son complementarios y de ninguna manera exclusivos ni aislados. Los aportes cualitativos ( entrevistas, encuestas, análisis de la historia, de los objetivos, los niveles de gobierno y gestión, la cultura y el clima organizacional, los programas de transferencia, los recursos y el contexto socio-económico y cultural que rodea a la institución, como así también el estudio de la producción educativa y de investigación, la reinterpretación de los datos numéricos, el examen de resultados del aprendizaje y de la investigación etc.) son en definitiva los instrumentos capaces de subrayar y ponderar los datos cuantitativos y, sin desvirtuarlos, permitir arribar a conclusiones válidas y útiles.
La autoevaluación de las instituciones universitarias tiene que terminar con recomendaciones y propuestas que satisfagan lo establecido por la ley de Educación Superior en su artículo 44: analizar los logros y dificultades en el cumplimiento de sus funciones, así como sugerir medidas para su mejoramiento. A ese respecto convendrá distinguir entre las propuestas de mejoramiento que pueden y deben llevarse a cabo con los actuales recursos y aquéllas que exigirán aportes adicionales.
Es también importante concebir la autoevaluación a partir de la concepción de la universidad como una unidad de análisis, teniendo en cuenta su perspectiva contextual e histórica y cubriendo la totalidad de las funciones que desempeña. En otros términos, debe concluir con un informe final que no debería escindir los diversos componentes, ya sea funcionales o disciplinares, sino que tienda a resaltar la unicidad de la institución.”
Como se aprecia, había una excelente guía para que las evaluaciones institucionales tuvieran alto impacto en la mejora de la calidad de las instituciones universitarias, ya que se aplicaban las mejores tradiciones internacionales de evaluación. En la medida, además, en que la evaluación externa realizada por pares evaluadores de alta calidad ayudara a profundizar en la detección de los problemas que obstaculizaban un mejor desarrollo institucional y a precisar objetivos de mejora que pudieran ser internalizados por los académicos y las autoridades universitarias.
7.3. El debilitamiento de las evaluaciones institucionales, los procesos de acreditación y los sesgos en la función de investigación.
Las condiciones políticas en que se impulsó la instalación de la CONEAU y de las funciones de evaluación y acreditación fueron extremadamente complejas. De hecho la Universidad de Buenos Aires, la mayor del país, se resistió durante años a participar en estos procesos y aún hoy algunas comunidades académicas ponen trabas a estas actividades. En ese contexto, las acreditaciones de posgrados primero y de grado (carreras del art. 43 de la Ley de Educación Superior) después, adquirieron creciente relevancia por las consecuencias punitivas previstas para el funcionamiento de estas carreras. Ello hizo que las universidades dieran prioridad a estas actividades en detrimento de las evaluaciones institucionales, dado la falta de consecuencias de una evaluación negativa.
Por otra parte, al no haber un uso del Estado de los resultados de las evaluaciones institucionales para el diseño y el desarrollo de políticas sectoriales, ni para la distribución presupuestaria, ni para gestionar el funcionamiento del sistema universitario, no se asentó socialmente la importancia de los dictámenes de evaluación de las universidades, que en otros países tienen alto impacto social y consecuencias en la gestión estatal. Este vacío de legitimidad externa de estos procesos ha dejado un espacio crecientemente aprovechado por la difusión mediática de los rankings internacionales.
Los procesos de acreditación han tenido gran impacto y determinado cambios significativos en las instituciones universitarias. Dadas las consecuencias institucionales que determinaban la posibilidad de funcionamiento de los posgrados o que ponían en riesgo las carreras de grado alcanzadas, las instituciones y las comunidades académicas prestaron particular atención a esta problemática. Dentro de los mismos adquirió gran relevancia el rol de la función de investigación en las universidades. Ello tuvo que ver con los sistemas preexistentes de evaluación de los investigadores dentro del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). El prestigio en esta área de la institución y de sus investigadores determinó que al conformarse los listados de los Comités de Pares en la CONEAU, una gran parte de los mismos fueron escogidos en todas las disciplinas entre personal científico del CONICET. Estos investigadores trasladaron a las Comisiones Asesoras de la CONEAU su visión sobre la calidad en materia de investigación.
El primer problema asociado a lo anterior, es que la práctica de evaluación en el CONICET era sobre los becarios e investigadores de carrera, mientras que en el caso de la CONEAU no se trataba de juzgar la actividad de determinadas personas sino procesos integrales que permitieran obtener calidad en materia de formación educativa, tanto en carreras de grado como de posgrado. En ese sentido la función de investigación debía aparecer subordinada a este objetivo superior. Esta confusión fue generada desde la propia CONEAU donde los formularios de acreditación demandan acciones de investigación en el sentido tradicional, al tiempo que se pedían acciones en este terreno a los posgrados como si se tratara de entidades autónomas y no de espacios educativos formativos que pueden a través de la docencia integrar conocimientos de investigación generados en distintas entidades, en muchos casos diferentes de aquella donde se desarrolla la actividad. Esto se agravó en el caso de los posgrados profesionales.
El segundo problema, es que en la transmisión de los criterios del CONICET para la evaluación de la investigación, se encuentra, por su historia institucional, una fuerte dominancia de las tradiciones que se han ido construyendo en el área de las ciencias básicas, tradiciones que corresponden a un sistema internacional homogéneo en este aspecto y definido por el desarrollo disciplinar llevado adelante en los países desarrollados. La física, la química, las matemáticas, la biología desarrollan procesos de conocimiento en materia de investigación de carácter universal y así son evaluadas.
Diferente es el caso de las disciplinas asociadas al estudio de las realidades locales desde el lado de las ciencias sociales y las humanidades, como aquellas vinculadas con áreas aplicadas como las ingenierías, la arquitectura y otras. Sin embargo, la dominancia de los criterios de las ciencias básicas, con el modelo dominante de papers publicados en revista de referato internacional subordinó a los otros procesos. ¿A qué se debió ello en la Argentina?:
En primer lugar a las características del desarrollo científico local. Argentina, al igual que la mayor parte de los países de menor desarrollo, destina el peso esencial de sus recursos (particularmente estatales) al financiamiento de las ciencias básicas. Ello es exactamente al revés de los países de mayor desarrollo económico y científico donde el peso esencial de la inversión se realiza en el desarrollo experimental y en las tecnologías aplicadas. Esto tiene que ver a su vez con el gran peso en los países desarrollados de la inversión de las empresas privadas, la que es particularmente débil en Argentina.
Esta situación de fondo, más el peso de la formación del CONICET a fines de la década de 1950, determinó que las corporaciones de las ciencias básicas capturaron el grueso de los recursos estatales a través del control de esta institución pero también de la Secretaría de Ciencia y Tecnología devenida recientemente en Ministerio.
Es tan notable el peso de esta dominancia, que ello ha llevado a conflictos relevantes dado que los investigadores del CONICET asentados en las instituciones del sistema científico (el INTA, el INTI, la CONEA, etc) que llevan adelante importantes proyectos de desarrollo aplicado, son evaluados negativamente en el CONICET por no ajustarse al esquema tradicional de la publicación de papers, lo que muestra como el sistema de evaluación se ha vuelto profundamente no funcional a las necesidades de desarrollo del país.
Finalmente, esta deformación del sistema de evaluación se convirtió en una traba para el funcionamiento de las instituciones de ciencia y tecnología en Argentina. Frente a ello el Ministerio de Ciencia y Tecnología (MINCYT) realizó el 8 de septiembre de 2011 un Taller cuyas conclusiones centrales fueron:
- la no pertinencia de aplicar criterios de evaluación del personal dedicado a la investigación básica al personal dedicado a la investigación aplicada y al desarrollo tecnológico y social;
- la diferencia existente entre las distintas disciplinas y la forma en que cada una evalúa a su personal;
- la dualidad entre la evaluación de trayectorias individuales y trayectorias colectivas; y
- la distancia entre criterios de calidad académica y criterios de relevancia y/o pertinencia organizacional.
En el año 2012 se dicta la Resolución MINCYT Nº 007/12 que crea la Comisión Asesora sobre Evaluación del Personal Científico y Tecnológico. “La Comisión aborda una de las iniciativas prioritarias de trabajo para el MINCYT como es profundizar el desarrollo de instrumentos de evaluación que permitan una ponderación más equilibrada entre lo que se denomina ciencia básica y las actividades orientadas al desarrollo tecnológico y social. Se trata de la elaboración de pautas de evaluación dirigidas a superar el esquema de medición tradicional basado en el modelo lineal de producción de conocimiento. En este marco se apunta a revisar las modalidades de evaluación del personal científico y tecnológico entendiendo que su definición inviste un carácter político. Las decisiones respecto de su implementación son orientativas para el personal evaluado ya que se encuentran en estrecha vinculación al esquema de incentivos y estímulos que éstos reciben”.
La resolución realiza el siguiente diagnóstico sobre la evaluación del personal científico y tecnológico:
“i. La dualidad institucional que suponen aquellos casos en los que los investigadores son financiados por CONICET pero su lugar de trabajo es otro de los organismos de ciencia y tecnología o las universidades. Esta situación genera, en algunos casos, una duplicación en la evaluación y una contradicción en los requerimientos de las distintas instituciones.
ii. La Carrera del Investigador Científico establecida por el CONICET ha contribuido a la estabilidad y el prestigio del sistema científico. Sin embargo, se resalta que esto ha tenido como consecuencia la adopción de sus instrumentos de evaluación por parte de otras instituciones que no están necesariamente guiadas por los mismos objetivos.
iii. Respecto al sistema de evaluación actual, se observa la preeminencia de indicadores que consideran a los investigadores en su trayectoria individual fundamentalmente a partir de su producción bibliométrica y la insuficiente utilización de criterios que consideren también su inserción y desempeño en equipos de trabajo. Un cambio en esta modalidad permitiría evaluar mejor los aportes que los investigadores hacen a la misión específica de las instituciones en las que se desempeñan.”
Este giro copernicano en los criterios de evaluación del personal científico tiene pendiente otros debates, que también involucra afectar decisiones institucionales del sistema científico institucional argentino. Uno es el de extender explícitamente estos criterios desarrollados para las ciencias aplicadas a la evaluación de las ciencias sociales y humanidades. Otro cambio profundo es el de la evaluación de los títulos académicos, particularmente la absolutización de los doctorados como sinónimo de calidad máxima en todas las disciplinas, haciendo abstracción de sus tradiciones que difieren en las distintas ramas del conocimiento. Absolutización que determinó la adjudicación plena del financiamiento de las actividades de posgrado por parte del MINCYT, generando un desarrollo artificial de estas actividades en disciplinas sin esta tradición, y desprotegiendo a las otras modalidades de formación académica y profesional.
8. Conclusiones
Los rankings de las universidades tienen sus antecedentes en los procesos de evaluación y acreditación de las universidades que nacieron en Estados Unidos a fines del siglo XIX donde, frente a la proliferación de instituciones a lo largo de todo el país, surgió la necesidad de certificar la calidad de las instituciones, sobre todo en áreas críticas como la Medicina donde estaba en juego la salud y la vida de la población. Originalmente no sucedió lo mismo en Europa y en América Latina, bastando el nombre de las grandes universidades como sello de calidad. La masificación de los procesos de enseñanza superior desde la década de 1960 fue impulsando también aquí medidas de control estatal sobre la calidad de las actividades y de las instituciones.
Paralelamente las comunidades académicas generaban mecanismos de difusión de sus actividades científicas en que se fue imponiendo el sistema de revistas con referato que garantizaba controles de calidad y eran fácilmente sistematizables y comparables, a través de indicadores indirectos como los índices de impacto. Esta posibilidad de ser comparables, desplazó a los libros, originalmente las expresiones máximas de referencia de calidad.
Un paso posterior, iniciado también en Estados Unidos y replicado luego en otros países, fue pasar de la evaluación de programas e instituciones o de artículos científicos por pares académicos, a comparaciones interinstitucionales (rankings). Y aquí comienza un largo, complejo y muchas veces caótico proceso de medición en base a indicadores. Cada emprendimiento metodológico incluyó diferentes perfiles de indicadores. Algunos objetivos y directamente medibles: recursos docentes y financieros, presencia de docentes y estudiantes extranjeros, visibilidad de la institución en el sistema de internet, volumen y calidad de la producción científica.
En la medida que estas comparaciones se hacían dentro del mismo país y disciplina, las comparaciones eran controlables, e incluso cuando se incorporaron criterios subjetivos a través de encuestas de opinión entre los académicos se suponía que los niveles de conocimiento directo podían mitigar la dificultad de registrar apropiadamente las fortalezas y debilidades de las instituciones universitarias. Ya aparecían dificultades en los sistemas vinculados a la producción científica a través de las revistas con referato, y bastante literatura crítica ha circulado sobre las dificultades de este sistema de evaluación y sobre la forma de generar los indicadores de impacto a través de la repercusión cuantitativa para clasificar la calidad de las revistas.
Pero esta problemática se iba a erosionar definitivamente en la medida en que con mucha audacia algunos centros académicos, periódicos o revistas, pretendieron extender estas metodologías a escala planetaria, sobre las más de 22.000 universidades que se estiman existen actualmente. Los primeros intentos construyeron clasificaciones estrictamente de la calidad de las investigaciones de las universidades, Nombres pomposos como el de Ranking Mundial de Universidades, se limitaban simplemente a ordenar a las universidades en base a indicadores ligados a los procesos de investigación del más alto nivel (Premios Nobel y Field de Matemáticas, publicaciones en la revista Nature and Science, e indicadores registrados en el sistema de registro de publicaciones e impacto). Obviamente a partir de este perfil de medición las universidades llamada “de investigación”, encabezadas por las norteamericanas y algunas europeas fueron asimiladas en los primeros lugares al concepto de “mejor”. Últimamente apareció también el concepto de “universidades de rango mundial” basadas en el reconocimiento internacional. Según los estudiosos de esta definición son entre 30 y 50 universidades de ocho países de Estados Unidos y Europa y Japón. Según ha señalado Albatch “todo el mundo quiere una, nadie sabe lo que es y nadie sabe cómo obtenerla” (2004). En realidad el eje de estas instituciones es el alto nivel de sus investigaciones lo que supone grandes recursos para ello[11].
El tema pasaría a complicarse aún más cuando con ánimo estrictamente comercial se construye el ranking del Times primero, y luego de la consultora Quaquarelli-Symond (QS) como un desprendimiento de esta iniciativa. En un intento de correrse parcialmente del universo estricto de las universidades de investigación, los técnicos de estas organizaciones asignaron un porcentaje decisivo de la puntuación a las evaluaciones subjetivas basadas en las opiniones de académicos y empleadores. El tema es que los académicos no podían tener una opinión razonable sobre el mundo de las universidades, de las cuales sólo conocen generalmente pequeñas partes asociadas a la disciplina que profesan o son repetidores de opiniones sobre las instituciones en base a la propaganda u otros mecanismos de difusión que las mismas realizan. Procesos similares a los de los empleadores que tampoco puede tener una visión integral del mundo de los egresados, sus capacidades adquiridas y sus inserciones laborales. Por ello estas dimensiones son en estas instituciones un secreto de estado, porque de revelarse se advertiría la fragilidad de esta información.
Hemos mostrado en el texto la debilidad con que se miden indicadores como la calidad de la enseñanza. Lo que sucede es que es imposible para estas consultoras recabar una masa exhaustiva de información de cada institución y entonces necesitan apelar a indicadores extremadamente simples. Por otra parte, los porcentajes asignados a cada indicador son absolutamente arbitrarios, e ignoran el eje central de cada proyecto institucional universitario, que no puede definirse en términos internacionales porque depende de la especificidad de cada institución universitaria. Todo esto se complica más cuando entran en el terreno de las universidades de gran tamaño, cuyo entramado de disciplinas y carreras no puede ser alegremente agregado para un promedio numérico general.
Hemos mostrado en este trabajo los poderosos intereses comerciales presentes en estos sistemas de evaluación y en el control de las revistas con referato y sus impactos, lo que enturbia desde otro ángulo los problemas generados en las fangosas aguas de la evaluación institucional comparada.
Las variaciones del peso de los indicadores que estas tablas han registrado en estos años, los cambios en la composición de los evaluadores sin un control razonable de su representatividad y los sesgos hacia el perfil deseado de las universidades en base a un “determinado tipo ideal universal”, han provocado una reacción muy fuerte de las comunidades académicas afectadas por los impactos provocados por los medios de difusión masivos que utilizan estos indicadores en forma superficial y que ignoran la fragilidad de su construcción. Fueron primero los europeos lo que rechazaron el criterio mismo de clasificar en tablas a las universidades y crearon sistemas de información alternativos como el CHE en Alemania. La comunidad académica rusa, con tradiciones propias en materia de desarrollo académico y científico generó sus propios indicadores y, finalmente, la creación del MESALC en América Latina completó un frente institucional que se moviliza en una dirección opuesta a la generada por el sistema de rankings.
En este contexto, en Argentina, los procesos de evaluación introducidos sistémicamente por la Ley de Educación Superior en 1995, abrieron un frente de análisis mucho más interesante y productivo para mejorar la calidad universitaria, que debería ser siempre el objetivo de estos procesos. Al mismo tiempo, se asiste actualmente a una revisión institucional impulsada por el Ministerio de Ciencia y Tecnología de los conceptos esenciales de la evaluación de la función de investigación y de los investigadores, a partir de la crisis desatada por el mantenimiento rígido de los criterios implantados desde el CONICET por las ciencias básicas y naturales. En este contexto, que incluye también la necesaria revisión de las políticas de apoyo a los diferentes tipos de posgrados de acuerdo a la importancia relativa en las distintas disciplinas, es relevante fortalecer los procesos de evaluación institucional con la riqueza con que se habían iniciado originalmente en la CONEAU, y ajustar las políticas de premios y castigos hacia el sistema universitario para ayudar al mejoramiento integral de las instituciones universitarias, en los múltiples frentes actividades que se definen a partir de sus ejes disciplinarios, sus ubicaciones regionales y las demandas específicas que plantea la actual etapa del desarrollo nacional. Temas que no pueden ser subsumidos en la parcialización y ordenamiento arbitrario de indicadores internacionales de gran pobreza conceptual y que sólo distraen a las comunidades universitarias de sus objetivos más trascendentes.
Para satisfacer la lógica demanda de los usuarios de diverso tipo sobre la calidad de las universidades, el sistema universitario argentino y sus instituciones deben alinearse en los objetivos planteados por el MESALC. Una gran dificultad es la debilidad de la información construida desde la Secretaría de Políticas Universitarias donde los últimos estudios realizados se hicieron en el año 2004, y los escasos indicadores construidos en base a la información estadística son del año 2009. Las estadísticas universitarias publicadas sobre el año 2010 deberían servir de base a estudios sobre el sistema universitario argentino que por cierto se han interrumpido desde la esfera estatal y no existen en la comunidad académica aportes relevantes al respecto. Las instituciones universitarias deberían a través de sus académicos y de sus páginas web sofisticar la información sobre la oferta universitaria, los recursos humanos y de otro tipo disponibles, la producción académica y toda otra información útil para los usuarios. Así como en 1995 se inició un proceso de construcción de una cultura de la evaluación que debe ser retomado y profundizado, en la actual etapa hay que construir una cultura de la información, para enfrentar adecuadamente la demanda por conocer la calidad universitaria, aspecto sobre el que se apoyan los rankings para impactar mediáticamente a la sociedad e incluso a las propias comunidades académicas.
Por otra parte, el objetar por su pobreza conceptual la construcción mediática de los rankings institucionales no significa no dar alta importancia a los procesos de evaluación ni ignorar los mecanismos que nacional e internacionalmente se han construido para difundir la producción científica. De lo que se trata es de respetar las fronteras de dichas evaluaciones de acuerdo a las tradiciones disciplinarias y a las formas en que se genera y profundiza el conocimiento en las ciencias aplicadas, así como a las particularidades con que se ha construido históricamente el proceso de formación de grado y posgrado en las distintas carreras, profesiones y disciplinas que agrupan estas complejas instituciones que son las universidades.
Bibliografía.
- Albornoz. M. (2008) “Evaluación en ciencia y tecnología” en Ética de la gestión en la investigación biomédica, Ed. Paidós, Buenos Aires.
- Altbach, P. (2009). “Educación superior comparada. El conocimiento, la universidad y el desarrollo”. Universidad de Palermo, Buenos Aires.
- Altbach, P. (2006), The Dilemmas of Rankings. International Higher Education Nº42, winter 2006.
- Barsky O. y Dávila, M (coordinadores) (2010), “Las carreras de posgrado en la Argentina y su evaluación”. Ed. Teseo-Universidad de Belgrano, Buenos Aires.
- BARSKY, O., BUSTO TARELLI, T., DI TULLIO, E., FERNÁNDEZ, L., PETRANTONIO, M. y POUSADELA, I. (2006). Políticas y mecanismos para fortalecer la articulación entre los posgrados universitarios y las cadenas productivas con el fin de mejorar los niveles de competitividad. En Universia, La formación universitaria para el sistema educativo y el sector productivo. Casos comparados (463-718). Buenos Aires: Planeta.
- Harvey, Lee (november 1999) “Quality in higher education”. Paper at the Swedish Quality Conference, Göteborg, University of Central England in Birmingham.
- Baty, P. (2010). THE unveils broad, rigourous new rankings methodology, Times Higher Education, 3 june 2010. Retrieved on 12 Jan. 2011 from: http://www.timeshighereducation.co.uk/story.asp?sectioncode=26&storycode=411907&c=1
- Brunner, J.J. (2012). “La idea de Universidad en tiempos de masificación” en Universia. Núm 7, Vol III. http://ries.universia.net
- Campanario, J.M. (2002), “El sistema de revisión por expertos (peer review): muchos problemas y pocas soluciones”, Revista Española Documentación Científica, Madrid, Nº25.
- Cañedo Andalia, R, Nodarse Rodríguez, M, Gerrero Pupo, J y Ramos Ochoa, R (2012), “Algunas precisiones necesarias en torno al uso del factor de impacto como herramienta de evaluación científica”, http://bvs.sld.cu/revistas/aci/vol13_5_05/aci01505.htm
- CHE (Center for Higher Education Development) (2010). Methodology. Die Zeit
- website retrieved Aug 17 2010 from: http:/ranking. Zeit.de/che2010/en/ueberdasranking/methodic.
- Cortes Vargas, D. (2007). “medir la producción científica de los investigadores universitarios: la bibliometría y sus límites”. Revista de la Educación Superior. Vol. XXXXVI (2), Nº142, Abril-Junio, pp.43-65.
- Goldstein, H y D.J. Spiegelhalter (1996). “League tables ad their limitations: statistical issues in comparisons of institutional performance” en Journal of the Royal Statistical Society A, Vol. 159:385-443.
- Harvey, L. “Quality in higher education” (1999). Paper at the Swedish Quality Conference, Göteborg. University of Central England, Birmingham
- IREG (2006). Berlin Principles on Ranking of Higher Education Institutions adopted at IREG’s 2nd meeting in Berlin, 18-20 May, 2006.
- Lemaitre, M.J. (2009). “Nuevos enfoques sobre aseguramiento de la calidad en un contexto de cambios”, en Revista Calidad en Educación Nº31, Consejo Nacional de Educación, Santiago de Chile.
- Liu, N.C. y Cheng Y. (2005) “Academic Ranking of World Universities. Methodologies and problems”, en Higher Education in Europe, Vol.30 Nº2,
- Martínez Rizo, F. “Los rankings de universidades: una visión crítica” Revista de la Educación Superior, vol 40, nº157, México, ene/mar. 2011.
- Mendoza, S. y Paravic, T. (2006), “Origen, clasificación y desafíos de las revistas científicas” en Investigación y posgrado, v.21 nº 1, Caracas, junio 2005.
- Nicholls, J (1992). “Academic development and quality control”. Manuscrito no publicado. Presentación en el Seminario ‘Los cambios en la educación Superior’. Montevideo.
- Oppenheimer, A. (2010) “¡Basta de historias!. La obsesión latinoamericana con el pasado y las 12 claves del futuro”. Ed. Sudamericana, Buenos Aires.
- Ordorica, I. y Rodríguez Gómez, R. et.al (2008). Comentarios al Academic Ranking of World Universities 2008. Cuadernos de trabajo de la Dirección General de Evaluación Institucional, Nº2. UNAM-DGEI, México..
- Ordorica, I. y Rodríguez Gómez, R (2010). “El ranking Times en el mercado del prestigio universitario, en Perfiles Educativos, Vol. XXXII, Nº 129, pp.8-25. México.
- Pérez Rasetti, C.(2011) “Construcción de indicadores para el sistema de Educación Superior de Iberoamérica/América Latina y el Caribe. Reflexiones para una propuesta”. OEI-CAECID.
- Pérez-Esparrels C. y López García, A. (2009) “Los rankings de las instituciones de educación superior: una revisión del panorama internacional”, Revista Calidad en la Educación, Nº30, Consejo Nacional de Educación, Santiago de Chile.
- Piscoya Hermoza, L. (2006). “Ranking universitario en el Perú”. Asamblea Nacional de Rectores, Lima.
- Pulido, A. (2008) “El futuro de la universidad”. www.univnova.org/documentos/1pdf. Madrid.
- QS University Rankings: Latin América (2012), www.qs.com
- Rauhvargers, A. (2011) “Global university rankings and their impact”. European University Association, Brussels, Belgium.
- Rhodes. F.H.T. (2009). “La creación del futuro. La función de la universidad norteamericana”. Universidad de Palermo, Buenos Aires.
- Rivera, E. (2012), “Razones, defectos y límites de los rankings”. Campus. www.campusmilenio.com.mx
- Salmi, J.(2009) “El desafío de crear universidades de rango mundial”, Banco Mundial, Washington.
- Salmi, J. and Saroyan, A. (2007). League tables as policy instruments: Use and misuses. Higuer Education Management and Policys, Vol. 19, Nº2, pp.31-68.
- Schwartzman, S. (1992). “Non-western societies and higher education” en ClarkB.R. and G. Neave (eds) “The Encyclopedia of Higher Education” vol.2, Oxford: Pergamon Press.
- Schwartzman, S. (2010). “O Impacto dos rankings nas instituicoes de ensino”. VIII Congreso Brasileiro de Gestao Educacional, San Pablo.
- Stella, Anthony y Woodhouse, David (2006), Ranking of Higuer Education Institutions, Australian Universities Quality Agency, AUQUA Ocassional Publications Number 6.
- Thomson; Social Science Citation Index http://scientific.thomson.com/products/ssci
- Thomson; Science citation Index http://scientific.thomson.com/products/ssci
- Usher, A. and Savino M. (january 2006) “A world of difference. A global survey of university league tables”, in EDUCATIONAL POLICY INSTITUTE, Toronto.
- Usher, A. y Savino, M. (diciembre 2006) “Estudio global de los rankings universitarios” en Calidad en la educación Nº 25, Santiago de Chile.
- van Raan, A. Fatal attraction: Conceptual and methodological problems in the ranking of universities by bibliometric methods, in SCIENTOMETRICS, 2005, nº1, 133-143.
- Weber, L.E. and J.J. Duderstadt (2004) “Challenges and Possible Strategies for Research Universities in Europe and the United States” in Reinventing the Research University. Edited by L.E, Weber and J.J. Duderstadt, Economica, London, Paris, Genève.
- Williams, R. (2008). Methodology, meaning, and usefulness of rankings. Australian Universities’ Review, 50(2),51-58.
——————————————————————————–
[1] “A ranking is a relationship between a set of items such that, for any two items, the first either “ranked higher than”, “ranked lower than” or “ranked equal to” the second. In mathematics, this is known as a weak order or total preorder of objects.It is not necessarily a total order of objects because two different objects can have the save ranking. The rankings themselves are totally ordered. For example, materials are totally preordered by hardness, while degrees of hardness are totally ordered.” (Rauhvargers, A. 2011, p.10)
[2] Véase Harvey, Lee (november 1999)“Quality in higher education”. Paper at the Swedish Quality Conference, Göteborg, University of Central England in Birmingham.
[3] Robert Morse es director de investigación de datos de US News and World Report y ha trabajado en la compañía desde 1976. El desarrolla las metodologías y encuestas para clasificar a las mejores universidades y escuelas de posgrado de Estados Unidos en rankings anuales, y el objetivo manifestado por la publicación es ofrecer a los futuros estudiantes el mejor análisis disponible.
[4]Artículos periodísticos como el siguiente ilustran el impacto de esta publicación en el nivel internacional y al mismo tiempo adelantan el perfil del tipo “ideal” de universidad norteamericana que irá moldeando el perfil de calidad internacional: “La Universidad de Harvard, en Cambridge (Massachusetts), reinó, por tercer año consecutivo, en el ranking de universidades de Estados Unidos que publica hoy la revista “US News and World Report”. El informe se difunde cada agosto, cuando los estudiantes norteamericanos se preparan para empezar su curso en las universidades del país, y se basa en las calificaciones, selección y otros índices sobre el rendimiento académico y la reputación de los alumnos. Harvard, que compartió el año pasado el liderazgo con su eterna rival Princeton (Nueva Jersey), es la universidad más antigua del país, una de las más elitistas y donde han estudiado grandes figuras nacionales e internacionales, como el Presidente de Estados Unidos, Barack Obama. Princeton quedó en un segundo puesto, aunque ambas universidades han copado los dos primeros puestos desde 2001, sin que otras prestigiosas escuelas hayan podido destronarlas, como la Universidad de Yale, en New Haven (Connecticut), que consiguió el tercer lugar. La Universidad de Columbia (Nueva York) se quedó en el cuarto puesto y las de Stanford (California) y Pensilvania (Philadelphia) empataron en la quinta posición. Según el director de investigación de la revista, Robert Morse, en una escala de 100 puntos, Harvard ganó a Princeton por 1, gracias a sus calificaciones más altas, los mayores índices de graduación y sus mejores profesores y recursos financieros. Además de los difíciles procesos de selección para acceder a estas escuelas privadas, sus matrículas y otros costes son de entre 30.000 y más de 45.000 dólares al año. La universidad pública mejor situada en la lista es la Universidad de California, en Berkeley, que se posiciona en el número 22 y que tiene unos costes de más de 10.000 dólares por curso para los residentes en ese estado y de más de 33.000 para los de fuera.” Emol, Santiago de Chile, 17 de agosto de 2010.
[5] Hasta el 2007, The Thomson Corporation fue también uno de los principales proveedores de libros de texto de educación superior del mundo, soluciones de información académica y de materiales de referencia. El 26 de octubre del 2006, Thomson anunció la propuesta de venta de sus activos de Thomson Learning. En mayo del 2007, Thomson Learning fue adquirida por Apax Partners y en julio pasó a llamarse Cencage Learning. En el 2007 Educational Testing Service (ETS) adquirió Thomson Prometric con su red mundial de centros de prueba en 135 países. ETS una entidad inicialmente sin fines de lucro creada en 1947 en Estados Unidos para el desarrollo de la investigación educativa y los procesos de evaluación y acreditación ha extendido su influencia a todo el mundo. ETS develops, administers and scores more than 50 million tests annually — including the TOEFL ® and TOEIC ® tests, the GRE ® General and Subject Tests and The Praxis Series ™ assessments — in more than 180 countries, at more than 9,000 locations worldwide. ETS desarrolla, administra y evalúa más de 50 millones de pruebas anualmente – que incluyen los exámenes de inglés TOEFL ® y TOEIC ®, el exámen para ingreso a universidades: el General GRE ® y exámenes de materias y las evaluaciones The Praxis Series ™ (conocimientos profesionales) – en más de 180 países, en unas 9.000 oficinas en el mundo.
[6] Una nota del Ministerio de Educación y Ciencia de la Federación Rusa señala: “Lamentablemente, los centros docentes rusos, incluso los más grandes y conocidos, ocupan posiciones lejos de ser elevadas en las clasificaciones mundiales. Lo que, a menudo, nada tiene que ver con el real estado de cosas, sino que obedece a la ausencia de criterios objetivos de su valoración o a la estrechez de enfoques: por ejemplo, se toma en consideración tan solo el número de Premios Nobel que egresaron de la universidad, la cantidad de publicaciones en la revista “Nature” y la movilidad de estudiantes. Con tales criterios no está categóricamente de acuerdo el rector de la Universidad Lomonósov de Moscú Víctor Sadovnichi. Está convencido de que la Universidad que dirige merece un lugar mucho más alto que la quinta centena en la que resultó según la clasificación internacional de “Times”. En el mundo no hay otra universidad que lance sus propios satélites con fines científicos. Lo hace tan solo la Universidad Lomonósov. El segundo ejemplo: el superordenador. Ahora es la base del progreso. En el mundo no hay otra universidad que posea tal superordenador. Podría mencionar estudios de nano-tecnologías, biotecnologías, ciencias cognitivas. Por eso, creo que nuestras principales universidades se encuentran a un alto nivel en rankings objetivos de instrucción universitaria.”
[7] Alex Usher y Massimo Savino (2006), han realizado un estudio metodológico comparativo entre 19 rankings mundiales, regionales y nacionales de imprescindible consulta.
[8] “Como ya se ha señalado, en muchos casos las normas y criterios tienden a reproducir una visión tradicional de la educación superior, sin reconocer que existen otros indicadores de calidad que se pueden usar con mayor eficacia en diferentes tipos de instituciones. Un ejemplo común es el de la contratación de personal académico: muchos organismos de aseguramiento de la calidad insisten en las calificaciones académicas como una medida de la calidad y olvidan que, en muchos casos (como programas profesionales o nuevos campos de conocimiento), podría ser más eficaz usar otro tipo de calificaciones. Así, no siempre tener un mayor porcentaje de docentes con grado de doctor es garantía de una mejor docencia. Dejando de lado la calidad del programa donde se obtuvo dicha calificación, en ocasiones puede ser preferible menos doctores y más profesionales con experiencia. La calidad del personal docentes es siempre fundamental; lo importante es reconocer que esta calidad se puede identificar de muchos modos distintos” (Lemaitre, J.M, 2009, pp-182-3)
[9] “Las universidades latinoamericanas siempre fueron evaluadas por sus estudiantes, profesores, y gobiernos en términos de su democratización para adentro y para afuera, su politización o enajenación, el prestigio social de sus egresados y el tipo de empleos obtenidos. Pero nunca fueron evaluados en términos de la calidad de la enseñanza o investigación. Rara vez se comparaban con otros países. No había sistema de información, y cuando se hacían comparaciones, no había grupos insatisfechos suficientemente organizados como para promover el cambio “ (Schwartszman,1992)
[10] Esta es una experiencia parcialmente trunca. Las dos agencias que se constituyeron fueron organizados por universidades privadas y la CONEAU no les delegó funciones de acreditación sino solamente de evaluación institucional.
[11] Aún en estudios específicos para impulsar la creación de este tipo de universidades se reconoce que: “…las crecientes presiones y las razones que se dan para justificar el esfuerzo por conseguir universidades de rango mundial deben ser examinadas en un contexto adecuado con el fin de evitar la sobreestimación del valor y la importancia de las instituciones de rango mundial, e impedir las distorsiones en la manera de asignar recursos dentro de los sistemas nacionales de educación superior. Incluso en una economía global del conocimiento, donde cada nación, tanto industrial como en desarrollo, trata de aumentar su parte del pastel económico, el sensacionalismo en torno a instituciones de rango mundial supera con creces, al menos a corto plazo, la necesidad y la capacidad de muchos sistemas de beneficiarse de este tipo de educación avanzada y de las oportunidades de investigación que pueda ofrecer.” (Salmi, J .p. xxvii)
Fuente: Autor Osvaldo Barsky, experto universitario www.ahoraeducacion.com