Metodología

Presentación

        El Ranking Web (Webometrics) de Universidades proporciona la clasificación más completa y actualizada de instituciones de educación superior de todo el mundo. El Laboratorio de Cibermetría (Consejo Superior de investigaciones Científicas, CSIC, España) publica desde 2004, cada seis meses, un ranking  académico independiente con el objetivo de suministrar información fiable, multidimensional, actualizada y útil sobre las universidades de todo el mundo teniendo en cuenta su presencia e impacto en la Web.

        En la actualidad el Ranking incluye más de 21.000 universidades con dos ediciones, una que aparece a finales de Enero y una segunda disponible al terminar Julio.

Historia

        El Laboratorio de Cibermetría lleva desarrollando estudios cuantitativos sobre la web académica desde mediados de los años noventa. Nuestro primer indicador basado en enlaces fue presentado durante la conferencia EASST/4S en Bielefeld (1996) y la recolección de datos de sedes web de universidades europeas se inició en 1999 con el apoyo de proyectos financiados por la Comisión Europea (EICSTES, WISER). Estos trabajos son una continuación de nuestra investigación bibliométrica iniciado en 1994, que se ha presentado en las Conferencias de la Sociedad Internacional para la Cienciometría y Informetría (ISSI, 1995-2011) y las Conferencias Internacionales sobre Indicadores de Ciencia y Tecnología (STI-ENID, 1996-2012) y publicado en revistas de alto impacto (Journal of Informetrics, Journal of the American Society of Information Science and Technology, Scientometrics, Journal of Information Science, Information Processing & Management, Research Evaluation, y otras). En el año 1997 comenzamos la edición de revista totalmente digital, de acceso abierto y revisión por pares, Cybermetrics, que publica artículos en inglés sobre esta disciplina.

        En 2003, tras la publicación del ranking de la Universidad Jiatong de Shanghai, el Academic Ranking of World Universities (ARWU), se decidió adoptar el modelo con algunas mejoras e innovaciones.

        El ranking se construye a partir de datos publicados en la web abierta (no intranets) e indizados por los motores de búsqueda. Indicadores de actividad e impacto (visibilidad web) se combinan en un indicador compuesto, y se produce una clasificación con una cobertura verdaderamente global. La primera edición fue publicada en 2004, y desde 2006 aparece dos veces al año. En 2008, se comenzaron a publicar en el mismo portal los rankings web de centros de investigación (8.000), hospitales (16.000), repositorios y escuelas de negocios.

Objetivos y motivación

        El objetivo original del Ranking es promover la publicación en la web académica, mediante el apoyo a las iniciativas de acceso abierto, con el fin de incrementar significativamente la transferencia de conocimientos científicos y culturales generados por las universidades a toda la sociedad. Para lograr este objetivo, la publicación de rankings proporciona una de las herramientas más poderosas y exitosas para iniciar y consolidar los procesos de cambio en el modo de publicación del mundo académico, aumentando el compromiso de los profesores e investigadores y favoreciendo la adopción de estrategias a largo plazo

        El objetivo no es evaluar páginas web, su diseño o usabilidad o la popularidad de su contenido, de acuerdo con el número de visitas o diversidad de visitantes. En realidad, los indicadores Web de presencia e impacto pueden ser un mecanismo importante y objetivo para la correcta evaluación, completa y profunda, de las actividades universitarias, de su gestión y gobernanza, de los servicios que ofrecen, de la calidad de su docencia e investigación, y de la relevancia e impacto de los resultados científicos, tecnológicos, culturales o económicos tanto a nivel local como internacional.

        La fiabilidad del Ranking depende del compromiso de la institución con la publicación en la web, hasta que punto ésta refleje especularmente lo que es y representa la universidad. Pero parece obvio que en plena segunda década del siglo XXI se entiende ya de forma universal que la Web es clave para el futuro de todas las misiones de la universidad, puesto que es de hecho la principal herramienta de comunicación académica, el canal primordial para desarrollar la educación a distancia, un espacio para la participación de la comunidad y el escaparate abierto al mundo para atraer talento, financiación y recursos de todo tipo.

Filosofía y justificación

        Sólo se publica un único ranking cerrado en cada edición, puesto que variables y pesos se combinan tras una cuidadosa investigación y este valor añadido no puede estar al albur de la elección individual por parte de usuarios que no tienen suficiente conocimiento o experiencia en este campo. Otros rankings proporcionan múltiples versiones, algunas con clasificaciones muy diferentes, utilizando exactamente los mismos datos en diferentes combinaciones, lo que es poco útil y confuso.

        El Ranking Web ofrece una clasificación de todas las universidades del mundo, no sólo unos pocos cientos de instituciones del mundo desarrollado. Como es de esperar el Ranking está encabezado por las llamadas universidades de "clase mundial", que por lo general no son instituciones pequeñas o muy especializadas.

        El Ranking Web es el resultado de un esfuerzo continuado de investigación científica, buscando mejoras en cada edición y adecuando la metodología a los resultados, lo que lleva a realizar ciertos cambios tanto en los indicadores como en el modelo de ponderación. La estabilidad no es una prioridad, por lo que la comparación entre ediciones debe realizarse con precaución. Realmente es una pena que algunos rankings usen la excusa de la estabilidad entre ediciones para no corregir errores o poner a punto los indicadores.

        Hay rankings realizados por empresas con fines de lucro, que explotan dichos rankings con fines económicos o políticos y que ofrecen resultados sesgados que deben ser evaluados con precaución.

        Los rankings basados únicamente en datos bibliométricos sólo miden una misión, la investigadora, que posiblemente solo es prioritaria para unos pocos centenares de universidades de todo el mundo. Más aún, las fuentes utilizadas sesgan una gran cantidad de disciplinas como las tecnologías e ingenierías, la informática, las ciencias sociales y las humanidades, disciplinas que normalmente equivalen a más de la mitad de los profesores y estudiantes en una universidad convencional. El Ranking Web mide, aunque de un modo indirecto, otras misiones tales como la enseñanza o la llamada tercera misión, teniendo en cuenta no sólo el impacto científico de las actividades de la universidad, sino también la importancia económica de la transferencia de tecnología a la industria, el compromiso con la comunidad (social, cultural, medio-ambiental) e incluso la influencia política.

        El Ranking Web utiliza el análisis de enlaces para la evaluación de la calidad, ya que es una herramienta mucho más poderosa que el análisis de citas o las encuestas pretendidamente globales. En el primer caso, las citas sólo tienen en cuenta el reconocimiento formal entre pares, mientras que los vínculos no sólo incluyen citas bibliográficas, sino también la participación e impacto de terceros en las actividades universitarias. Las encuestas no son una herramienta adecuada para la elaborar rankings mundiales ya que no hay ni un solo individuo con una experiencia intensa (varios semestres de estancia por institución), plurinstitucional (varias docenas de universidades de distintos lugares del globo) y multidisciplinar (tanto con ciencias duras como con biomedicina, ciencias sociales o tecnologías) en un muestra representativa de universidades de todo el mundo.

        Los resultados de la investigación son también relevantes en la elaboración del Ranking Web, que incluye no sólo las publicaciones formales (revistas electrónicas, repositorios), sino también la comunicación informal. La publicación web es mucho más barata, y no tiene porqué renunciar a los altos estándares de calidad de los procesos de revisión por pares, que en este soporte pueden ser más amplios y transparentes. La web llega a audiencias enormes, incluyendo el acceso al conocimiento científico a investigadores e instituciones de países en desarrollo y también a terceros actores (económicos, industriales, políticos o culturales) en su comunidad local o internacional.

        Tenemos la intención de motivar tanto a instituciones e investigadores a tener una presencia web que refleje con exactitud sus actividades. Si el rendimiento web de una institución está por debajo de lo esperado de acuerdo a su excelencia académica, los dirigentes universitarios deberían reconsiderar su política Web, promoviendo el incremento substancial del volumen y la calidad de sus publicaciones electrónicas.

        Los estudiantes que busquen universidad para iniciar o continuar sus estudios superiores deben utilizar criterios adicionales porque, aunque el Ranking Web se correlaciona bien con la calidad de la enseñanza impartida y el prestigio académico, otras variables no académicas como costes, alojamiento, seguridad deben tenerse en cuenta.

Indicadores compuestos y Factor de Impacto Web

        Probablemente una de las principales contribuciones del Ranking de Shanghai fue la introducción de un indicador compuesto, que combina con un sistema de ponderación una serie de variables individuales. Anteriormente se utilizaban índices bibliométricos tales como el Factor de Impacto de Garfield, que es una proporción entre artículos y citas que reciben, y que Ingwersen en 1997 utilizo para construir el Factor de Impacto Web (WIF) utilizando de forma similar relaciones entre número de páginas web y enlaces que las conectaban. Sin embargo esas relaciones sufren del comportamiento hiperbólico (leyes de potencia) de las distribuciones de las variables y en el caso de escenarios grandes y complejos generan artefactos matemáticos.

        El modelo de Shanghai propone transformar las proporciones entre variables en sumas ponderadas de las mismas. Así, en el Ranking Web el indicador E/PW (E=enlaces, PW=páginas web) se modifica en aE + bPW, donde E & PW se normalizan por adelantado y a y b son pesos que suman 1 (ó 100%). Desaconsejamos el uso del WIF, debido a sus graves deficiencias. El indicador compuesto se puede diseñar con diferentes conjuntos de variables y ponderaciones de acuerdo con las necesidades del desarrollador y distintos modelos.

Diseño y peso de los indicadores

        El Ranking Web utiliza un modelo "a-priori" para la construcción del indicador compuesto. Otros rankings optan por asignar pesos arbitrarios a variables que en muchos casos no son independientes y llegan incluso combinar a valores absolutos con proporciones. Ninguno de ellos parece establecer una relación lógica entre las distintas medidas. Además, como ya se indicó anteriormente, algunas variables tienen valor mayor que cero tan sólo para unas pocas universidades y en otras es difícil segregar las distintas universidades ya que las diferencias entre ellas son tan pequeñas que incluso resultan inferiores a las tasas de error de la medida.

        El Ranking Web utiliza una proporción 1:1 entre indicadores de actividad, en este caso publicaciones y contenidos en la web, e indicadores de impacto, que para nuestros fines se miden a través del número de enlaces externos recibidos (visibilidad web). En términos prácticos esto significa que cada grupo recibe una peso exactamente igual del 50%, es decir respetando el modelo 1:1.

       En cualquier caso, la combinación de indicadores exige la previa normalización de los mismos. Se pueden utilizar normalizaciones respecto a la suma total o al máximo valor, expresando los resultados en tantos por uno o porcentajes respecto de dichos valores. Sin embargo, puesto que los datos siguen una distribución hiperbólica (o de potencia) esta normalización no parece la más adecuada.

        La relación de 1:1 entre los grupos de indicadores actividad / presencia y visibilidad / impacto se mantiene con el siguiente esquema de indicadores y pesos individuales  .

Visibilidad (50%)

IMPACTO. La calidad de los contenidos, se evaluó a través de un "referéndum virtual", contando todos los enlaces entrantes que recibe el dominio web universitario de terceros, tanto académicos como no. Esos enlaces reconocen el prestigio institucional, el rendimiento académico, el valor de la información, y la utilidad de los servicios tal como se ofrecen en las páginas web de acuerdo con los criterios y opiniones de millones de editores web de todo el mundo. Los datos de visibilidad (enlaces y dominios enlazantes) se obtienen de los dos proveedores más importantes de esta información: Majestic SEO y ahrefs. Ambos utilizan sus propios rastreadores, y generan bases de datos diferentes con información diferente, que a menudo no se solapa, por lo que es interesante utilizarlos en conjunto completar lagunas o corregir errores. El indicador es el producto de la raiz cuadrada del número total de vínculos recibidos por el número de dominios distintos que han originado dichos vínculos, por lo que no sólo es importante la popularidad de los enlaces, sino también la diversidad de los mismos. El máximo valor de los resultados normalizados entre los dos proveedores es el indicador de impacto.

Actividad (50%)

PRESENCIA (1/3). El número total de páginas web alojadas en el dominio web principal (incluyendo todos los subdominios y directorios) de la universidad obtenidos del mayor motor de búsqueda comercial (Google). Se cuentan todas las páginas web, incluyendo todos los formatos reconocidos individualmente por Google, las páginas estáticas y dinámicas y los archivos ricos. Como consejo general, no es posible tener una presencia fuerte sin la contribución de todos y cada uno de los miembros de organización, la única manera efectiva de publicar millones de páginas web. Tener dominios adicionales (departamentales, personales, de proyectos) o alternativos de los centrales (para versiones en otros idiomas) o con fines de marketing penaliza fuertemente el valor de este indicador, y también es muy confuso para los usuarios externos.

APERTURA (1/3). El esfuerzo global para crear repositorios institucionales de investigación se reconoce explícitamente en este indicador, que tiene en cuenta el número total de ficheros ricos (pdf, doc, docx, ppt), publicado en sitios web tal como se recogen en el motor de búsqueda Google Académico (Google Scholar). Sólo los nombres de archivos correctamente formados son tenidos en cuenta (por ejemplo, los archivos de Adobe Acrobat debe terminar obligatoriamente con el sufijo pdf). Solo se incluyen las publicaciones recientes, que en la actualidad son las publicadas entre 2008 y 2012.

EXCELENCIA (1/3). Los trabajos académicos publicados en revistas internacionales de alto impacto están jugando un papel muy importante en todos los rankings de Universidades. Aunque se utilizan fuentes prestigiosas que realizan rigurosas selecciones de las revistas a considerar, usar simplemente el número total de documentos puede ser engañoso, por lo que se restringe el indicador sólo a aquellas publicaciones excelentes. En este Ranking se consideran como tales los artículos comprendidos entre el 10% más citados de sus respectivas disciplinas científicas. Aunque ésta es una medida de la producción de alta calidad de las instituciones de investigación, el proveedor de datos (Grupo SCImago) suministra valores para más de 5200 universidades (período 2003-2010). En próximas ediciones se pretende hacer coincidir los períodos de cómputo entre Scholar y fuentes SCImago.

 

Ventajas y desventajas

        Cobertura. El Ranking Web es el ranking más grande por el número de instituciones de educación superior analizadas, pero no proporciona una clasificación institucional por lo que los listados incluyen tanto universidades, como colegios comunitarios, seminarios teológicos y otras instituciones de tercer nivel. La razón esv que no existe una clasificación a nivel mundial de dichas características, por lo que el interesado deberá seleccionar bajo su propio criterio los subconjuntos que necesite, pudiendo utilizar los resultados para construir rankings específicos personalizados.

        Misiones de la Universidad. La medición directa de la misión docente a nivel universal y de forma normalizada es prácticamente inviable. Ni las evaluaciones basadas en las encuestas (subjetiva), ni la proporción de estudiantes / profesor (datos no disponibles o fiables y una escasa capacidad de segregar) o la empleabilidad de los egresados (con muchas variables involucradas, no únicamente la calidad de la enseñanza). El Ranking Web clasifica esta misión de forma indirecta, estimando que la presencia en la web es un indicador del compromiso de los profesores con sus estudiantes. No es perfecto, pero el futuro de esta misión está claramente en el ámbito web y cualquier institución o persona que no sea consciente de ello estará perdiendo terreno rápidamente.

        Grandes números. La calidad de los datos no sólo depende de la fuente utilizada, sino también de las cantidades implicados. Por ejemplo, el número de universidades con más de un Premio Nobel es probablemente menor de 200 (incluidos todos los que se conceden desde 1900), lo que hace muy difícil clasificar correctamente instituciones con uno o dos galardonados e imposible las que no fueron nunca agraciadas. Lo mismo se aplica a los datos de las citas, la herramienta bibliométrica más poderosa que proporciona cifras en el orden de los miles o decenas de miles, lo que puede dar lugar a numerosos empates técnicos. Los datos basados en el número de enlaces son mucho mayores, por lo general de hasta dos o tres órdenes de magnitud más grandes. Ciertamente, los indicadores web son más ruidosos pero estadísticamente son más adecuados para discriminar (ordenar) un mayor número de instituciones.

        Impacto del tamaño. No hay mucho que debatir sobre éste tema: Las clasificaciones más populares, incluyendo el Ranking Web, son dependientes del tamaño, aunque no se refiere necesariamente al número de profesores o estudiantes (Harvard o MIT no son grandes en ese sentido), pero si probablemente a los recursos (financiación actual o pasada reflejada en instalaciones, laboratorios o bibliotecas). Pero esta crítica no es totalmente acertada ya que en realidad ninguno de los rankings está realmente midiendo eficiencia sino rendimiento global. Sirva como ejemplo que la riqueza económica de las naciones puede ser medida en términos de PIB (EE.UU., China, Japón) o en términos de PIB per cápita (Luxemburgo, Emiratos, Noruega). Ambos indicadores son correctos y útiles, pero sus fines e interpretación son completamente diferentes.

        Malas prácticas en los dominios web. Los gestores universitarios todavía luchan para que los autores asignen correctamente las direcciones en las afiliaciones de las publicaciones científicas. La situación no es mucho mejor en la Web, con varios cientos de instituciones que tienen más de un dominio web central, manteniendo activos dominios antiguos, utilizando dominios alternativos para las páginas internacionales (inglés) o compartiendo dominios con terceros. Incluso entre aquellas universidades que sólo tienen un dominio, las hay que lo cambian con frecuencia, a veces sin ninguna razón o ventaja aparente. Una extraña situación, relativamente común, es la transferencia de un dominio de primer nivel nacional (.ar, .es, .br) a un ".edu" que es un dominio de alto nivel diseñado para nombrar universidades de EE.UU. Esto ocurre incluso cuando el país cuenta con una estrategia claramente definida de subdominios académicos (edu.pl, edu.ua, ac.kr). Estos cambios y, sobre todo el uso simultáneo de varios dominios, castiga muy severamente en Ranking de Universidades. Aún más importante es el hecho de que esta práctica disminuye la visibilidad de su web de las universidades. Probablemente no tiene un efecto tan fuerte sobre las poblaciones locales, pero es muy confuso para las audiencias globales.

        Universidades falsas y no acreditadas. Tratamos de hacer lo imposible para no incluir falsas instituciones académicas, comprobando especialmente las universidades “en línea”·, las sucursales internacionales y otras con dominios o subominios web sospechosos, pero seguramente se nos escapa alguna. Cualquier sugerencia sobre estos temas es muy bienvenida.

Para obtener más información, póngase en contacto con:

    Isidro F. Aguillo, HcDr

    Laboratorio de Cibermetría - CSIC
    Albasanz, 26-28
    28037 Madrid. ESPAÑA

Bibliografía:

- Aguillo, I. F.; Granadino, B.; Ortega, J. L.; Prieto, J. A. (2006). Scientific research activity and communication measured with cybermetric indicators. Journal of the American Society for the Information Science and Technology, 57(10): 1296 - 1302.

- Wouters, P.; Reddy, C. & Aguillo, I. F. (2006). On the visibility of information on the Web: an exploratory experimental approach. Research Evaluation, 15(2):107-115.

- Ortega, J L; Aguillo, I.F.; Prieto, JA. (2006). Longitudinal Study of Contents and Elements in the Scientific Web environment. Journal of Information Science, 32(4):344-351.

- Kretschmer, H. & Aguillo, I. F. (2005).New indicators for gender studies in Web networks. Information Processing & Management, 41 (6): 1481-1494.

- Aguillo, I. F.; Granadino, B.; Ortega, J.L. & Prieto, J.A. (2005). What the Internet says about Science. The Scientist, 19(14):10, Jul. 18, 2005.

- Kretschmer, H. & Aguillo, I. F. (2004). Visibility of collaboration on the Web. Scientometrics, 61(3): 405-426.

- Cothey V, Aguillo IF & Arroyo N (2006). Operationalising “Websites”: lexically, semantically or topologically?. Cybermetrics, 10(1): Paper 4. http://cybermetrics.cindoc.csic.es/articles/v10i1p4.pdf