Revista Española de Documentación Científica 46 (4)
octubre-diciembre 2023, e371
ISSN: 0210-0614, eISSN: 1988-4621
https://doi.org/10.3989/redc.2023.4.1409

ESTUDIOS / RESEARCH STUDIES

Análisis estratégico de la producción científica española por campos: Ciencias Naturales, Médicas y de la Vida

Strategic analysis of Spanish scientific production by field: Natural, Medical and Life Sciences

Teodoro Luque-Martínez

Departamento de Comercialización e Investigación de Mercados. Facultad de Ciencias Económicas y Empresariales. Universidad de Granada (España).

https://orcid.org/0000-0003-1282-6822

Ignacio M. Luque-Raya

Departamento Comercialización e Investigación de Mercados. Facultad de Ciencias Sociales y Jurídicas de Melilla. Universidad de Granada (España).

https://orcid.org/0000-0003-3866-1958

Resumen

La investigación es una misión fundamental de la universidad que determina la producción científica, que, a su vez, está asociada al desarrollo social y económico. Los indicadores bibliométricos proporcionan una medida de la producción científica. Por otro lado, la medida de dicha producción distinguiendo por campos y especialidades es mucho más útil y permite conocer interesantes detalles para la gestión, tanto de una universidad como de un sistema universitario. Utilizando los indicadores bibliométricos del ranking ARWU, se analiza por campos y especialidades con especial énfasis en las universidades españolas. Se identifican los puntos fuertes y débiles por especialidad en cuanto a volumen y calidad de la producción, impacto, reconocimiento y colaboración internacional, así como el posicionamiento internacional de las universidades españolas. De todo ello se derivan recomendaciones para la gestión.

Palabras clave: 
Producción científica; ranking ARWU; universidades españolas; indicadores bibliométricos; ranking de especialidades.
Abstract

Research is a fundamental mission of the university that determines scientific production which, in turn, is associated with social and economic development. Bibliometric indicators provide a measure of scientific production. On the other hand, the measurement of said production distinguishing by fields and subjects is much more useful and allows to know interesting details for the management, both of a university and of a university system. Using the bibliometric indicators of the ARWU ranking, it is analyzed by fields and subjects with special emphasis on Spanish universities. The strong and weak points are identified by subject in terms of volume and quality of production, impact, recognition and international collaboration, as well as the international positioning of Spanish universities. Management recommendations are derived from all of this.

Keywords: 
Scientific production; ARWU ranking; Spanish universities; bibliometric indicators; ranking of specialties.

Recibido: 21-12-22; 2ª versión: 07-03-23; Aceptado: 21-03-23; Publicado: 13-09-23

Cómo citar este artículo/Citation: Luque-Martínez, T., Luque-Raya, I. M. (2023). Análisis estratégico de la producción científica española por campos: Ciencias Naturales, Médicas y de la Vida. Revista Española de Documentación Científica, 46 (4), e371. https://doi.org/10.3989/redc.2023.4.1409

CONTENIDO

1. INTRODUCCIÓN

 

La investigación es una misión fundamental de la universidad, algo ya asumido desde los tiempos de la Humboldt e incorporado a las normas universitarias (por ejemplo en la reciente Ley del Sistema Universitario español) lo cual no impide que haya distintos grados de orientación o intensidad en dicha misión entre las universidades. La producción científica es una manifestación de la actividad investigadora cuya medida es necesaria para aproximarse al desempeño de la universidad. Dicha medida es materia prima para la toma de decisiones, tanto para orientar la política científica de la propia universidad en tanto que organización (Bordons et al., 2010Bordons, M; Sancho, R.; Morillo, F.; Gómez, I. (2010) Perfil de la actividad científica de las universidades españolas en cuatro áreas temáticas: un enfoque multifactorial. Revista Española de Documentación Científica, 33 (1), 9-33. DOI: http://dx.doi.org/10.3989/redc.2010.1.718.; Li et al., 2012Li, F., Yi, Y., Guo, X., y Qi, W. (2012): Performance evaluation of research universities in Mainland China, Hong Kong and Taiwan: based on a two-dimensional approach. Scientometrics, 90:531-542. DOI: http://dx.doi.org/10.1007/s11192-011-0544-1.), como para guiar al sistema universitario detectando oportunidades de mejora (Sun y Liu, 2012Sun, Y., y Liu, F. (2012) Measuring international trade-related technology spillover: a composite approach of network analysis and information theory. Scientometrics, 94, 963-979 DOI: http://dx.doi.org/10.1007/s11192-012-0860-0.) y para realizar benchmarking entre territorios (Luque-Martínez, 2015Luque-Martínez, T. (2015). Actividad investigadora y contexto económico. El caso de las universidades públicas españolas. Revista Española de Documentación Científica, 38(1), e076-e076. DOI: https://doi.org/10.3989/redc.2015.1.1135.).

Mucho se ha avanzado en la medida de la producción científica por el desarrollo de las tecnologías de la información (tanto en hardware como en software), por el desarrollo de plataformas (como Web of Science, Scopus, Google Scholar entre otras), de los procesos aplicados y de los indicadores de medida gracias a los avances de la cienciometría y la bibliometría, aunque todo ello no esté exento de dificultades (Moed et al., 1985Moed, H., Burger, W., Frankfort, J., y Van Raan, A. (1985). The application of bibliometric indicators: Important field-and time-dependent factors to be considered. Scientometrics, 8(3-4), 177-203. DOI: https://doi.org/10.1007/bf02016935.; Hood y Wilson, 2003Hood, W. W., y Wilson, C. S. (2003). Informetric studies using databases: Opportunities and challenges. Scientometrics, 58(3), 587-608.).

Los análisis bibliométricos proporcionan una información cuantitativa de la producción científica que permite cuantificar su importancia y su evolución. Hay evidencia de que las conclusiones derivadas de análisis bibliométricos coinciden con la valoración proporcionada por expertos (Korevaar, 1996Korevaar, J. (1996). Validation of bibliometric indicators in the field of mathematics. Scientometrics, 37(1), 117-130. DOI: https://doi.org/10.1007/bf02093488.; Bornmann y Leydesdorff, 2013aBornmann, L., y Leydesdorff, L. (2013a). The validation of (advanced) bibliometric indicators through peer assessments: A comparative study using data from InCites and F1000. Journal of Informetrics, 7(2), 286-291. https://doi.org/10.1016/j.joi.2012.12.003.).

La literatura sobre generación y evaluación de indicadores bibliométricos es amplia, intenta dar respuesta a la necesidad de medir la evolución del desarrollo científico y tecnológico y poner de relieve sus puntos fuertes y débiles (Moed, 2000Moed, H.F. (2000). Bibliometric Indicators Reflect Publication and Management Strategies. Scientometrics 47, 323-346. DOI: https://doi.org/10.1023/A:1005695111622.; Verbeek, 2002Verbeek, A., Debackere, K., Luwel, M., y Zimmermann, E. (2002). Measuring progress and evolution in science and technology-I: The multiple uses of bibliometric indicators. International Journal of management reviews, 4(2), 179-211. DOI: https://doi.org/10.1111/1468-2370.00083.; Van Raan, 2006Van Raan, A. F. (2006). Statistical properties of bibliometric indicators: Research group indicator distributions and correlations. Journal of the American Society for Information Science and Technology, 57(3), 408-430. DOI: doi.org/10.1002/asi.20284.; Allik, 2013Allik, J. (2013). Factors affecting bibliometric indicators of scientific quality. Trames: A Journal of the Humanities and Social Sciences, 17(3), 199. https://doi.org/10.3176/tr.2013.3.01., entre otros). Así se ha puesto de manifiesto la necesidad de corregir aspectos concretos de la construcción de indicadores bibliométricos como la idoneidad del uso de indicadores basados en percentiles para evitar sesgos (Waltman y Schreiber, 2013Waltman, L., y Schreiber, M. (2013). On the calculation of percentile‐based bibliometric indicators. Journal of the American Society for information Science and Technology, 64(2), 372-379. DOI: https://doi.org/10.1002/asi.22775.) o de introducir indicadores normalizados (Allik, 2013Allik, J. (2013). Factors affecting bibliometric indicators of scientific quality. Trames: A Journal of the Humanities and Social Sciences, 17(3), 199. https://doi.org/10.3176/tr.2013.3.01.).

Los indicadores bibliométricos se utilizan para la elaboración de rankings internacionales de universidades. Este uso recibe numerosas críticas entre las que destacan la selección que se hace (Luque-Martínez y Del Barrio-García, 2016Luque-Martínez, T., y del Barrio-García, S. (2016). Constructing a synthetic indicator of research activity. Scientometrics, 108(3), 1049-1064. DOI: https://doi.org/10.1007/s11192-016-2037-8.) en la que predominan los indicadores de I+D+i y descuidando la presencia de otros ámbitos que hace que se encuentren infrarrepresentados campos como humanidades o ciencias sociales (Nederhof et al., 1989Nederhof, A.J., Zwaan, R.A., De Bruin, R.E. et al. (1989). Assessing the usefulness of bibliometric indicators for the humanities and the social and beha vioural sciences: A comparative study. Scientometrics 15, 423-435. DOI: https://doi.org/10.1007/BF02017063.) o de las ingenierías (Pérez-Esparrells y Orduña-Malea, 2018Perez-Esparrells, C. y Orduna-Malea, E. (2018). Do the Technical Universities exhibit distinct behaviour in global university rankings? A Times Higher Education (THE) case study, Journal of Engineering and Technology Management, 48: 97-108. DOI: https://doi.org/10.1016/j.jengtecman.2018.04.007.), y que es necesario contemplar. También se cuestiona la forma de recoger los datos y la transparencia del proceso (Liu y Cheng, 2005Liu, N. C., y Cheng, Y. (2005). The Academic Ranking of World Universities. Higher Education in Europe, 30(2), 127-136. DOI: 10.1080/03797720500260116.; Waltman et al., 2012Waltman, L., Calero-Medina, C., Kosten, J., Noyons, E. C. M., Tijssen, R. J. W., van Eck, N. J., et al. (2012). The Leiden ranking 2011-2012: Data collection, indicators, and interpretation. Journal of the American Society for Information Science and Technology, 63(12), 2419-2432.). Pero sobre todo una de las principales críticas a los rankings universitarios internacionales es la consideración agregada de la producción científica sin distinción por especialidades o por departamentos.

Precisamente en ello se centra este trabajo cuyo objetivo es analizar la producción científica de universidades españolas en las especialidades de tres campos (Ciencias Naturales, Médicas y de la Vida), para cuantificar su presencia internacional, conocer su posición en el mundo ya sea por volumen y calidad de la producción científica ya sea por reconocimiento o colaboración internacional. Para ello se utiliza los datos por campos y materias/especialidades del Academic Ranking of World Universities (ARWU) o ranking de Shanghái.

Por otro lado, está constatada la importancia de la producción científica en el entorno y la toma de conciencia de su relevancia para el desarrollo de los territorios (Etzkowitz y Leydesdorff, 1998Etzkowitz, H., y Leydesdorff, L. (1998). The endless transition: A ‘‘triple helix’’ of university-industry-government relations. Minerva, 36, 203-208. DOI: http://dx.doi.org/10.1023/A:1004348123030.; King, 2004King, D.A. (2004). The scientific impact of nations. Nature, 430 (15), 311-316. DOI: http://dx.doi.org/10.1038/430311a.; Luque-Martínez, 2022Luque-Martínez, T., del Barrio-García, S., Doña-Toledo, L., y Faraoni, N. (2022). Value generation and economic impact of the University of Granada. Studies in Higher Education, 1-14. DOI: https://doi.org/10.1080/03075079.2022.2138848.). El desarrollo científico y tecnológico es una cuestión estratégica para los territorios puesto que determina la planificación a todos los niveles: local, nacional o supranacional como es el caso de la Unión Europea y sus estrategias de desarrollo (RIS3, Programas Marco, Horizonte Europa, entre otros). Por tanto, las conclusiones sobre la producción científica en estos campos y especialidades y el posicionamiento de las universidades españolas permiten identificar fortalezas y debilidades respecto al contexto internacional, tanto para cada universidad como para el sistema en conjunto, de las que se derivan recomendaciones de actuación para mejorar estas especialidades y que ello redunde en un mejor desarrollo científico-tecnológico y, en suma, del territorio.

En suma, se realiza un análisis estratégico de la producción científica (volumen en indicadores de calidad) de las áreas mencionadas en tanto que se analiza desde una perspectiva interna dentro del propio sistema universitario español como externa al comparar o referenciar con respecto a otras universidades del mundo. Para ello tras la introducción, en el segundo epígrafe se reflexiona sobre el interés y la pertinencia de hacerlo en los campos de ciencias naturales, médicas y de la vida para concretar las cuestiones de investigación. A continuación se explican cómo se obtienen los datos y el método aplicado para obtener la “materia prima” objeto de análisis en el siguiente apartado. Finalmente, se extraen conclusiones y recomendaciones para los tres ámbitos analizados y se recogen las principales limitaciones.

2. ANALISIS POR CAMPOS CIENTÍFICOS: CIENCIAS NATURALES, MÉDICAS Y DE LA VIDA

 

Moed et al. (1985)Moed, H., Burger, W., Frankfort, J., y Van Raan, A. (1985). The application of bibliometric indicators: Important field-and time-dependent factors to be considered. Scientometrics, 8(3-4), 177-203. DOI: https://doi.org/10.1007/bf02016935. pusieron de manifiesto la dificultad de aplicar indicadores de resultados de la investigación bibliométrica. Sostienen que los rankings que no distinguen por especialidades pueden estar afectados significativamente por las diferencias en las citas, cuya inmediatez o hábitos son diferentes por campos. De ahí la pertinencia de distinguir por campos y materias para tener una visión más apropiada de la estructura de la producción científica. Como indica Pislyakov (2022)Pislyakov, V. (2022). On some properties of medians, percentiles, baselines, and thresholds in empirical bibliometric analysis. Journal of Informetrics, 16(4), 101322. DOI: https://doi.org/10.1016/j.joi.2022.101322., “las naranjas deben ser comparadas con naranjas y las manzanas con manzanas”.

El análisis de la especialización o de la interdisciplinariedad con indicadores bibliométricos puede conducir a diferentes resultados dependiendo de la unidad de análisis (Morillo et al., 2001Morillo, F., Bordons, M., y Gómez, I. (2001). An approach to interdisciplinarity through bibliometric indicators. Scientometrics, 51(1), 203-222. DOI: https://doi.org/10.1023/A:1010529114941.), según los indicadores sean de departamentos, institutos o universidades (Katz, 2005Katz, J. S. (2005). Scale-independent bibliometric indicators. Measurement: Interdisciplinary Research and Perspectives, 3(1), 24-28. DOI: https://doi.org/10.1207/s15366359mea0301_3.). Van Raan (2006)Van Raan, A. F. (2006). Statistical properties of bibliometric indicators: Research group indicator distributions and correlations. Journal of the American Society for Information Science and Technology, 57(3), 408-430. DOI: doi.org/10.1002/asi.20284. insiste en la importancia de considerar un conjunto relacionado de publicaciones o de especialidad como unidad de análisis.

Por ello los análisis por campos científicos específicos han proliferado, se han realizado para todos los campos, como es el caso de documentación y sistemas de información (Hodonu-Wusu y Lazarus, 2018Hodonu-Wusu, J. O., y Lazarus, G. N. (2018). Major trends in LIS research: A bibliometric analysis. Library Philosophy and Practice, 1. Disponible en: https://core.ac.uk/download/pdf/189483457.pdf.), ciencias sociales (Van Leeuwen, 2006Van Leeuwen, T. (2006). The application of bibliometric analyses in the evaluation of social science research. Who benefits from it, and why it is still feasible. Scientometrics, 66(1), 133-154.), ciencias de la educación (Diem y Wolter, 2013Diem, A., y Wolter, S. C. (2013). The use of bibliometrics to measure research performance in education sciences. Research in higher education, 54(1), 86-114.) incluso para especialidades concretas más reducidas (Li et al., 2020Li, Y., Xu, Z., Wang, X., y Wang, X. (2020). A bibliometric analysis on deep learning during 2007-2019. International Journal of Machine Learning and Cybernetics, 11(12), 2807-2826. DOI: https://doi.org/10.1007/s13042-020-01152-0.).

En particular, la distinción de especialidades por campos científicos como en Ciencias Naturales, Ciencias Médicas o Ciencias de la Vida ha sido ampliamente analizada en diferentes países. Chankseliani et al. (2021)Chankseliani, M., Lovakov, A., y Pislyakov, V. (2021). A big picture: bibliometric study of academic publications from post-Soviet countries. Scientometrics, 126(10), 8701-8730. DOI: https://doi.org/10.1007/s11192-021-04124-5. analizan la investigación científica utilizando indicadores bibliométricos por países ex-soviéticos para Ciencias Médicas y Ciencias de la Salud. También para estos campos científicos, Bornmann y Mutz (2015)Bornmann, L., y Mutz, R. (2015). Growth rates of modern science: A bibliometric analysis based on the number of publications and cited references. Journal of the Association for Information Science and Technology, 66(11), 2215-2222. analizan el crecimiento de la ciencia. Nagarkar et al. (2015)Nagarkar, S., Veer, C., y Kumbhar, R. (2015). Bibliometric Analysis of Papers Published by Faculty of Life Science Departments of Savitribai Phule Pune University during 1999-2013. DESIDOC Journal of Library y Information Technology, 35(5) 368-375 DOI: https://doi.org/10.14429/djlit.35.5.8429. se centran en Ciencias de la Vida.

Constatada la necesidad de analizar la producción científica por especialidades, lo siguiente es identificar los indicadores a utilizar. Lo razonable es considerar indicadores del volumen de producción (número de artículos), indicadores que capten la calidad de dicha producción, así como la repercusión o impacto que tiene (citas) y el nivel de colaboración (Moed, 2000Moed, H.F. (2000). Bibliometric Indicators Reflect Publication and Management Strategies. Scientometrics 47, 323-346. DOI: https://doi.org/10.1023/A:1005695111622.; Katz, 2005Katz, J. S. (2005). Scale-independent bibliometric indicators. Measurement: Interdisciplinary Research and Perspectives, 3(1), 24-28. DOI: https://doi.org/10.1207/s15366359mea0301_3.; Potter et al., 2022Potter, R. W., Szomszor, M., y Adams, J. (2022). Comparing standard, collaboration and fractional CNCI at the institutional level: Consequences for performance evaluation. Scientometrics, 1-14. DOI: https://doi.org/10.1007/s11192-022-04303-y.). En este sentido, el Category Normalized Citation Impact (CNCI) es un indicador ampliamente utilizado para hacer benchmarking del desempeño de investigación (Potter et al., 2022Potter, R. W., Szomszor, M., y Adams, J. (2022). Comparing standard, collaboration and fractional CNCI at the institutional level: Consequences for performance evaluation. Scientometrics, 1-14. DOI: https://doi.org/10.1007/s11192-022-04303-y.) aunque no sea del todo pertinente para el caso de periodos cortos (Hu et al., 2018Hu, Z., Tian, W., Xu, S., Zhang, C., y Wang, X. (2018). Four pitfalls in normalizing citation indicators: An investigation of ESI’s selection of highly cited papers. Journal of Informetrics, 12(4), 1133-1145. DOI: https://doi.org/10.1016/j.joi.2018.09.006.; Wang y Zhang, 2020Wang, X., y Zhang, Z. (2020). Improving the reliability of short-term citation impact indicators by taking into account the correlation between short-and long-term citation impact. Journal of Informetrics, 14(2), 101019. DOI: https://doi.org/10.1016/j.joi.2020.101019.) entre otras dificultades (Waltman y Schreiber, 2013Waltman, L., y Schreiber, M. (2013). On the calculation of percentile‐based bibliometric indicators. Journal of the American Society for information Science and Technology, 64(2), 372-379. DOI: https://doi.org/10.1002/asi.22775.).

En la evaluación de la investigación, una de las herramientas más utilizada es InCites de Clarivate Analytics. Bornmann y Leydesdorff (2013b)Bornmann, L., y Leydesdorff, L. (2013b). Macro-indicators of citation impacts of six prolific countries: InCites data and the statistical significance of trends. PloS one, 8(2), e56768. DOI: https://doi.org/10.1371/journal.pone.0056768. entienden que es útil para comparar el impacto normalizado por países. Greco et al. (2012)Greco, A., Bornmann, L., y Marx, W. (2012). Bibliometric analysis of scientific development in countries of the Union of South American Nations (Unasur). Profesional de la Información, 21(6), 607-612. DOI: https://doi.org/10.3145/epi.2012.nov.07. la utilizan para analizar la producción en países sudamericanos, también lo hacen Hu otros (2018)Hu, Z., Tian, W., Xu, S., Zhang, C., y Wang, X. (2018). Four pitfalls in normalizing citation indicators: An investigation of ESI’s selection of highly cited papers. Journal of Informetrics, 12(4), 1133-1145. DOI: https://doi.org/10.1016/j.joi.2018.09.006. para evaluar el impacto de instituciones.

El Academic Ranking of World Universities (ARWU) es uno de los rankings universitarios internacionales más utilizado y con más notoriedad (Docampo, 2010Docampo, D. (2010). On using the Shanghai ranking to assess the investigation performance of university systems. Scientometrics, 86 (1), 77-92. DOI: https://doi.org/10.1007/s11192-010-0280-y.; Docampo, 2013Docampo, D. (2013). Reproducibility of the Shanghai academic ranking of world universities results. Scientometrics, 94(2), 567-587.; Wu & Liu, 2017Wu, Y., y Liu, N. C. (2017). Academic ranking of world universities (ARWU): Methodologies and trends. In Research Analytics (pp. 95-120). Auerbach Publications.). Este ranking proporciona información sobre 5 campos y 54 especialidades o materias. Entre los campos, además de los que ahora se analizan (Ciencias Naturales, Médicas y de la Vida), están los de Ciencias Sociales e Ingenierías.

ARWU contempla indicadores de cantidad de la producción científica y calidad de producción científica (Q1 y Top), de impacto de la producción científica (CNCI) y de su reconocimiento (Award), así como de la colaboración internacional (IC) existente por campos. La descripción de estos indicadores se muestra en la tabla I.

Tabla I.  Indicadores, descripción literal, y ponderación utilizados en el ranking de Shanghái.
Indicador Definición
Q1 Número de publicaciones de la materia en revistas Q1 por factor de impacto según Web of Science and InCites.
CNCI Category Normalized Citation Impact (CNCI) es el cociente entre las citas de los artículos y las medias de los artículos publicados en la misma categoría, según InCites database.
IC International Collaboration (IC), ratio de artículos con autores de al menos dos países, según InCites database.
Top Número de artículos en revistas Top de la materia según Shanghai Ranking’s Academic Excellence Survey.
Award Premios ganados por personal a tiempo completo desde 1981.

Los tres primeros se obtienen de la base de datos de InCites, como se ha dicho, muy utilizada en investigaciones bibliométricas como las realizadas por Chankseliani et al. (2021)Chankseliani, M., Lovakov, A., y Pislyakov, V. (2021). A big picture: bibliometric study of academic publications from post-Soviet countries. Scientometrics, 126(10), 8701-8730. DOI: https://doi.org/10.1007/s11192-021-04124-5., Bornmann y Mutz (2015)Bornmann, L., y Mutz, R. (2015). Growth rates of modern science: A bibliometric analysis based on the number of publications and cited references. Journal of the Association for Information Science and Technology, 66(11), 2215-2222., Greco et al. ( 2012)Greco, A., Bornmann, L., y Marx, W. (2012). Bibliometric analysis of scientific development in countries of the Union of South American Nations (Unasur). Profesional de la Información, 21(6), 607-612. DOI: https://doi.org/10.3145/epi.2012.nov.07. o Nagarkar et al. (2015)Nagarkar, S., Veer, C., y Kumbhar, R. (2015). Bibliometric Analysis of Papers Published by Faculty of Life Science Departments of Savitribai Phule Pune University during 1999-2013. DESIDOC Journal of Library y Information Technology, 35(5) 368-375 DOI: https://doi.org/10.14429/djlit.35.5.8429., por ejemplo. Los indicadores Top y Award se obtienen de la encuesta realizada por quienes elaboran el ranking denominada Shanghai Ranking’s Academic Excellence Survey. Para el año 2022, mediante dicha encuesta se identificaron 180 publicaciones Top de todos los ámbitos por los académicos entrevistados. También mediante la encuesta se identificaron 36 premios internacionales de prestigio asociados a 29 materias, de los diferentes ámbitos, no solamente de los ahora analizados. Los premios están ponderados según el tiempo de su concesión.

En síntesis, el análisis se centra en los campos de Ciencias Naturales (CN), Médicas (CM) y de la Vida (CV) y en las materias que los integran para conocer la presencia de las universidades españolas en cada materia o especialidad, el posicionamiento de las mismas en el marco internacional, así como sus puntos fuertes y débiles de su producción científica (volumen, calidad, impacto, reconocimiento y colaboración internacional) en comparación con el resto de universidades del mundo seleccionadas.

El objetivo se desglosa en las siguientes cuestiones de investigación. Para Ciencias Naturales:

  • QCN1 Análisis de la presencia de las universidades españolas en cada especialidad de Ciencias Naturales en el mundo, según datos de ARWU.

  • QCN2 Obtención del posicionamiento de las universidades españolas en cada especialidad de Ciencias Naturales en el mundo, según datos de ARWU.

  • QCN3 Análisis de la colaboración internacional, de la calidad e impacto de la producción científica de las universidades españolas en cada especialidad de Ciencias Naturales, en el mundo, según datos de ARWU.

Para Ciencias Médicas:

  • QCM1 Análisis de la presencia de las universidades españolas en cada especialidad de Ciencias Médicas en el mundo, según datos de ARWU.

  • QCM2 Obtención del posicionamiento de las universidades españolas en cada especialidad de Ciencias Médicas en el mundo, según datos de ARWU.

  • QCM3 Análisis de la colaboración internacional, de la calidad e impacto de la producción científica de las universidades españolas en cada especialidad de Ciencias Médicas en el mundo, según datos de ARWU.

Para Ciencias de la Vida:

  • QCV1 Análisis de la presencia de las universidades españolas en cada especialidad de Ciencias de la Vida en el mundo, según datos de ARWU.

  • QCV2 Obtención del posicionamiento de las universidades españolas en cada especialidad de Ciencias de la Vida en el mundo, según datos de ARWU.

  • QCV3 Análisis de la colaboración internacional, de la calidad e impacto de la producción científica de las universidades españolas en cada especialidad de Ciencias de la Vida en el mundo, según datos de ARWU.

3. DATOS Y MÉTODOS

 

Los datos se obtienen de la web oficial del ranking de Shanghái (https://www.shanghairanking.com/rankings/gras/2022), que distingue cinco ramas o campos que se desglosan en 54 materias. Los campos que ahora se analizan se desglosan en 8 materias en el caso de Ciencias Naturales (Natural Science); en 6 materias para Ciencias Médicas (Medical Sciences) y en 4 para Ciencias de la Vida (Life Sciences), véase tabla II.

Para la selección de las universidades a considerar, por parte de ARWU, se exige un número mínimo de publicaciones en el período 2016-20. En los campos que ahora se analizan, el umbral de publicaciones oscila entre 300 publicaciones para dos materias (Física y Medicina Clínica) y 50 publicaciones (Veterinaria, Odontología y Enfermería), siendo el umbral de 100 artículos el más frecuente. Mayoritariamente, el número de universidades consideradas por materia es de 500, esto ocurre para 11 materias. Mientras, que solamente son 200 universidades para un solo caso (Oceanografía). Hay 4 especialidades con 300 universidades y 2 especialidades con 400 universidades, como se muestra en tabla II.

Tabla II.  Umbral de artículos y número de universidades para las materias de Ciencias Naturales, Médicas y de la Vida tal y como literalmente aparecen en ARWU.
Campo Materia Umbral de artículos N.º universidades
Natural Sciences Mathematics 100 500
Physics 300 500
Chemistry 200 500
Earth Sciences 100 500
Geography 100 300
Ecology 100 500
Oceanography 50 200
Atmospherics Sc. 50 400
Medical Sciences Clinical Medicine 300 500
Dentistry & Oral Sc. 50 300
Medical Technology 100 400
Nursing 50 300
Pharmacy 100 500
Public Health 200 500
Life Sciences Agricultural Sc. 100 500
Biological Sc. 200 500
Human Biological Sc. 100 500
Veterinary Sc. 50 300

El cálculo de la puntuación de cada universidad en cada materia se obtiene aplicando las correspondientes ponderaciones a cada uno de los indicadores seleccionados, de acuerdo con lo establecido por ARWU. Dichas ponderaciones no son iguales para todas las materias. En Ciencias Naturales la ponderación es 100 para Q1, Top y CNCI (en este caso con la excepción de Matemáticas, que es de 20), la ponderación de IC es 20 para todas y la de TOP es de 100, también para todas. Award pondera 100 salvo para Geografía, Ecología y Oceanografía cuya ponderación es 0.

La ponderación en Ciencias Médicas es la misma en todas las materias para Q1, CNCI, IC y TOP, con un valor de 100 en cada caso. La ponderación de IC es de 20 para todas las materias. La ponderación de Award varía por materia, siendo 100 para Medicina Clínica y Odontología; 0 para Salud Pública y 20 para el resto de materias.

Finalmente, para Ciencias de la Vida, la ponderación es de 100 para Q1 (salvo Ciencias Agrícolas que es 200), también para CNCI (con la excepción de Veterinaria que tiene 50), para Top (excepción de Ciencias Agrícolas cuya ponderación es 0) y para Award (salvo para Ciencias Agrícolas y Veterinaria que no pondera). Para todas las materias el IC pondera 20.

Aplicando las ponderaciones correspondientes a cada caso se obtiene la puntuación exacta de cada universidad seleccionada. Se ordena de mayor a menor y se obtiene la posición dentro de cada materia para cada universidad y, en particular, para las españolas.

Los datos para cada indicador se extraen de la web oficial del ranking. Para su extracción se recurre al lenguaje de programación Python, apoyado principalmente en la librería de código abierto BeautifulSoup, una de las opciones más populares a la hora de realizar web scraping. Los datos se encuentran cargados dinámicamente mediante JavaScript, por lo que no se puede depender únicamente de BeautifulSoup para obtener datos de las diferentes páginas con contenido. Con el objetivo de iterar entre estas páginas, se usa la librería Selenium para automatizar el proceso.

Tras la ordenación por puntuación se puede observar la presencia absoluta y relativa de las universidades entre las top-200 y las top-500 (equivalente en el caso de que el número sea menor, por ejemplo top-400 si solamente hay 400 universidades en la especialidad), comparar la puntuación media de las universidades españolas con respecto a las media de cada campo, identificar las posiciones de las universidades españolas que destacan sobre la media de cada grupo y la posición que ocupan en cada caso.

4. ANÁLISIS DE RESULTADOS Y DISCUSIÓN

 

4.1 Ciencias Naturales

 

Las materias de Ciencias Naturales en las que hay más universidades españolas son Matemáticas y Química con 16 y sobre todo Ecología con 24 (tabla III), y las que menos son Geografía, con 5, y Oceanografía con 8. En términos relativos, las universidades españolas tienen más presencia en Ecología (4,8% del total) y Oceanografía (4%), mientras que en Geografía no llega al 2%.

Tabla III.  Universidades españolas en las materias de Ciencias Naturales.
N.º % total campo % Top 200 Diferencia de % por materia y % Top-500* Puntuación media: españolas/especialidad
Mathematics 16 3,2 4,5 0,8 95,6
Physics 14 2,8 3,5 0,4 98,7
Chemistry 16 3,2 2,0 0,8 91,0
Earth Sciences 13 2,6 0,5 0,2 85,4
Geography 5 1,7 0,5 -0,7 91,7
Ecology 24 4,8 2,0 2,4 89,1
Oceanography 8 4,0 4,0 3,5 89,4
Atmospherics Sc. 15 3,8 3,0 1,55 90,8

* O el top superior cuando el número de universidades sea inferior a 500. Por ejemplo si solamente hay 200 (caso de Oceanografía) será top-200, si hay solamente 400 (caso de Ciencia Atmosférica) será top-400, y top-300 para Geografía.
Fuente: www.shanghairanking.com/rankings/gras/2022.

En cuanto a lo que suponen las universidades en el Top-200, sobresalen Matemáticas y Oceanografía. En cuanto a la diferencia entre la proporción de universidades españolas de cada especialidad con respecto a lo que representan en general en el top (500 o sobre el número de universidades seleccionadas), claramente las materias de Ciencia Atmosférica, Ecología y, especialmente, Oceanografía están muy por encima del peso general que tienen la universidad española, mientras que Geografía no llega al peso medio que tiene la universidad española entre las 300 primeras.

En ninguna de las materias, la puntuación media del conjunto de las universidades españolas alcanza la media global de la especialidad. La especialidad que más se acerca es Física que está al 98,7% de su media, seguida de Matemáticas (al 95,6%). La que más se aleja de su media general es Ciencias de la Tierra que se queda en el 85,4% de su especialidad.

En Matemáticas, hay 6 universidades españolas que superan la media general de la especialidad, destacando la Universidad de Granada y la Politécnica de Cataluña con más de 24 puntos porcentuales superior a la media general de la misma. En Física, hay 4 universidades por encima de la media general, la superan con más de 10 puntos las universidades de Valencia, Barcelona y, más aún, la Universidad Autónoma de Madrid (16 puntos más). En Química, son 4 universidades cuya puntuación media supera a la media general, en particular la Universidad de Rovira i Virgili con más de 12%. En Ciencias de la Tierra, ninguna universidad española supera la media general, aunque la Universidad de Granada está prácticamente en la media. En Geografía, solamente la Universidad Autónoma de Barcelona supera la media general, estando muy por encima, con más del 23%. Son 4 universidades las que en Ecología superan a la media general de la especialidad, destacando las universidades de Barcelona (14%) y Autónoma de Barcelona (23%). En Oceanografía, no hay ninguna universidad española con una puntuación superior a la media de la especialidad. Finalmente, en Ciencias de la Atmósfera son 3 las universidades que tienen una media superior a la general, en particular la Politécnica de Cataluña que la supera en más del 10%.

En cuanto a las posiciones que ocupan las universidades españolas en el ámbito internacional, hay que destacar que entre las 100 primeras universidades del mundo hay 3 universidades españolas en Física, 2 en Matemáticas, una en Geografía, Oceanografía y Ciencias de la Atmosfera y ninguna en Química y Ciencias de la Tierra (Figura 1a y 1b).

Figura 1a.  Universidades españolas en las materias de Ciencias Naturales.
medium/medium-REDC-46-04-e371-gfa1.png
Fuente: elaborado a partir de www.shanghairanking.com/rankings/gras/2022
Figura 1b.  Universidades españolas en las materias de Ciencias Naturales.
medium/medium-REDC-46-04-e371-gfb1.png
Fuente: elaborado a partir de www.shanghairanking.com/rankings/gras/2022.

De las ocho materias de este campo, aparecen en 6 de ellas las universidades de Granada, Politécnica de Cataluña y Valencia y en 7 están las universidades de Barcelona, Autónoma de Barcelona y Complutense de Madrid. Las universidades Autónoma de Barcelona y de Granada son líderes en dos materias cada una de ellas.

El análisis por indicadores muestra que la colaboración internacional es en lo que están mejor las universidades españolas de este campo, su puntuación media supera en todas las materias a la puntuación media general (figura 2). La media del impacto normalizado de citas de las universidades españolas es superior a la media de la respectiva especialidad en Física y muy próximo en Ciencias Atmosféricas y Ecología. En publicaciones Q1, destaca Matemáticas, y se acerca a la media general de Física. Entre los que tienen puntuación, el indicador con peores datos para las universidades españolas, y con diferencia, es el de publicaciones en revistas Top.

Figura 2.  Cociente entre la puntuación media de los indicadores de las universidades españolas y total universidades seleccionadas en Ciencias Naturales.
medium/medium-REDC-46-04-e371-gf2.png
Fuente: elaborado a partir de www.shanghairanking.com/rankings/gras/2022.

El indicador Award no se representa, bien porque no pondera en algunas de las materias (Geografía, Ecología y Oceanografía) o bien porque las universidades españolas no tienen ninguna puntuación en las que sí pondera.

4.2 Ciencias Médicas

 

Las Ciencias Médicas comprenden 6 materias. Tanto en números absolutos como en proporción con respecto al total en cada materia, la presencia española es mayor en Farmacia (con 18 universidades) y Salud Pública (con 16), que representan algo más del 3% en su respectiva especialidad (3,6% y 3,2%, respectivamente). La presencia es más escasa en Enfermería (7) y sobre todo en Tecnología Médica que solamente tiene 6 y es la única en la que no se llega al 2% de universidades españolas respecto a la especialidad (tabla IV).

Tabla IV.  Universidades españolas en las materias de Ciencias Médicas.
N.º % total campo % Top 200 Diferencia de % por materia y % Top-500* Puntuación media: españolas/ especialidad
Clinical Medicine 12 2,4 1,0 0 91,6
Dentistry & Oral Sc 8 2,7 2,0 1,37 83,2
Medical Technology 6 1,5 1,0 -0,75 89,8
Nursing 7 2,3 2,0 0,97 90,1
Pharmacy 18 3,6 2,5 1,2 93,5
Public Health 16 3,2 2,0 0,8 96,3

* O el top superior cuando el número de universidades sea inferior a 500. Por ejemplo si solamente hay 300 (caso de Odontología y Enfermería) será top-300, si hay solamente 400 (caso de Tecnología Médica) será top-400.
Fuente: www.shanghairanking.com/rankings/gras/2022.

En este caso, la presencia de universidades españolas en el Top-200 solamente supera el 2% para Farmacia (2,5%). Hay tres especialidades que representan dicho porcentaje y no llegan al mismo ni la especialidad de Enfermería ni Medicina Clínica.

En cuanto al Top general (500 o número de universidades seleccionadas si hay menos de 500), las especialidades con más presencia, y que más superan a lo que representan en general las universidades españolas, son las de Odontología y Farmacia. En sentido contrario, es de destacar que en la especialidad de Tecnología Médica hay una presencia de universidades españolas menor que en el conjunto total de todos los campos.

La puntuación media de las universidades españolas está por debajo de la media general en todas las especialidades. Salud Pública y Farmacia son las que más se acercan a dicha media general, mientras que Odontología se queda en el 83,2%.

Por universidades, en Medicina Clínica solamente hay 2 universidades que superan la media general que son las de Valencia y, sobre todo, la de Barcelona que la supera en casi un 28%. En Odontología, solamente la Universidad Complutense de Madrid, entre las españolas, supera la media general y lo hace en un 18,5%. Tanto en Tecnología Médica como en Enfermería, solamente la Universidad de Barcelona está por encima de la media general. En Farmacia, cuatro universidades superan la media. La Universidad de Barcelona es la que más, con casi el 14%. Hay 5 universidades españolas que están por encima de la media de Salud Pública, en particular la Universidad de Barcelona (en un 15%), la Universidad de Valencia (más de un 21%) y la Universidad de Pompeu Fabra (más del 36%).

De las seis materias de este campo, cuatro de ellas están lideradas por la Universidad de Barcelona, que además está presente en todas las demás. Las universidades de Valencia y Autónoma de Barcelona están presentes en cinco y las universidades Complutense de Madrid, Navarra y Pompeu Fabra en cuatro. Hay un liderazgo claro de las universidades catalanas en Ciencias Médicas.

Hay universidades españolas entre las 100 primeras en las especialidades de Salud Pública (con 4 universidades), Medicina Clínica (1), Odontología (1) y de Enfermería (1). Sin embargo, no hay ninguna en Tecnología Médica, ni en Farmacia (figura 3).

Figura 3.  Universidades españolas en las materias de Ciencias Médicas por materias.
medium/medium-REDC-46-04-e371-gf3.png
Fuente: elaborado a partir de elaborado a partir de www.shanghairanking.com/rankings/gras/2022.

En este campo, las universidades españolas suelen destacar, respecto al resto del mundo, en el CNCI y IC, como se muestra en figura 4. En la especialidad de Tecnología Médica, destacan mucho en colaboración internacional. En el resto de materias, las universidades españolas superan la puntuación media con la excepción de Enfermería, que es la única materia que queda por debajo de la media.

Figura 4.  Cociente entre la puntuación media de los indicadores de las universidades españolas y total universidades en Ciencias Médicas.
medium/medium-REDC-46-04-e371-gf4.png
Fuente: elaborado a partir de www.shanghairanking.com/rankings/gras/2022

En CNCI, las universidades españolas están ligeramente por encima de la media de su grupo en todas las especialidades, con la excepción de Salud Pública.

Odontología es la única que está por encima de la media de su grupo en la puntuación por Q1. En particular, Medicina Clínica y Tecnología Médica están aproximadamente en el 80% de la media de su grupo.

Las publicaciones en revistas Top es el indicador, de los que obtienen puntuación, con peor desempeño. Solamente en el caso de Salud Pública, las universidades españolas están por encima de la media. En el resto de especialidades, están bastante por debajo, como en Tecnología Médica y, muy especialmente, en Farmacia y Odontología que no alcanzan el 30% de sus respectivas medias.

El indicador Award no pondera en algunas de las materias (Tecnología Médica y Farmacia) en el resto sí, pero ninguna universidad española alcanza puntuación en este indicador.

4.3 Ciencias de la Vida

 

El campo de Ciencias de la Vida está integrado por cuatro materias. La presencia de universidades españolas es numerosa en todas las especialidades, representando al menos un 3,2% del total de universidades en el caso de Veterinaria (con 16 universidades) y alcanzando el 5,5 para Ciencias Agrícolas, con 26 universidades (tabla V).

Tabla V.  Universidades españolas en las materias de Ciencias de la Vida.
N.º % total campo % Top 200 Diferencia de % por materia y % Top-500* Puntuación media: españolas/ especialidad
Agricultural Sc. 26 5,2 4,5 2,8 95,5
Biological Sc. 18 3,6 1,5 1,2 89,0
Human Biological Sc. 17 3,4 2,0 1 88,6
Veterinary Sc. 16 3,2 6 1,87 105,2

* O el top superior cuando el número de universidades sea inferior a 500. Por ejemplo si solamente hay 300 (caso de Veterinaria) será top-300.
Fuente: www.shanghairanking.com/rankings/gras/2022.

Destaca la presencia de universidades españolas en el Top-200 en Ciencias Agrícolas (4,5%) y sobre todo en Veterinaria, que con un 6% es la materia con mayor presencia española en el T0p-200 de los tres grupos considerados (Ciencias Naturales, Médicas y de la Vida). Por el contrario, Biológicas es la de menor presencia para este campo.

Todas las materias de este grupo exceden en presencia a lo que representa el conjunto de las universidades españolas en el Top-500 o top del número de universidades seleccionadas cuando es menor de 500. De nuevo destaca Veterinaria y sobre todo Ciencias Agrícolas.

Veterinaria es la única materia en la que las universidades españolas tienen una puntuación media superior a la media general de la especialidad. La supera en algo más de 5 puntos. El resto de materias están por debajo, Ciencias Agrícolas se acerca (95,5%) pero Biología y Biología Humana no llegan al 90% de la puntuación media.

Por materias, son 8 las universidades españolas que superan la media de la especialidad de Ciencias Agrícolas, la mayoría de ellas por más de 10 puntos, incluso por más de 15 para las universidades de Barcelona, Politécnica de Madrid y Autónoma de Barcelona. Solamente dos universidades superan la media para el caso de Biológicas, la Universidad de Barcelona que supera la media en un 11% y la Universidad de Pompeu Fabra que la supera en un 18,6%. También son dos universidades para el caso de Biología Humana, la Universidad Autónoma de Barcelona y sobre todo la Universidad de Barcelona (19%), tienen una puntuación superior a la media. En Veterinaria, la mitad de las universidades españolas que aparecen tienen una puntuación superior a la media general, alguna muy superior como la Universidades de Córdoba y la Universidad de Murcia, con más del 33%, o la Universidad Complutense de Madrid, con más del 58%, y la Universidad Autónoma de Barcelona, con más del 68%.

En las cuatro materias de este campo están presentes las universidades de Barcelona y Autónoma de Barcelona, Complutense de Madrid y Politécnica de Madrid y en tres especialidades están la Universidad de Sevilla y la Universidad de Valencia. Hay una mayor presencia de las universidades de las mayores ciudades, lideradas por universidades catalanas en todas las especialidades. Tanto es así, que ocupan la primera posición en todos los casos (en dos la Universidad Autónoma de Barcelona, una la Universidad de Barcelona y Universidad Pompeu Fabra) y las tres primeras posiciones en dos de esas materias.

Hay presencia de universidades españolas entre las primeras 100 de cada especialidad (figura 5), en particular en Ciencias Agrícolas con 5 universidades y sobre todo en Veterinaria con 7 universidades. Además, la Universidad Autónoma de Barcelona ocupa el 5º puesto del mundo, la posición más elevada para una universidad española de todas las especialidades en los tres campos considerados.

Figura 5.  Universidades españolas en las materias de Ciencias de la Vida.
medium/medium-REDC-46-04-e371-gf5.png
Fuente: elaborado a partir de www.shanghairanking.com/rankings/gras/2022.

También en este campo, y para todas las materias que lo integran, destacan las universidades españolas por la IC)(ver figura 6), superando la media de dicho indicador en al menos 3 puntos.

Figura 6.  Cociente entre la puntuación media de los indicadores de las universidades españolas y total universidades en Ciencias de la Vida.
medium/medium-REDC-46-04-e371-gf6.png
Fuente: elaborado a partir de www.shanghairanking.com/rankings/gras/2022.

El siguiente indicador con mejor resultado es el CNCI aunque solamente Veterinaria está algo por encima de la medida de su especialidad. El resto de materias no la alcanzan, aunque superan el 95% de la misma. De nuevo en publicaciones Q1, es Veterinaria la única que supera la puntuación media de su grupo. Ciencias Agrícolas se queda en el 93,9% de su media, y el resto no llega al 80% de la puntuación media de su grupo.

En cuanto a las publicaciones TOP la heterogeneidad es mayor. Veterinaria destaca mucho (13 puntos por encima de la media de la especialidad), mientras que tanto Biología como Biología Humana no llegan al 70% de sus respetivos grupos. Este indicador no se considera en Ciencias Agrícolas.

El indicador Award no entra en el cálculo de la puntuación global para las Ciencias Agrícolas y Veterinaria. En las otras dos materias del grupo, las universidades españolas tampoco alcanzan puntuación en este indicador.

5. CONCLUSIONES, RECOMENDACIONES Y LIMITACIONES

 

De acuerdo el análisis realizado con datos recabados del ranking ARWU se concluye dando respuesta a las respectivas cuestiones de investigación planteadas.

5.1 QCN: Ciencias Naturales

 

En este campo cabe calificar como buena la presencia en valor absoluto de las universidades españolas para estas materias, en particular en términos relativos, con la excepción de Geografía. Mejor aún la presencia en el top-200, en particular para Matemáticas, Oceanografía y Física.

Las universidades españolas destacan por su presencia en la especialidad de Oceanografía, así como en Ecología y Ciencias Atmosféricas, en referencia a su presencia general.

En este campo, las universidades españolas no alcanzan la puntuación media de su respectiva especialidad, aunque Física y Matemáticas se aproximan.

Se observa un buen posicionamiento internacional entre las primeras 100 universidades en las materias de Física y Matemáticas, pero entre las 100 primeras no hay presencia de universidades españolas en las materias Química y Ciencias de la Tierra.

En comparación con el resto del mundo, en Ciencias Naturales, el punto fuerte de las universidades españolas es el de la colaboración internacional, mientras que el principal punto débil es el de publicaciones en revistas Top y en revistas Q1, con la excepción de Matemáticas para este último indicador.

Las universidades catalanas, especialmente la Universidad de Barcelona y la Universidad Autónoma de Barcelona, son las que destacan en las primeras posiciones. Hay dos universidades que lideran dos materias cada una, son las universidades de Granada y la Universidad Autónoma de Barcelona.

En las materias de este campo en las que ponderan los premios (Award), las universidades españolas no tienen ninguna puntuación.

5.2 QCN: Ciencias Médicas

 

La presencia de las universidades españolas en el campo de Ciencias Médicas es discreta, tanto en números absolutos como en lo que representa sobre el total de la especialidad. Farmacia es la materia con mayor presencia de universidades españolas, mientras que Tecnología Médica es la que menor presencia tiene, tanto en la especialidad en general como en el Top-200.

En todas las especialidades, las universidades españolas están por debajo de la puntuación media general, de manera muy clara en Tecnología Médica y Odontología, que no alcanzan al 90% de las medias de sus grupos.

El posicionamiento internacional de las universidades españolas se puede calificar como discreto, con escasa o nula presencia entre las 100 primeras universidades del mundo con la excepción de la especialidad de Salud Pública. Farmacia y sobre todo Tecnología Médica son especialidades sin presencia entre las 100 primeras posiciones.

En este campo destaca la presencia de universidades catalanas entre las tres primeras españolas, la mitad de dichos puestos son ocupados por ellas. En particular, la Universidad de Barcelona destaca en 4 de las 6 especialidades del campo.

Las materias de este grupo destacan por la colaboración internacional e impacto relativo de las publicaciones. Sus debilidades residen en publicaciones de calidad, las del primer cuartil y sobre todo en publicaciones TOP.

5.3 QCV: Ciencias de la Vida

 

La presencia de las universidades españolas en el campo de Ciencias de la Vida es numerosa, tanto en valores absolutos como relativos y particularmente relevante en el Top-200 y 500 o general, en donde destacan las Ciencias Agrícolas y Veterinaria.

Buena presencia internacional entre las 100 primeras del mundo para Ciencias Agrícolas y sobre todo Veterinaria, que es la que cuenta con mejores datos en relación con su grupo, tanto del campo de Ciencias de la Vida como en los otros dos analizados.

Veterinaria destaca por ser la que está por encima de la media general de su especialidad, y también por encima de la media en cada uno de los indicadores.

Este campo también destaca por la colaboración internacional, en todas y cada una de sus especialidades. El punto de mayor debilidad reside en las publicaciones de calidad, ya sea en revistas Q1 y, más aún, en revistas TOP de manera muy especial en Biológicas y Biología Humana.

Entre las universidades españolas, todas las especialidades de este campo están lideradas por universidades catalanas, dos especialidades por la Universidad Autónoma de Barcelona y una por la Universidad de Barcelona y por la Universidad Pompeu Fabra, respectivamente. Considerando las tres primeras posiciones de cada especialidad, esas tres universidades ocupan el 75% de las mismas.

En síntesis, para los campos analizados, las universidades españolas destacan por la colaboración internacional que no se materializa, en términos generales, en publicaciones Q1 y sobre todo en publicaciones Top. El segundo indicador por desempeño, es el impacto medio de las citas. En Ciencias Médicas, el impacto medio de las citas está por encima de la media en todas las especialidades salvo en una. Mientras que en los otros campos, suele estar por debajo de la media para casi todas las especialidades. No hay ninguna orientación o nulo reconocimiento de la investigación vía premios internacionales, al menos en los considerados por ARWU.

De lo anterior, se pueden extraer interesantes implicaciones, ya sea por universidad o como sistema universitario español en su conjunto. Con estos datos, y este análisis, se puede hacer benchmarking entre universidades o entre sistemas universitarios y comprobar quién genera más producción científica o tiene más impacto, quién despliega más colaboración internacional o qué patrones de publicación desarrollan (Ming et al., 2011Ming, H. W., Hui, Z. F., y Yuh, S. H. (2011). Comparison of universities’ scientific performance using bibliometric indicators. Malaysian Journal of Library yAmp; Information Science, 16(2), 1-19. Disponible en: https://jati.um.edu.my/index.php/MJLIS/article/view/6693.). En términos generales, puesto que habría por cada especialidad, el sistema universitario catalán podría ser tomado como referencia para hacer benchmarking por parte de otros sistemas, sin olvidar el contexto y situación de partida en cada caso. En concreto, en el campo de ciencias médicas lo que ha supuesto ICREA, la dotación de hospitales universitarios y su conexión con las universidades o el contexto del sistema de innovación relacionado con el campo.

Por otro lado, se constata una mayor presencia de universidades en los primeros puestos radicadas en Barcelona y Madrid. Al fin y al cabo, son las ciudades con mayor número de universidades, mayor tamaño e indicadores más elevados de influencia económica y social. No obstante, hay excepciones, como son los casos de Valencia o, con un tamaño aún menor como ciudad, Granada.

Como posibles actuaciones que se derivan de este análisis, cabe señalar la necesidad de concienciar sobre la importancia de la orientación o canalización de la investigación hacia publicaciones Q1, especialmente hacia revistas consideradas Top. Esto se puede fomentar mediante el desarrollo de campañas de información y comunicación, mediante talleres y seminarios sobre cómo y dónde publicar mejor. En el mismo sentido, se puede estimular la publicación en revistas de este tipo, estableciendo sistemas de evaluación que ponderen mejor dichas publicaciones para conseguir ayudas, por ejemplo, en las que se conceden para la financiación a grupos, en las convocatorias de proyectos de investigación o similar.

Por otro lado, otra línea de actuación es la de promover la participación en premios de reconocimiento internacional, puesto que en este indicador ninguna universidad española tiene puntuación.

También sería conveniente un análisis específico con más detalle para actuar sobre especialidades que, en general, no presentan un desempeño acorde con el papel estratégico que puedan desempeñar, como es el caso de Tecnología Médica, Biología o Biología Humana.

Las limitaciones del presente análisis tienen que ver con los criterios de selección aplicados por ARWU de universidades y de indicadores, así como la ponderación establecida para los mismos. Además, solamente se analiza un año, para futuras investigaciones sería interesante incorporar al análisis varios años y poder seguir la evolución.

6. AGRADECIMIENTOS

 

Este trabajo se enmarca dentro del proyecto P20-02019 financiado por FEDER/Junta de Andalucía-Consejería de Transformación Económica, Industria, Conocimiento y Universidades.

ACKNOWLEDGEMENTS

 

This work is part of the project P20-02019, financed by FEDER/Junta de Andalucía-Department of Economic Transformation, Industry, Knowledge and Universities.

7. CONTRIBUCIÓN A LA AUTORÍA

 

Conceptualización, Adquisición de fondos, Investigación, Administración del proyecto, Recursos: Teodoro Luque-Martínez.

Curación de datos: Ignacio Manuel Luque-Raya.

Análisis formal, Metodología, Software, Supervisión, Validación; Visualización; Redacción - borrador original; Redacción: Teodoro Luque-Martínez; Ignacio Manuel Luque-Raya.

8. BIBLIOGRAFÍA

 

Allik, J. (2013). Factors affecting bibliometric indicators of scientific quality. Trames: A Journal of the Humanities and Social Sciences, 17(3), 199. https://doi.org/10.3176/tr.2013.3.01.

Bornmann, L., y Leydesdorff, L. (2013a). The validation of (advanced) bibliometric indicators through peer assessments: A comparative study using data from InCites and F1000. Journal of Informetrics, 7(2), 286-291. https://doi.org/10.1016/j.joi.2012.12.003.

Bornmann, L., y Leydesdorff, L. (2013b). Macro-indicators of citation impacts of six prolific countries: InCites data and the statistical significance of trends. PloS one, 8(2), e56768. DOI: https://doi.org/10.1371/journal.pone.0056768.

Bornmann, L., y Mutz, R. (2015). Growth rates of modern science: A bibliometric analysis based on the number of publications and cited references. Journal of the Association for Information Science and Technology, 66(11), 2215-2222.

Bordons, M; Sancho, R.; Morillo, F.; Gómez, I. (2010) Perfil de la actividad científica de las universidades españolas en cuatro áreas temáticas: un enfoque multifactorial. Revista Española de Documentación Científica, 33 (1), 9-33. DOI: http://dx.doi.org/10.3989/redc.2010.1.718.

Chankseliani, M., Lovakov, A., y Pislyakov, V. (2021). A big picture: bibliometric study of academic publications from post-Soviet countries. Scientometrics, 126(10), 8701-8730. DOI: https://doi.org/10.1007/s11192-021-04124-5.

Diem, A., y Wolter, S. C. (2013). The use of bibliometrics to measure research performance in education sciences. Research in higher education, 54(1), 86-114.

Docampo, D. (2010). On using the Shanghai ranking to assess the investigation performance of university systems. Scientometrics, 86 (1), 77-92. DOI: https://doi.org/10.1007/s11192-010-0280-y.

Docampo, D. (2013). Reproducibility of the Shanghai academic ranking of world universities results. Scientometrics, 94(2), 567-587.

Etzkowitz, H., y Leydesdorff, L. (1998). The endless transition: A ‘‘triple helix’’ of university-industry-government relations. Minerva, 36, 203-208. DOI: http://dx.doi.org/10.1023/A:1004348123030.

Greco, A., Bornmann, L., y Marx, W. (2012). Bibliometric analysis of scientific development in countries of the Union of South American Nations (Unasur). Profesional de la Información, 21(6), 607-612. DOI: https://doi.org/10.3145/epi.2012.nov.07.

Hodonu-Wusu, J. O., y Lazarus, G. N. (2018). Major trends in LIS research: A bibliometric analysis. Library Philosophy and Practice, 1. Disponible en: https://core.ac.uk/download/pdf/189483457.pdf.

Hood, W. W., y Wilson, C. S. (2003). Informetric studies using databases: Opportunities and challenges. Scientometrics, 58(3), 587-608.

Hu, Z., Tian, W., Xu, S., Zhang, C., y Wang, X. (2018). Four pitfalls in normalizing citation indicators: An investigation of ESI’s selection of highly cited papers. Journal of Informetrics, 12(4), 1133-1145. DOI: https://doi.org/10.1016/j.joi.2018.09.006.

Katz, J. S. (2005). Scale-independent bibliometric indicators. Measurement: Interdisciplinary Research and Perspectives, 3(1), 24-28. DOI: https://doi.org/10.1207/s15366359mea0301_3.

King, D.A. (2004). The scientific impact of nations. Nature, 430 (15), 311-316. DOI: http://dx.doi.org/10.1038/430311a.

Korevaar, J. (1996). Validation of bibliometric indicators in the field of mathematics. Scientometrics, 37(1), 117-130. DOI: https://doi.org/10.1007/bf02093488.

Li, Y., Xu, Z., Wang, X., y Wang, X. (2020). A bibliometric analysis on deep learning during 2007-2019. International Journal of Machine Learning and Cybernetics, 11(12), 2807-2826. DOI: https://doi.org/10.1007/s13042-020-01152-0.

Li, F., Yi, Y., Guo, X., y Qi, W. (2012): Performance evaluation of research universities in Mainland China, Hong Kong and Taiwan: based on a two-dimensional approach. Scientometrics, 90:531-542. DOI: http://dx.doi.org/10.1007/s11192-011-0544-1.

Liu, N. C., y Cheng, Y. (2005). The Academic Ranking of World Universities. Higher Education in Europe, 30(2), 127-136. DOI: 10.1080/03797720500260116.

Luque-Martínez, T. (2015). Actividad investigadora y contexto económico. El caso de las universidades públicas españolas. Revista Española de Documentación Científica, 38(1), e076-e076. DOI: https://doi.org/10.3989/redc.2015.1.1135.

Luque-Martínez, T., del Barrio-García, S., Doña-Toledo, L., y Faraoni, N. (2022). Value generation and economic impact of the University of Granada. Studies in Higher Education, 1-14. DOI: https://doi.org/10.1080/03075079.2022.2138848.

Luque-Martínez, T., y del Barrio-García, S. (2016). Constructing a synthetic indicator of research activity. Scientometrics, 108(3), 1049-1064. DOI: https://doi.org/10.1007/s11192-016-2037-8.

Ming, H. W., Hui, Z. F., y Yuh, S. H. (2011). Comparison of universities’ scientific performance using bibliometric indicators. Malaysian Journal of Library yAmp; Information Science, 16(2), 1-19. Disponible en: https://jati.um.edu.my/index.php/MJLIS/article/view/6693.

Moed, H.F. (2000). Bibliometric Indicators Reflect Publication and Management Strategies. Scientometrics 47, 323-346. DOI: https://doi.org/10.1023/A:1005695111622.

Moed, H., Burger, W., Frankfort, J., y Van Raan, A. (1985). The application of bibliometric indicators: Important field-and time-dependent factors to be considered. Scientometrics, 8(3-4), 177-203. DOI: https://doi.org/10.1007/bf02016935.

Morillo, F., Bordons, M., y Gómez, I. (2001). An approach to interdisciplinarity through bibliometric indicators. Scientometrics, 51(1), 203-222. DOI: https://doi.org/10.1023/A:1010529114941.

Nagarkar, S., Veer, C., y Kumbhar, R. (2015). Bibliometric Analysis of Papers Published by Faculty of Life Science Departments of Savitribai Phule Pune University during 1999-2013. DESIDOC Journal of Library y Information Technology, 35(5) 368-375 DOI: https://doi.org/10.14429/djlit.35.5.8429.

Nederhof, A.J., Zwaan, R.A., De Bruin, R.E. et al. (1989). Assessing the usefulness of bibliometric indicators for the humanities and the social and beha vioural sciences: A comparative study. Scientometrics 15, 423-435. DOI: https://doi.org/10.1007/BF02017063.

Perez-Esparrells, C. y Orduna-Malea, E. (2018). Do the Technical Universities exhibit distinct behaviour in global university rankings? A Times Higher Education (THE) case study, Journal of Engineering and Technology Management, 48: 97-108. DOI: https://doi.org/10.1016/j.jengtecman.2018.04.007.

Pislyakov, V. (2022). On some properties of medians, percentiles, baselines, and thresholds in empirical bibliometric analysis. Journal of Informetrics, 16(4), 101322. DOI: https://doi.org/10.1016/j.joi.2022.101322.

Potter, R. W., Szomszor, M., y Adams, J. (2022). Comparing standard, collaboration and fractional CNCI at the institutional level: Consequences for performance evaluation. Scientometrics, 1-14. DOI: https://doi.org/10.1007/s11192-022-04303-y.

Sun, Y., y Liu, F. (2012) Measuring international trade-related technology spillover: a composite approach of network analysis and information theory. Scientometrics, 94, 963-979 DOI: http://dx.doi.org/10.1007/s11192-012-0860-0.

Van Leeuwen, T. (2006). The application of bibliometric analyses in the evaluation of social science research. Who benefits from it, and why it is still feasible. Scientometrics, 66(1), 133-154.

Van Raan, A. F. (2006). Statistical properties of bibliometric indicators: Research group indicator distributions and correlations. Journal of the American Society for Information Science and Technology, 57(3), 408-430. DOI: doi.org/10.1002/asi.20284.

Verbeek, A., Debackere, K., Luwel, M., y Zimmermann, E. (2002). Measuring progress and evolution in science and technology-I: The multiple uses of bibliometric indicators. International Journal of management reviews, 4(2), 179-211. DOI: https://doi.org/10.1111/1468-2370.00083.

Waltman, L., y Schreiber, M. (2013). On the calculation of percentile‐based bibliometric indicators. Journal of the American Society for information Science and Technology, 64(2), 372-379. DOI: https://doi.org/10.1002/asi.22775.

Waltman, L., Calero-Medina, C., Kosten, J., Noyons, E. C. M., Tijssen, R. J. W., van Eck, N. J., et al. (2012). The Leiden ranking 2011-2012: Data collection, indicators, and interpretation. Journal of the American Society for Information Science and Technology, 63(12), 2419-2432.

Wang, X., y Zhang, Z. (2020). Improving the reliability of short-term citation impact indicators by taking into account the correlation between short-and long-term citation impact. Journal of Informetrics, 14(2), 101019. DOI: https://doi.org/10.1016/j.joi.2020.101019.

Wu, Y., y Liu, N. C. (2017). Academic ranking of world universities (ARWU): Methodologies and trends. In Research Analytics (pp. 95-120). Auerbach Publications.