Evaluación de la transferencia de conocimiento e innovación de las universidades españolas

 

ESTUDIOS / RESEARCH STUDIES

EVALUACIÓN DE LA TRANSFERENCIA DE CONOCIMIENTO E INNOVACIÓN DE LAS UNIVERSIDADES ESPAÑOLAS

Arnau Fombuena*

* Department of Geoinformatics Engineering, Namseoul University. Chungcheongnam, South Korea

Correo-e: fombuena@nsu.ac.kr | ORCID iD: http://orcid.org/0000-0002-3598-4375

 

RESUMEN

La estrategia europea Horizon 2020 se centra en la transición hacia la sociedad del conocimiento. Con este objetivo, la Comisión Europea ha elegido a las universidades por su capacidad para conectar y colaborar con otros sectores, particularmente el empresarial. Si bien sus esfuerzos se han dirigido a crear sinergias entre los sectores implicados, se ha obviado su evaluación. El estudio que se presenta utiliza metadatos de SCOPUS y de la Oficina Española de Patentes. Se pretende evaluar la transferencia de conocimiento desde la perspectiva de la universidad. Para ello, se emplean las colaboraciones de las universidades con otras universidades, con empresas y con instituciones gubernamentales. La evaluación se hace conjuntamente a partir de la red que las universidades españolas generan en su conjunto. Los resultados obtenidos muestran el grado de conectividad de cada universidad, su grado de influencia y su conectividad con instituciones líderes en innovación y transferencia de conocimiento.

ASSESSMENT OF KNOWLEDGE TRANSFER AND INNOVATION OF SPANISH UNIVERSITIES

ABSTRACT

The European strategy Horizon 2020 focuses on the transition to the knowledge society. To that end, the European Commission put the universities at the centre due to their ability to connect and collaborate with other sectors, particularly the business sector. Although their efforts have been aimed at creating synergies among the sectors involved, their evaluation has been largely left aside. This study uses metadata from SCOPUS and from the Spanish Patent Office. Its aim is to assess the transfer of knowledge from the perspective of the university. For this, collaborations between universities, with companies, and with government institutions are used. The assessment is performed from the whole network generated by the Spanish universities. The results obtained show the degree of connectivity of each university, its degree of influence and its connectivity with leading institutions in terms of knowledge transfer and innovation.

Recibido: 13-06-2018; 2ª versión: 16-12-2018; Aceptado: 18-12-2018.

Cómo citar este artículo/Citation: Fombuena, A. (2019). Evaluación de la transferencia de conocimiento e innovación de las universidades españolas. Revista Española de Documentación Científica, 42 (3): e240. https://doi.org/10.3989/redc.2019.3.1596

PALABRAS CLAVE: transferencia de conocimiento; evaluación de la innovación; rankings internacionales de universidades; transferencia de tecnología; triple hélice; análisis de redes sociales; evaluación de la investigación.

KEYWORDS: knowledge transfer; innovation assessment; international university rankings; technology transfer; triple helix; social network analysis; research assessment.

Copyright: © 2019 CSIC. Este es un artículo de acceso abierto distribuido bajo los términos de la licencia de uso y distribución Creative Commons Reconocimiento 4.0 Internacional (CC BY 4.0).

CONTENIDOS

RESUMEN
ABSTRACT
1. INTRODUCCIÓN
2. METODOLOGÍA
3. RESULTADOS
4. DISCUSIÓN
5. CONCLUSIONES
6. AGRADECIMIENTOS
7. REFERENCIAS

 

1. INTRODUCCIÓN Top

La estrategia europea Horizon 2020 (European Commission, 2014European Commission (2014). Horizon 2020 in brief. The EU Framework Programme for Research & Innovation. Luxembourg: Publications Office of the European Union. Disponible en:https://ec.europa.eu/programmes/horizon2020/sites/horizon2020/files/H2020_inBrief_EN_FinalBAT.pdf [Fecha de consulta: 20/06/2016].), centrada en la revisión de políticas e iniciativas para promover la transición hacia la sociedad del conocimiento, toma a las instituciones de educación superior, es decir las universidades, como pieza fundamental para incentivar la innovación. La Comisión Europea (European Commission, 2011European Commission (2011). Supporting growth and jobs – an agenda for the modernization of Europe’s higher education systems, Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions {SEC(2011) 1063 final}. Disponible en:http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=COM:2011:0567:FIN:EN:PDF [Fecha de consulta: 20/06/2016].) señala que la educación superior puede mejorar su contribución mediante la creación de enlaces entre la educación, la investigación y la empresa, que son los tres agentes del triángulo del conocimiento. No obstante, el triángulo del conocimiento se olvida del sector público que, con sus políticas, tiene la capacidad de promover, facilitar o impedir la transferencia del conocimiento que, como indican Bathelt y otros (2004Bathelt, H.; Malmberg, A.; Maskell, P. (2004). Clusters and knowledge: local buzz, global pipelines and the process of knowledge creation. Progress in Human Geography, 28 (1), 31-56. https://doi.org/10.1191/0309132504ph469oa.), es un proceso interactivo.

Algunos autores (Daraio, 2008Daraio, C. (2008). Current developments in Third Mission indicator development: the needs from academia. Workshop Third Mission Approaches and Indicators: The way forward, Valencia, Spain. Disponible en:http://www.ingenio.upv.es/sites/default/files/otros_seminarios/dar_pres.pdf [Fecha de consulta: 22/06/2016].; Rossi y Rossli, 2015Rossi, F.; Rosli, A. (2015). Indicators of university-industry knowledge transfer performance and their implications for universities: evidence from the United Kingdom. Studies in Higher Education, 40 (10), 1970-1991. https://doi.org/10.1080/03075079.2014.914914.) consideran que el desarrollo de indicadores de transferencia de conocimiento está poco investigado. En general, se utiliza un tipo de análisis fundamentalmente económico que genera nuevos problemas. Por su parte, Nielsen (2015Nielsen, K. (2015). Human capital and new venture performance: the industry choice and performance of academic entrepreneurs. Journal of Technology Transfer, 40 (3), 453-474. https://doi.org/10.1007/s10961-014-9345-z.) indica que gran parte de la investigación centrada en innovación desde el sector académico se centra en descubrir las sinergias que llevan a la transferencia de conocimiento e innovación y no tanto en su evaluación.

El modelo de la Triple-Hélice (Ranga y Etzkowitz, 2013Ranga, M.; Etzkowitz, H. (2013). Triple Helix Systems: An analytical framework for innovation policy and practice in the knowledge society. Industry and Higher Education, 27 (4), 237-262. https://doi.org/10.5367/ihe.2013.0165.) es precisamente un modelo de las sinergias que crean, transfieren y aplican el conocimiento, generando así, innovación. Típicamente, la universidad ya ha venido cumpliendo un rol principal en el triángulo del conocimiento mediante la docencia (educación), las publicaciones en revistas científicas o monografías especializadas (investigación) y la realización de proyectos en colaboración con empresas privadas (empresa). En el modelo de la Triple-Hélice la generación de innovación requiere la colaboración entre tres agentes de la sociedad. Este modelo considera como agentes esenciales la universidad, tradicionalmente responsable de la educación y la investigación, del triángulo del conocimiento se mantiene la empresa y se añade el gobierno. De esta forma, el triángulo del conocimiento (educación, investigación y empresa) se “transforma” en la Triple-Hélice (universidad, empresa y gobierno). En este modelo, la universidad reafirma su rol principal y es tratada, en la práctica, como el agente social responsable de dinamizar y hacer efectivas las interacciones entre los agentes mencionados. Además, se pueden añadir un número indeterminado de agentes, representativos de la sociedad civil, (Leydesdorff, 2012Leydesdorff, L. (2012). The triple helix, quadruple helix, …, and N-tuple of helices Helix, Quadruple Helix,…, and an N-tuple of Helices: Explanatory models for analyzing the knowledge-base economy?. Journal of the Knowledge Economy, 3 (1), 25-35. https://doi.org/10.1007/s13132-011-0049-4.) provenientes de varios sectores como el hospitalario o de las organizaciones no gubernamentales. De este modo se expande el modelo de la Triple-Hélice hacia la Quadruple-Hélice (universidad, empresa, gobierno y sociedad civil). Con el modelo de la Quadruple-Hélice se considera también a la universidad responsable de involucrar a la sociedad civil en el proceso de innovación (Leydesdorff, 2012Leydesdorff, L. (2012). The triple helix, quadruple helix, …, and N-tuple of helices Helix, Quadruple Helix,…, and an N-tuple of Helices: Explanatory models for analyzing the knowledge-base economy?. Journal of the Knowledge Economy, 3 (1), 25-35. https://doi.org/10.1007/s13132-011-0049-4.). Por tanto, la existencia de conexiones entre los diversos agentes podría ser considerado como un indicador que favorece la transferencia de conocimiento e innovación.

Por otra parte, actualmente los rankings de universidades han ganado mucha relevancia en el mundo académico y a través de los medios de comunicación generalistas, en la sociedad en general. Esto ha llevado a que las universidades los utilicen en sus estrategias publicitarias pero también como apoyo a la toma de decisiones, en ocasiones muy relevantes, tales como la contratación, promoción o despido de profesores, concesiones de financiación, o la firma de acuerdos con otras instituciones de educación superior (Brems y otros, 2013Brems, B.; Button, K.; Munafo, M. (2013). Deep impact: unintended consequences of journal rank. Frontiers in Human Neuroscience, 7. https://doi.org/10.3389/fnhum.2013.00291.; Chou y otros, 2013Chou, C.P.; Lin, H.F.; Chiu, Y. (2013). The impact of SSCI and SCI on Taiwan’s academy: an outcry for fair play. Asia Pacific Education Review, 14 (1), 23-31. https://doi.org/10.1007/s12564-013-9245-1.; Choudhri y otros, 2015Choudhri, A.F.; Siddiqui, A.; Khan, N.R.; Cohen, H.L. (2015). Understanding bibliometric parameters and analysis. Radiographics, 35 (3), 736-746. https://doi.org/10.1148/rg.2015140036.; Leydesdorff, 2013Leydesdorff, L. (2013). An evaluation of impacts in “Nanoscience & nanotechnology”: steps towards standards for citation analysis. Scientometrics, 94 (1), 35-55. https://doi.org/10.1007/s11192-012-0750-5.; Liaw y otros, 2014Liaw, Y.C.; Chan, T.Y.; Fan, C.Y.; Chiang, C.H. (2014). Can the technological impact of academic journals be evaluated? The practice of non-patent reference (NPR) analysis. Scientometrics, 10 (1), 17-37. https://doi.org/10.1007/s11192-014-1337-0.). La importancia de los rankings es tal que incluso algunos investigadores crean modelos para estimar los resultados futuros (Chang, 2018Chang, F. P. (2018). Trend models on the academic ranking of world universities. International Journal of Information and Management Sciences, 29 (1), 35-56. https://doi.org/10.6186/IJIMS.2018.29.1.2.) o crean indicadores alternativos (Pandiella-Dominique y otros, 2018Pandiella-Dominique, A.; Moreno-Lorente, L.; García-Zorita, C.; Sanz-Casado, E. (2018). Model for estimating Academic Ranking of World Universities (Shanghai Ranking) scores. Revista Española de Documentación Científica, 41 (2), e204. https://doi.org/10.3989/redc.2018.2.1462.). No obstante, ninguno de los rankings internacionales más conocidos evalúa la transferencia de conocimiento. Incluso, en el pasado han sido criticados por ser relativamente simplistas y difícilmente reproducibles (Florian, 2007Florian, R.V. (2007). Irreproducibility of the results of the Shanghai Academic Ranking of World Universities. Scientometrics, 72 (1), 25-32. https://doi.org/10.1007/s11192-007-1712-1.). El U-multirank (2015U-Multirank (2015). Methodology: The Project. Disponible en: https://www.umultirank.org/about/methodology/our-approach/ [Fecha de consulta: 08/05/2015].) es, probablemente, la excepción más destacada porque considera algunos aspectos de la transferencia de conocimiento aunque mantiene un enfoque muy económico. A nivel español, el ranking de la Fundación Conocimiento y Desarrollo (FCyD), ranking CYD, se asemeja al U-multirank y también emplea indicadores relativos a la transferencia de conocimiento.

El estudio que se presenta en este artículo parte del concepto de la Triple-Hélice, es decir de la necesidad de que los agentes sociales interactúen para que se produzca la transferencia de conocimiento y se genere innovación. El objetivo principal es evaluar la transferencia de conocimiento e innovación. En particular, se evalúa la situación de las universidades españolas pertenecientes a la Conferencia de Rectores de Universidades Españolas (CRUE) respecto a la red que generan, conjuntamente, mediante la interacción con otras instituciones, ya sean nacionales o internacionales. Además, se comparan también los resultados del estudio con la clasificación de las universidades españolas en los rankings internacionales más conocidos para, como objetivo secundario, observar si los indicadores empleados para evaluar la red también podrían ser utilizados en los rankings de universidades.

 

2. METODOLOGÍA Top

Los datos empleados para este estudio son los metadatos procedentes de los artículos publicados en revistas científicas y de las patentes otorgadas por la Oficina Española de Patentes y Marcas en el año 2015. El objetivo principal es evaluar la transferencia de conocimiento e innovación a partir de la red generada por estos metadatos.

Los artículos científicos se han seleccionado siguiendo dos condicionantes: a) que participen al menos dos autores y que al menos uno de los autores esté afiliado a una universidad española perteneciente a la CRUE y b) que la revista esté indexada en Scopus. Se ha elegido Scopus en vez de su competidora, la Web of Knowledge (WoK), porque la primera ofrece una visión más completa de la producción científica. Esto es debido a queυ la WoK es muy restrictiva, hasta el punto de no incluir revistas científicas de reconocido prestigio (Liaw y otros, 2014Liaw, Y.C.; Chan, T.Y.; Fan, C.Y.; Chiang, C.H. (2014). Can the technological impact of academic journals be evaluated? The practice of non-patent reference (NPR) analysis. Scientometrics, 10 (1), 17-37. https://doi.org/10.1007/s11192-014-1337-0.).

Respecto a las patentes, el único requisito es que haya dos solicitantes y al menos uno de los solicitantes esté afiliado a una universidad española. Aquellos artículos y patentes en los que los autores, o solicitantes, pertenecen a la misma institución o ninguna de las instituciones es una universidad española no han sido empleados para el análisis.

La metodología empleada en este estudio es el análisis de redes sociales. En concreto, el análisis se centra en el cómputo de las centralidades de cada nodo en la red generada por las universidades españolas. La red se genera a partir de las afiliaciones de los autores de los artículos científicos y de los solicitantes (o los solicitantes mismos) de patentes. De este modo, en un artículo en el que aparecen dos autores de dos instituciones distintas se establece que existe una colaboración entre ambas instituciones. Además, se considera que la concesión de subvenciones y/o financiación por parte de instituciones, tanto públicas como privadas, es también representativa de colaboración. Así, se explicita la sinergia de los tres principales agentes necesarios para la transferencia de conocimiento e innovación (Ranga y Etzkowitz, 2013Ranga, M.; Etzkowitz, H. (2013). Triple Helix Systems: An analytical framework for innovation policy and practice in the knowledge society. Industry and Higher Education, 27 (4), 237-262. https://doi.org/10.5367/ihe.2013.0165.). Este proceso se hace de forma análoga con las patentes pero integrando los datos con los obtenidos de los artículos científicos. De esta forma, se obtiene una matriz simétrica con ceros en la diagonal y cuyos valores representan la intensidad de la colaboración entre cada par de instituciones. Con dicha matriz se genera una red en la que los nodos representan las instituciones y los ejes que conectan los nodos representan la colaboración entre dichas instituciones.

Una vez montada la red se han calculado las centralidades de los nodos, es decir, de las instituciones presentes en la red. En concreto, se han calculado la centralidad de grado, la intermediación y la centralidad de vector propio. La centralidad de grado es el número total de conexiones de un nodo respecto al máximo de conexiones que podría tener. Se puede emplear para representar cuán popular es una institución respecto al resto de instituciones presentes en la red. La intermediación cuantifica el número de veces que un nodo está presente en el camino más corto entre dos nodos de la red. Esto significa que para calcularla es necesario obtener el camino más corto de todos los pares de nodos de la red. La intermediación puede ser interpretada como la influencia de una institución en la red. Cuantas más veces aparezca una institución en el camino más corto, más pronto recibirá el conocimiento y más esencial será en su transmisión. La centralidad de vector propio es similar al algoritmo PageRank de Google de forma que los nodos conectados con nodos más importantes en la red obtienen una puntuación mayor. La centralidad de vector propio puede ser empleada para representar la conexión con instituciones líderes. Todo el proceso de filtrado y generación de la red, así como el posterior análisis, se han realizado con Python. Las expresiones I-IV muestran cómo calcular las centralidades mencionadas.

Expresión I. Centralidad de grado.

 

En la expresión I, CD(ni) es la centralidad de grado, d(ni) es el número de conexiones de un nodo y g es el número de nodos presentes en la red (Freeman, 1979Freeman, L.C. (1979). Centrality in social networks conceptual clarification. Social Networks, 1 (3), 215-239. https://doi.org/10.1016/0378-8733(78)90021-7.).

Expresión II. Intermediación.

 

Donde CB(υ) es la intermediación, σst es el número total de caminos más cortos del nodo s al nodo t y σst(υ) es el número de esos caminos que pasan por el nodo υ (Brandes, 2001Brandes, U. (2001). A faster algorithm for betweenness centrality. Journal of Mathematical Sociology, 25, 163-177. https://doi.org/10.1080/0022250X.2001.9990249.).

La centralidad de vector propio para una red G con |V| vertíces G:=(V,E) y una matriz adyacente A(av,t) puede ser definida como (Newman, n.d.Newman, M. E. J. (n.d.). The mathematics of networks. Disponible en: http://www-personal.umich.edu/~mejn/papers/palgrave.pdf [Fecha de consulta:20/09/2107].):

Expresión III. Centralidad del vector propio.

 

Donde λ es una constante (eigenvalues). Se deduce, en notación de vector la ecuación del vector de valor propio:

Expresión IV. Ecuación de vector de valor propio.

 

Los rankings internacionales de universidades tienen como objetivo servir de guía para los estudiantes, profesores e investigadores y para los gobiernos (Boulton, 2011Boulton, G. (2011). University Rankings: Diversity, Excellence, and the European Initiative. Procedia Social and Behavioral Sciences, 13, 74-82. https://doi.org/10.1016/j.sbspro.2011.03.006.; Stergiou y Lessenich, 2014Stergiou, K.I.; Lessenich, S. (2014). On impact factors and university rankings: from birth to boycott. Ethics in Science and Environmental Politics, 13 (2), 101-111. https://doi.org/10.3354/esep00141.;). Existen multitud de rankings pero los considerados más conocidos son el Times Higher Education World University Ranking (TWUR, 2015Times Higher Education World University Ranking (2015). World University Rankings 2014-2015 methodology. Disponible en: https://www.timeshighereducation.co.uk/world-university-rankings/2014-15/subject-ranking/subject/engineering-and-IT/methodology [Fecha de consulta: 05/05/2015].), el Academic Ranking of World Universities (ARWU, 2015Academic Ranking of World Universities (2015). Methodology. Disponible en: http://www.shanghairanking.com/ARWU-Methodology-2014.html [Fecha de consulta: 05/05/2015].) también conocido como Shanghai Ranking y el QS University Ranking (2015QS Staff Writer (2015). QS World University Rankings: Methodology. Disponible en: http://www.topuniversities.com/university-rankings-articles/world-university-rankings/qs-world-university-rankings-methodology?page=1 [Fecha de consulta: 05/05/2015].). La metodología de cada uno de los rankings se ha resumido en la tabla I.

Tabla I. Resumen de las metodologías de los Rankings Internacionales de Universidades

Resumen de las metodologías de los Rankings Internacionales de Universidades

[Descargar tamaño completo]

 

Sin embargo, los rankings son muy criticados y parece haber un consenso generalizado en el mundo académico (Stergiou y Lessenich, 2014Stergiou, K.I.; Lessenich, S. (2014). On impact factors and university rankings: from birth to boycott. Ethics in Science and Environmental Politics, 13 (2), 101-111. https://doi.org/10.3354/esep00141.) respecto a la falta de rigor y al peso excesivo de la investigación en estos rankings. Uno de los aspectos principales que fundamenta el rechazo generalizado es el uso de un indicador compuesto (Boulton, 2011Boulton, G. (2011). University Rankings: Diversity, Excellence, and the European Initiative. Procedia Social and Behavioral Sciences, 13, 74-82. https://doi.org/10.1016/j.sbspro.2011.03.006.; Johnes, 2018Johnes, J. (2018). University rankings: What do they really show?. Scientometrics, 115 (1), 585-606. https://doi.org/10.1007/s11192-018-2666-1.) que, según los rankings, representa fidedignamente una amalgama de variables que evalúan la calidad y el rendimiento de las universidades. Esto lleva a interpretaciones simplistas que además son difundidas mediante el altavoz de los medios de comunicación generalistas. También es cierto que las universidades mismas se hacen eco de los buenos resultados en los rankings y los utilizan como herramientas de marketing o los critican cuando no les favorecen. Por ejemplo, Patricia McGuire, presidenta de la Trinity University en Washington DC (Estados Unidos) llegó a comentar que los rankings son el “equivalente al proceso de votación de Operación Triunfo” (Stergiou y Lessenich, 2014Stergiou, K.I.; Lessenich, S. (2014). On impact factors and university rankings: from birth to boycott. Ethics in Science and Environmental Politics, 13 (2), 101-111. https://doi.org/10.3354/esep00141.) y recomendó a sus colegas de profesión tirar los rankings a la basura. No obstante, la realidad es que los rankings han llegado para quedarse.

Debido a las problemáticas presentadas, se creó un ranking alternativo, el U-multirank, que huye de clasificaciones absolutas y aspira a comparar únicamente universidades de características similares. Además, elimina el indicador compuesto en favor de una serie de indicadores agrupados en cinco temas. Precisamente, uno de los temas presentes es el de la transferencia de conocimiento. Los indicadores empelados para evaluar la transferencia de conocimiento en el U-multirank son:

  • Porcentaje de publicaciones científicas en las que al menos un autor está afiliado al sector privado.

  • Volumen de ingresos provenientes del sector privado.

  • Número absoluto de patentes otorgadas.

  • Número de patentes otorgadas relativo al tamaño de la universidad.

  • Patentes otorgadas conjuntamente con el sector privado.

  • Número de empresas creadas en el seno de la universidad.

  • Porcentaje de publicaciones científicas de la universidad citadas en patentes.

  • Porcentaje de ingresos provenientes de la formación continua respecto del total de ingresos de la universidad.

  • Número de empresas creadas por antiguos alumnos de la universidad. Valor relativo por cada 1000 alumnos.

Asimismo, el ranking de la FCyD, el ranking CYD, también proporciona resultados relativos, resultantes de la comparación entre universidades, en lugar de un ranking absoluto. En este caso, la sección de transferencia de conocimiento muestra, a través de sus indicadores, un intento de medir la innovación teniendo en cuenta la interacción entre varios agentes sociales, como en el modelo de la Triple Hélice. Concretamente, emplea los siguientes indicadores:

  • Fondos privados

  • Publicaciones con empresas

  • Patentes concedidas por profesor

  • Patentes con empresas

  • Ingresos por licencias

  • Spin-offs

  • Publicaciones citadas en patentes

  • Ingresos de formación continua

Sin embargo, los indicadores empleados actualmente tanto por el U-multirank y el ranking CYD, la mayoría de indicadores se centran en el volumen de patentes registradas y de publicaciones con el sector privado y en el volumen de ingresos. La excepción es el volumen de empresas (o Spin-offs) creadas. Por tanto, en ambos casos los indicadores parecen ajustarse mejor al triángulo del conocimiento (educación, investigación, empresa) que al modelo de la Triple-Hélice (universidad, empresa, gobierno) o al de la Quadruple Hélice (universidad, empresa, gobierno, sociedad civil). Es por ello que, además del análisis de la red de innovación para la transferencia de conocimiento en España, en este estudio se comparan también los resultados de dicho análisis con la clasificación de las universidades en los rankings internacionales. De este modo, se pretende explorar, como objetivo secundario, la potencialidad del uso del análisis de redes sociales para obtener indicadores representativos del modelo Triple Hélice que puedan ser empleados en rankings de universidades nacionales y/o internacionales.

 

3. RESULTADOS Top

Los datos recopilados (Tabla II) incluyen los metadatos de un total de 34.360 artículos publicados en revistas científicas indexadas en Scopus y de un total de 28.546 patentes otorgadas por la Oficina Española de Patentes y Marcas en el año 2015. La gran mayoría de los artículos indexados en Scopus son publicados por dos o más autores afiliados a instituciones distintas, concretamente, 34.275 de los 34.360 artículos iniciales. Los artículos con financiación son únicamente 1.527, es decir, un 4,4% del total. En la gran mayoría de estos, en 1.525, participan dos o más autores de instituciones distintas.

Tabla II. Resumen de Datos Recopilados

Resumen de Datos Recopilados

[Descargar tamaño completo]

 

En aquellos artículos en los que existe una colaboración entre autores la media de autores es de 5,13 mientras que la mediana es de 4 autores por documento. La desviación estándar presenta un valor de 13,53 y el coeficiente de variación es 2,64. Estos valores se ven afectados por aquellos documentos con muchos autores, llegando al máximo de 511 autores para un único artículo científico. En este caso particular, la elevada desviación estándar sugiere que la mediana es más representativa.

De las 28.546 patentes otorgadas por la Oficina Española de Patentes y Marcas, únicamente 772 patentes tienen solicitantes de dos o más instituciones distintas, es decir, un 2.7% del total de patentes otorgadas en el año 2015. Además, las universidades de la CRUE aparecen explícitamente como solicitantes en colaboración con uno o más solicitantes en 243 patentes, es decir, un 0.85% del total de patentes otorgadas en España en el año 2015.

En aquellas patentes en las que existe una colaboración entre solicitantes de distintas instituciones la media de autores es de 2,28 mientras que la mediana es de 2 solicitantes por patente. La desviación estándar presenta un valor de 0,86 y el coeficiente de variación es de 0,35 con un máximo de 15 solicitantes por patente. Tomando únicamente las patentes en las que participa alguna universidad CRUE la media de solicitantes por patente aumenta ligeramente hasta tomar un valor de 2,34 solicitantes por patente mientras que la mediana se mantiene en 2 solicitantes por patente. La desviación estándar y el coeficiente de variación disminuyen ligeramente tomando valores de 0,75 y 0,32 respectivamente con un máximo de 7 solicitantes por patente.

La combinación de todos los metadatos obtenidos (Tabla III) conectando las instituciones (nodos) con otras instituciones a través de enlaces (ejes) según las colaboraciones presentes en cada documento forma una red con 10.238 nodos y 869.728 ejes. El coeficiente de clustering cercano a 1 indica que la red está muy interconectada. Esto también se percibe por los valores del camino más corto medio y del diámetro de la red, 2,75 y 7 respectivamente.

Tabla III. Características de la red

Características de la red

[Descargar tamaño completo]

 

La representación gráfica de la distribución de colaboraciones (Figura 1) muestra que la intensidad de las colaboraciones es, generalmente, baja. Es decir, cada par de instituciones colabora pocas veces. Sin embargo, existe una minoría de pares de instituciones que tienen una colaboración muy intensa con más de 100 colaboraciones en un único año. Es el caso, por ejemplo, de la Universidad Politécnica de Valencia y la Universidad de Valencia.

Figura 1. Distribución de la intensidad de las colaboraciones (según el volumen de colaboraciones) entre pares de instituciones

Distribución de la intensidad de las colaboraciones (según el volumen de colaboraciones) entre pares de instituciones

[Descargar tamaño completo]

 

Los resultados del análisis de la red generada por las universidades agrupados por la comunidad autónoma en la que se encuentra cada universidad se muestran numéricamente en la tabla IV, y gráficamente, tomando como valor de referencia la centralidad de grado, en la figura 2. En estos resultados se observa que hay diez universidades con una centralidad de grado mayor a 0.1 y, únicamente, la Universidad Autónoma de Barcelona, la Universidad de Barcelona, la Universidad Complutense de Madrid y la Universidad Autónoma de Madrid tienen un grado de centralidad mayor a 0.16. Sin embargo, las universidades con mayor grado de centralidad no coinciden con las universidades con mayor intermediación. En este caso, las universidades con mayor intermediación son la Universidad Autónoma de Barcelona, la Universidad Politécnica de Valencia y la Universidad Politécnica de Cataluña, que son las únicas que tienen valores mayores a 0.05. Los resultados obtenidos para la centralidad de vector propio no coinciden con la centralidad de grado ni con la intermediación. Las únicas universidades que sobrepasan el valor 0.05 en centralidad de vector propio son la Universidad de Valencia, que es la que tiene el valor más alto, seguida muy de cerca por la Universidad de Barcelona.

Tabla IV. Resultados del análisis de la red de las universidades españolas en 2015

Resultados del análisis de la red de las universidades españolas en 2015

[Descargar tamaño completo]

 

Figura 2. Resultados del análisis de la red de las universidades españolas en 2015 tomando como referencia la centralidad de grado

Resultados del análisis de la red de las universidades españolas en 2015 tomando como referencia la centralidad de grado

[Descargar tamaño completo]

 

La comparación gráfica de los resultados en conjunto muestra varias universidades con picos invertidos en intermediación y centralidad de vector propio, aunque la dimensión de los picos varía en cada caso específico. Hay un primer grupo de universidades formado por la Universidad de Barcelona, la Universidad de Valencia, la Universidad de Extremadura y la Universidad de Cantabria que tienen valores de centralidad de vector propio mucho más altos que los valores de intermediación. Es decir, están muy bien conectadas a instituciones influyentes, pero dichas universidades no son necesariamente influyentes en la red. También existe otro grupo más extenso en la situación opuesta, con altos valores de intermediación respecto a sus valores de centralidad de vector propio. Este segundo grupo está formado por la Universidad Autónoma de Barcelona, la Universidad Complutense de Madrid, la Universidad Autónoma de Madrid, la Universidad Pompeu Fabra, la Universidad Politécnica de Valencia, la Universidad de Catalunya y la Universidad Politécnica de Madrid. En este caso, estas universidades son más influyentes de lo que cabría esperar observando únicamente la importancia en la red de las instituciones con las que colaboran.

El ranking que se obtendría de la evaluación de las universidades mediante las centralidades de la red española de transferencia de conocimiento e innovación que generan las universidades en su conjunto varía según el tipo de centralidad que se elija: centralidad de grado, intermediación o centralidad de vector propio. Además, la comparación de estos hipotéticos rankings con los rankings internacionales de universidades más conocidos (Tablas V, VI y VII) muestra que se producen ciertas variaciones que pueden ser útiles para mejorar la evaluación de la transferencia de conocimiento e innovación de las universidades.

En el caso de tomar la centralidad de grado como referencia (Tabla V), las universidades que aparecen en las mejores posiciones de los rankings internacionales mantendrían posiciones similares con variaciones muy pequeñas.

Tabla V. Ranking por centralidad de grado versus rankings internacionales

Ranking por centralidad de grado versus rankings internacionales

[Descargar tamaño completo]

 

No es el caso de la intermediación (Tabla VI). Tomando la intermediación como referencia las universidades sufren un cambio de posición muy marcado. En este segundo caso, la Universidad Politécnica de Valencia y la Universidad Politécnica de Catalunya suben a las posiciones 2 y 3 del ranking desde las posiciones 9 y 7 respectivamente. Así mismo, la Universidad de Granada sube cinco posiciones. Estas mejoras se producen en detrimento de universidades tales como la Universidad de Barcelona que baja hasta la posición 8 desde la primera posición en los rankings QS y AWRU, o la Universidad Pompeu Fabra que baja a la séptima posición en el ranking de intermediación desde la primera posición en el TWRU.

Tabla VI. Ranking por intermediación versus rankings internacionales

Ranking por intermediación versus rankings internacionales

[Descargar tamaño completo]

 

En el caso del ranking por centralidad de vector propio (Tabla VII) también se producen algunos cambios aunque, por lo general, menos pronunciados. El cambio más significativo en este caso es la subida a la primera posición de la Universidad de Valencia desde la quinta posición el ranking TWRU pero que en el QS ostenta la posición 14. También cabe destacar que la Universidad de Barcelona mantiene la misma posición que en el TWRU y únicamente baja una plaza según el QS y el AWRU.

Tabla VII. Ranking por centralidad de vector propio versus rankings internacionales

Ranking por centralidad de vector propio versus rankings internacionales

[Descargar tamaño completo]

 

 

4. DISCUSIÓN Top

El conjunto de datos obtenidos de Scopus y de la Oficina Española de Patentes y Marcas (tabla II) indica que únicamente un pequeño porcentaje del conjunto de la producción científica y de la creación de patentes recibe financiación, ya sea pública o privada. Este es uno de los campos que aparece en muchos rankings de universidades. Además, la mayoría de las patentes son otorgadas a solicitantes individuales, generalmente empresas, aunque tengan varios autores. Sin embargo, tanto el volumen de financiación, para investigación o para patentes, como el número de patentes creadas son indicadores habituales para evaluar la transferencia de conocimiento y la innovación. Es el caso, por ejemplo, del U-multirank o el ranking CYD. No obstante, empleando dichos indicadores, las sinergias de la innovación quedan fuera de toda evaluación pues no se incluye la participación del gobierno, que, con sus políticas y partidas de financiación, puede influir sustancialmente (Pietrucha, 2018Pietrucha, J. (2018). Country-specific determinants of world university rankings. Scientometrics, 114 (3), 1129-1139. https://doi.org/10.1007/s11192-017-2634-1 .) en la transferencia de conocimiento. Por tanto, el resumen de los datos iniciales es, en sí mismo, una justificación suficiente para investigar otros métodos alternativos o, como mínimo, complementarios a los ya existentes.

La comparación de los rankings internacionales de universidades con rankings hipotéticos según las centralidades de las universidades muestra divergencias muy significativas en el caso de la intermediación y algo menos significativas, pero merecedoras de atención, en el caso de la centralidad de vector propio. Estos valores podrían ser interpretados como el nivel de influencia de una universidad y su nivel de conectividad con instituciones líderes. Particularmente, el indicador de influencia es significativo pues a mayor influencia mayor volumen de conocimiento y a más velocidad pasa a través de una determinada universidad, convirtiéndola así en un elemento esencial de la red de innovación. No obstante, la conectividad con instituciones líderes también es importante, pero lo es más para aquellas instituciones con menor influencia.

Los resultados muestran que la Universidad Autónoma de Barcelona es la que está mejor situada en la red de innovación española y es, además, la más influyente mientras que la Universidad de Valencia es la que mejores contactos tiene con instituciones líderes a nivel tanto nacional como internacional. Cabe destacar que la Universidad Politécnica de Valencia se sitúa muy cerca de la Universidad Autónoma de Barcelona. La diferencia ocurre únicamente en el quinto decimal, por lo que se podría decir que ambas ostentan el mismo nivel de influencia. Esto significa que la información científica se transmite más rápido a través de estas dos universidades. No obstante, La Universidad Politécnica de Catalunya y la Universidad Complutense de Madrid también presentan altos niveles de influencia.

Los resultados de este estudio proveen de información con mucho valor añadido tanto a las universidades como a las empresas e instituciones gubernamentales. Las universidades pueden mejorar la toma de decisiones y priorizar ciertos aspectos sobre otros. Por ejemplo, universidades con poca influencia pueden intentar mejorarla colaborando con instituciones líderes. Las empresas, pueden decidir asociarse con aquellas universidades con mayor centralidad de grado para que su producto llegue al mayor número de clientes posibles o pueden elegir asociarse con una universidad muy influyente para beneficiarse de la mayor velocidad de transferencia de conocimiento. En el caso de las instituciones gubernamentales, la información obtenida a partir de un estudio de este tipo puede ser muy útil para financiar a las universidades según los objetivos de mejora de las distintas centralidades e incluso para evaluarlas de forma relativa a su situación particular dentro de la red generada por el conjunto de universidades.

Por último, cabe destacar que los datos disponibles libremente son limitados. Un ciudadano, a día de hoy, no tiene acceso a los detalles de los acuerdos de las universidades públicas con otras universidades, sean españolas o no, con institutos de investigación o con empresas pues son considerados datos estratégicos. En su lugar, las universidades presentan datos absolutos tales como el número total de acuerdos. Esto dificulta que se mejore el nivel de detalle de este tipo de análisis.

 

5. CONCLUSIONES Top

En este estudio se ha evaluado la transferencia de conocimiento a partir de la red generada por la colaboración entre universidades, empresas y gobierno presente en artículos científicos y patentes.

A través de un análisis de redes se ha obtenido el grado de conectividad de cada universidad española perteneciente a la CRUE, su grado de influencia y su grado de conectividad con instituciones líderes en innovación y transferencia de conocimiento. Además, se comparan los resultados obtenidos con los rankings internacionales para observar si el grado de conectividad o influencia de una universidad determinada se corresponde con su posición en los rankings internacionales.

La conclusión más significativa de este estudio es que el método empleado podría mejorar sustancialmente la evaluación de la transferencia de conocimiento e innovación de las universidades tanto para la toma de decisiones como para la generación de indicadores destinados a la evaluación de las universidades y la creación de rankings nacionales y/o internacionales. Concretamente, se propone que las centralidades de grado, de intermediación y de vector propio de las universidades, en la red que generan, se añadan como indicadores a la sección de evaluación de la transferencia de conocimiento del U-multirank y el ranking CYD. De este modo, se reflejaría la evaluación de las sinergias de la innovación (modelo Triple-Hélice) de forma más explícita sin que ello alterase la naturaleza del ranking y simultáneamente incrementando sustancialmente su valor añadido. Otros rankings podrían también emplear este tipo de análisis para ir más allá del número de citas, el número de patentes, o el volumen de financiación que no dejan de ser indicadores relativamente simplistas.

Como se comenta en la sección de discusión, las universidades, empresas e instituciones gubernamentales también son potencialmente beneficiarias de este tipo de análisis. No obstante, es imperativo que los datos que poseen las universidades sean libremente accesibles para poder incluir más variables de colaboración en estudios futuros y que, de este modo, los resultados se ajusten mejor a la realidad.

 

6. AGRADECIMIENTOSTop

Este trabajo ha sido financiado por la Namseoul University en Cheonan, Corea del Sur.

AKNOWLEDGEMENTS

Funding for this paper was provided by Namseoul University in Cheonan, South Korea.

 

7. REFERENCIASTop

Academic Ranking of World Universities (2015). Methodology. Disponible en: http://www.shanghairanking.com/ARWU-Methodology-2014.html [Fecha de consulta: 05/05/2015].
Bathelt, H.; Malmberg, A.; Maskell, P. (2004). Clusters and knowledge: local buzz, global pipelines and the process of knowledge creation. Progress in Human Geography, 28 (1), 31-56. https://doi.org/10.1191/0309132504ph469oa
Boulton, G. (2011). University Rankings: Diversity, Excellence, and the European Initiative. Procedia Social and Behavioral Sciences, 13, 74-82. https://doi.org/10.1016/j.sbspro.2011.03.006
Brandes, U. (2001). A faster algorithm for betweenness centrality. Journal of Mathematical Sociology, 25, 163-177. https://doi.org/10.1080/0022250X.2001.9990249
Brems, B.; Button, K.; Munafo, M. (2013). Deep impact: unintended consequences of journal rank. Frontiers in Human Neuroscience, 7. https://doi.org/10.3389/fnhum.2013.00291
Chang, F. P. (2018). Trend models on the academic ranking of world universities. International Journal of Information and Management Sciences, 29 (1), 35-56. https://doi.org/10.6186/IJIMS.2018.29.1.2
Chou, C.P.; Lin, H.F.; Chiu, Y. (2013). The impact of SSCI and SCI on Taiwan’s academy: an outcry for fair play. Asia Pacific Education Review, 14 (1), 23-31. https://doi.org/10.1007/s12564-013-9245-1
Choudhri, A.F.; Siddiqui, A.; Khan, N.R.; Cohen, H.L. (2015). Understanding bibliometric parameters and analysis. Radiographics, 35 (3), 736-746. https://doi.org/10.1148/rg.2015140036
Daraio, C. (2008). Current developments in Third Mission indicator development: the needs from academia. Workshop Third Mission Approaches and Indicators: The way forward, Valencia, Spain. Disponible en: http://www.ingenio.upv.es/sites/default/files/otros_seminarios/dar_pres.pdf [Fecha de consulta: 22/06/2016].
European Commission (2011). Supporting growth and jobs – an agenda for the modernization of Europe’s higher education systems, Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions {SEC(2011) 1063 final}. Disponible en: http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=COM:2011:0567:FIN:EN:PDF [Fecha de consulta: 20/06/2016].
European Commission (2014). Horizon 2020 in brief. The EU Framework Programme for Research & Innovation. Luxembourg: Publications Office of the European Union. Disponible en: https://ec.europa.eu/programmes/horizon2020/sites/horizon2020/files/H2020_inBrief_EN_FinalBAT.pdf [Fecha de consulta: 20/06/2016].
Florian, R.V. (2007). Irreproducibility of the results of the Shanghai Academic Ranking of World Universities. Scientometrics, 72 (1), 25-32. https://doi.org/10.1007/s11192-007-1712-1
Freeman, L.C. (1979). Centrality in social networks conceptual clarification. Social Networks, 1 (3), 215-239. https://doi.org/10.1016/0378-8733(78)90021-7
Johnes, J. (2018). University rankings: What do they really show?. Scientometrics, 115 (1), 585-606. https://doi.org/10.1007/s11192-018-2666-1
Leydesdorff, L. (2012). The triple helix, quadruple helix, …, and N-tuple of helices Helix, Quadruple Helix,…, and an N-tuple of Helices: Explanatory models for analyzing the knowledge-base economy?. Journal of the Knowledge Economy, 3 (1), 25-35. https://doi.org/10.1007/s13132-011-0049-4
Leydesdorff, L. (2013). An evaluation of impacts in “Nanoscience & nanotechnology”: steps towards standards for citation analysis. Scientometrics, 94 (1), 35-55. https://doi.org/10.1007/s11192-012-0750-5
Liaw, Y.C.; Chan, T.Y.; Fan, C.Y.; Chiang, C.H. (2014). Can the technological impact of academic journals be evaluated? The practice of non-patent reference (NPR) analysis. Scientometrics, 10 (1), 17-37. https://doi.org/10.1007/s11192-014-1337-0
Newman, M. E. J. (n.d.). The mathematics of networks. Disponible en: http://www-personal.umich.edu/~mejn/papers/palgrave.pdf [Fecha de consulta:20/09/2107].
Nielsen, K. (2015). Human capital and new venture performance: the industry choice and performance of academic entrepreneurs. Journal of Technology Transfer, 40 (3), 453-474. https://doi.org/10.1007/s10961-014-9345-z
Pandiella-Dominique, A.; Moreno-Lorente, L.; García-Zorita, C.; Sanz-Casado, E. (2018). Model for estimating Academic Ranking of World Universities (Shanghai Ranking) scores. Revista Española de Documentación Científica, 41 (2), e204. https://doi.org/10.3989/redc.2018.2.1462
Pietrucha, J. (2018). Country-specific determinants of world university rankings. Scientometrics, 114 (3), 1129-1139. https://doi.org/10.1007/s11192-017-2634-1
QS Staff Writer (2015). QS World University Rankings: Methodology. Disponible en: http://www.topuniversities.com/university-rankings-articles/world-university-rankings/qs-world-university-rankings-methodology?page=1 [Fecha de consulta: 05/05/2015].
Ranga, M.; Etzkowitz, H. (2013). Triple Helix Systems: An analytical framework for innovation policy and practice in the knowledge society. Industry and Higher Education, 27 (4), 237-262. https://doi.org/10.5367/ihe.2013.0165
Rossi, F.; Rosli, A. (2015). Indicators of university-industry knowledge transfer performance and their implications for universities: evidence from the United Kingdom. Studies in Higher Education, 40 (10), 1970-1991. https://doi.org/10.1080/03075079.2014.914914
Stergiou, K.I.; Lessenich, S. (2014). On impact factors and university rankings: from birth to boycott. Ethics in Science and Environmental Politics, 13 (2), 101-111. https://doi.org/10.3354/esep00141
Times Higher Education World University Ranking (2015). World University Rankings 2014-2015 methodology. Disponible en: https://www.timeshighereducation.co.uk/world-university-rankings/2014-15/subject-ranking/subject/engineering-and-IT/methodology [Fecha de consulta: 05/05/2015].
U-Multirank (2015). Methodology: The Project. Disponible en: https://www.umultirank.org/about/methodology/our-approach/ [Fecha de consulta: 08/05/2015].


Copyright (c) 2019 Consejo Superior de Investigaciones Científicas (CSIC)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento 4.0 Internacional.


Contacte con la revista redc.cchs@cchs.csic.es

Soporte técnico soporte.tecnico.revistas@csic.es