ESTUDIOS / RESEARCH STUDIES

PORCENTAJE DE ARTÍCULOS ALTAMENTE CITADOS: UNA MEDIDA COMPARABLE DEL IMPACTO DE REVISTAS ENTRE CAMPOS CIENTÍFICOS

Sara M. González-Betancor*, Pablo Dorta-González*

* Universidad de Las Palmas de Gran Canaria, Departamento de Métodos Cuantitativos en Economía y Gestión

sara.gonzalez@ulpgc.es

 

RESUMEN

Actualmente, los dos indicadores bibliométricos más empleados en la evaluación de revistas científicas son el índice de impacto y el índice h. Sin embargo, ambos indicadores dependen fuertemente del campo científico, lo que los hace no comparables entre campos. Además, el índice de impacto no es robusto a la presencia de artículos con un gran número de citas, mientras que el índice h depende del tamaño de la revista. Estas limitaciones a la hora de comparar revistas de diferentes tamaños y campos hace necesario considerar al mismo tiempo otros indicadores de impacto para revistas que sí puedan ser comparables entre campos, no dependan del tamaño de la revista y sean además robustos a la presencia de artículos con un elevado número de citas. Una alternativa es el porcentaje de artículos altamente citados en cada revista. En este trabajo se compara empíricamente este indicador con el índice de impacto y el índice h, y se analizan diferentes arcos temporales y cotas para que un documento pueda ser considerado altamente citado en comparación con otros del mismo año y campo. Como principal resultado se obtiene que un percentil del 20% y una ventana de citación de tres años producen distribuciones de datos más comparables entre campos científicos.

PERCENTAGE OF HIGHLY CITED ARTICLES: A COMPARABLE MEASURE OF JOURNALS’ IMPACT BETWEEN DISCIPLINES

ABSTRACT

Currently the two most used bibliometric indicators for evaluating scholarly journals are the impact factor and the h-index. However, both indicators vary heavily depending on the scientific field, restricting comparability. In addition, the impact factor is not robust in dealing with articles with a large number of citations, while the h-index is dependent on the size of the journal. These limitations, when comparing journals of different sizes and fields, make it necessary to look to other journal impact factors that can be comparable between scientific fields, that are independent of the journal size, and that are also robust in the presence of items with a high number of citations. An alternative index is based on the percentage of highly cited articles in a journal. This paper empirically compares such an index with the impact factor and the h-index by using different time windows and levels of citation that can determine when a document can be considered as highly cited compared to others of the same year and discipline. The main outcome of this comparison suggests that the best index for obtaining data distributions that are comparable between scientific fields is by taking the 20% citation percentile over a three-year time frame for considering citations.

Recibido: 13-10-2014; 2ª versión: 17-12-2014; Aceptado: 26-04-2015.

Cómo citar este artículo/Citation: González-Betancor, S.M.; Dorta-González, P. (2015). Porcentaje de artículos altamente citados: una medida comparable del impacto de revistas entre campos científicos. Revista Española de Documentación Científica, 38 (3): e092, doi: http://dx.doi.org/10.3989/redc.2015.3.1230

PALABRAS CLAVE: Evaluación de revistas; indicador bibliométrico; análisis de citas; factor de impacto; índice h; percentil de citación.

KEYWORDS: Journal evaluation; bibliometric indicator; citation analysis; impact factor; h-index; citation percentile.

Copyright: © 2015 CSIC. Este es un artículo de acceso abierto distribuido bajo los términos de la licencia Creative Commons Attribution-Non Commercial (by-nc) Spain 3.0.

CONTENIDOS

RESUMEN
ABSTRACT
1. INTRODUCCIÓN

2. PORCENTAJE DE ARTÍCULOS ALTAMENTE CITADOS

3. MATERIALES Y MÉTODOS

4. RESULTADOS

5. CONCLUSIONES

6. REFERENCIAS

 

1. INTRODUCCIÓN
 Top

La larga crisis económica que ha sufrido de manera especial España ha puesto sobre la mesa la necesidad de evaluar con mayor rigor el rendimiento de las instituciones científicas de nuestro país. Precisamente porque vivimos tiempos de crisis y recortes, resulta imperativo asegurar que los fondos dedicados a la ciencia se invierten adecuadamente y logran los objetivos que justifican su atribución. En este sentido, uno de los parámetros más frecuentemente empleados en la evaluación de la ciencia es la publicación en revistas de reconocido impacto científico. Pero, ¿cómo medir este impacto para no perjudicar a unos campos frente a otros a la hora de asignar estos recursos?


En la actualidad se utilizan frecuentemente dos familias de indicadores de impacto para revistas científicas. La primera de ellas es la de los índices de impacto, que consideran un promedio de citas por publicación para un censo y ventana de citación prefijados de antemano (Garfield, 1972Garfield, E. (1972). Citation analysis as a tool in journal evaluation. Science, 178 (4060), pp. 471-479, http://dx.doi.org/10.1126/science.178.4060.471.). En este grupo entrarían, entre otros, los factores de impacto a dos y cinco años de la base de datos Journal Citation Reports (JCR) de Thomson-Reuters (Althouse y otros, 2009Althouse, B. M.; West, J. D.; Bergstrom, C. T.; Bergstrom, T. (2009). Differences in impact factor across fields and over time. Journal of the American Society for Information Science and Technology, 60 (1), pp. 27-34, http://dx.doi.org/10.1002/asi.20936.; Bensman, 2007Bensman, S. J. (2007). Garfield and the impact factor. Annual Review of Information Science and Technology, 41 (1), pp. 93-155, http://dx.doi.org/10.1002/aris.2007.1440410110.; Bergstrom, 2007Bergstrom, C. (2007). Eigenfactor: Measuring the value and prestige of scholarly journals. College and Research Libraries News, 68 (5), p. 314.; Bornmann y Daniel, 2008Bornmann, L.; Daniel, H. D. (2008). What do citation counts measure? A review of studies on citing behavior. Journal of Documentation, 64 (1), pp. 45-80, http://dx.doi.org/10.1108/00220410810844150.; Moed y otros, 2012Moed, H. F.; Colledge, L.; Reedijk, J.; Moya-Anegon, F.; Guerrero-Bote, V.; Plume, A.; Amin, M. (2012). Citation-based metrics are appropriate tools in journal assessment provided that they are accurate and used in an informed way. Scientometrics, 92 (2), pp. 367-376, http://dx.doi.org/10.1007/s11192-012-0679-8.), el factor de impacto máximo (Dorta-González y Dorta-González, 2013cDorta-González, P.; Dorta-González, M. I (2013c). Impact maturity times and citation time windows: The 2-year maximum journal impact factor. Journal of Informetrics, 7 (3), pp. 593-602, http://dx.doi.org/10.1016/j.joi.2013.03.005.) y los índices de impacto SJR (González-Pereira y otros, 2009González-Pereira, B.; Guerrero-Bote, V. P.; Moya-Anegón, F. (2009). The SJR indicator: A new indicator of journals’ scientific prestige. Journal of Informetrics, 4 (3), pp. 379-391, http://dx.doi.org/10.1016/j.joi.2010.03.002.) y SNIP de la base de datos Scopus de Elsevier.

La segunda de estas familias de indicadores de impacto para revistas científicas es la de los índices h (Hirsch, 2005Hirsch, J. E. (2005). An index to quantify an individual’s scientific research output. Proceedings of the National Academy of Sciences, 102 (46), pp. 16569-16572, http://dx.doi.org/10.1073/pnas.0507655102.), que consideran aquel valor entero máximo h para el que se puede afirmar que existen h publicaciones con h o más citas, todo ello dentro de algún arco temporal fijado previamente. Este indicador h estima el número de trabajos importantes publicados por una revista, incrementando la exigencia a la vez que aumenta su valor. Se trata de un indicador robusto que considera al mismo tiempo aspectos cuantitativos y cualitativos o de visibilidad. No obstante, aunque este indicador ha demostrado su utilidad para detectar las revistas más destacadas en un área, existen evidencias empíricas de que no discrimina entre las situadas en niveles intermedios, y penaliza a las revistas selectivas frente a las grandes productoras (Costas y Bordons, 2007aCostas, R.; Bordons, M. (2007a). Una visión crítica del índice h: algunas consideraciones derivadas de su aplicación práctica. El profesional de la información, 16 (5), pp. 427-432, http://dx.doi.org/10.3145/epi.2007.sep.04.,b; Dorta-González y Dorta-González, 2011Dorta-González, P.; Dorta-González, M. I (2011). Central indexes to the citation distribution: A complement to the h-index. Scientometrics, 88 (3), pp. 729-745, http://dx.doi.org/10.1007/s11192-011-0453-3.; Egghe, 2013Egghe, L. (2013). Theoretical justification of the central area indices and the central interval indices. Scientometrics, 95 (1), pp. 25-34, http://dx.doi.org/10.1007/s11192-012-0803-9.).

Ambas familias de indicadores son útiles para comparar revistas del mismo campo. Sin embargo, no lo son tanto a la hora de comparar revistas de diferentes campos científicos (Van Raan y otros, 2010Van Raan, A. F. J.; Van Leeuwen, T. N.; Visser, M. S.; Van Eck, N. J.; Waltman, L. (2010). Rivals for the crown: Reply to Opthof and Leydesdorff. Journal of Informetrics, 4 (3), pp. 431-435, http://dx.doi.org/10.1016/j.joi.2010.03.008.; Wagner y otros, 2011Wagner, C.; Roessner, J. D.; Bobb, K.; Klein, J.; Boyack, K.; Keyton, J.; Rafols, I.; Börner, K. (2011). Approaches to understanding and measuring interdisciplinary scientific research (IDR): A review of the literature. Journal of Informetrics, 5 (1), pp. 14-26, http://dx.doi.org/10.1016/j.joi.2010.06.004.). En este sentido, existen patrones estadísticos que permiten su normalización. El promedio de referencias se ha empleado frecuentemente en la literatura en dicha normalización (Moed, 2010Moed, H. F. (2010). Measuring contextual citation impact of scientific journals. Journal of Informetrics, 4 (3), pp. 265-277, http://dx.doi.org/10.1016/j.joi.2010.01.002.; Zitt y Small, 2008Zitt, M.; Small, H. (2008). Modifying the journal impact factor by fractional citation weighting: The audience factor. Journal of the American Society for Information Science and Technology, 59 (11), pp. 1856-1860, http://dx.doi.org/10.1002/asi.20880.). Sin embargo, este promedio no se encuentra entre los estadísticos que explican en mayor medida la variabilidad de los indicadores (Dorta-González y Dorta-González, 2013aDorta-González, P.; Dorta-González, M. I (2013a). Comparing journals from different fields of science and social science through a JCR subject categories normalized impact factor. Scientometrics, 95 (2), pp. 645-672, http://dx.doi.org/10.1007/s11192-012-0929-9., 2013bDorta-González, P.; Dorta-González, M. I (2013b). Hábitos de publicación y citación según campos científicos: Principales diferencias a partir de las revistas JCR. Revista Española de Documentación Científica, 36 (4), en012 http://dx.doi.org/10.3989/redc.2013.4.1003.).

Tradicionalmente, la normalización también se ha basado en algún sistema de clasificación de revistas. Este es el caso, por ejemplo, de las categorías de revistas JCR (Egghe y Rousseau, 2002Egghe, L.; Rousseau, R. (2002). A general framework for relative impact indicators. Canadian Journal of Information and Library Science, 27 (1), pp. 29-48.) y de los indicadores normalizados según dichas clasificaciones como son la posición normalizada del factor de impacto (Bordons y Barrigón, 1992Bordons, M.; Barrigón, S. (1992). Bibliometric analysis of publications of Spanish pharmacologists in the SCI (1984-89). Part II. Contribution to subfields other than «Pharmacology Á Pharmacy» (ISI). Scientometrics, 25 (3), pp. 425-446, http://dx.doi.org/10.1007/bf02026479.) y el cuartil al que pertenece cada revista cuando se ordenan de forma decreciente según su factor de impacto. Sin embargo, la delimitación de los campos científicos, o sus especialidades, es un problema no resuelto convenientemente en la bibliometría, ya que estas delimitaciones son difusas en cada momento y se desarrollan dinámicamente en el tiempo (Leydesdorff, 2012Leydesdorff, L. (2012). Alternatives to the journal impact factor: I3 and the top-10% (or top-25%?) of the most-highly cited papers. Scientometrics, 92 (2), pp. 355-365, http://dx.doi.org/10.1007/s11192-012-0660-6.). Como alternativa, se ha propuesto la idea de normalización por la fuente. En esta aproximación, la normalización se realiza en función de las revistas citantes (Dorta-González y otros, 2014Dorta-González, P.; Dorta-González, M. I; Santos-Peñate, D. R.; Suárez-Vega, R. (2014). Journal topic citation potential and between-field comparisons: The topic normalized impact factor. Journal of Informetrics, 8 (2), pp. 406-418, http://dx.doi.org/10.1016/j.joi.2014.01.013.; Leydesdorff y Bornmann, 2011Leydesdorff, L.; Bornmann, L. (2011). How fractional counting of citations affects the Impact Factor: Normalization in terms of differences in citation potentials among fields of science. Journal of the American Society for Information Science and Technology, 62 (2), pp. 217-229, http://dx.doi.org/10.1002/asi.21450.).

Las dos familias de indicadores más empleados en la evaluación de revistas (factor de impacto e índice h) dependen fuertemente del campo científico, lo que las hace no comparables entre disciplinas. Además, el índice h también depende del tamaño de la revista, mientras que el factor de impacto no es consistente ante la presencia de un pequeño número de artículos muy citados. Estas limitaciones a la hora de comparar revistas de diferentes tamaños y campos, hace necesario considerar otros indicadores de impacto para revistas, que permitan realizar comparaciones entre campos, que no dependan del tamaño de la revista y que sean al mismo tiempo consistentes en el sentido indicado anteriormente (Waltman y Van Eck, 2013Waltman, L.; Van Eck, N. J. (2013). Source normalized indicators of citation impact: an overview of different approaches and an empirical comparison. Scientometrics, 96 (3), pp. 699-716, http://dx.doi.org/10.1007/s11192-012-0913-4.).

Una alternativa para esta cuestión consiste en utilizar como indicador el porcentaje de artículos altamente citados dentro de la revista, considerando el término artículo en sentido amplio, para englobar las cuatro tipologías documentales que conforman los “documentos citables” en la base de datos JCR (artículos, revisiones, actas y notas de investigación). Al tratarse de un porcentaje, es un valor relativo, por lo que el indicador no depende del tamaño de la revista. La alta citación se determina comparando con el resto de artículos del mismo campo y año, a nivel internacional, por lo que este indicador tampoco depende del campo. Además, es consistente porque la inclusión de un nuevo artículo muy citado no afecta significativamente al valor del indicador.

En este trabajo se compara empíricamente este indicador con el factor de impacto JCR (a dos años) y el índice h (a cinco años), y se analizan diferentes arcos temporales y cotas para que un documento pueda ser considerado altamente citado en comparación con otros del mismo año y campo, a nivel internacional. 


 

2. PORCENTAJE DE ARTÍCULOS ALTAMENTE CITADOS
 Top

Los trabajos más citados son aquellos que han recibido un número de citas igual o superior que las del percentil q para su campo y año de publicación. Este valor q se puede fijar en el percentil que se desee, no obstante, en este trabajo por razones metodológicas las cotas se han fijado en el 1%, 10% y 20%.

Conocido el número de citas mínimas necesarias para pertenecer al colectivo de artículos más citados en su campo y año de publicación (Figura 2), se puede determinar cuántos cumplen este requisito en cada una de las revistas de cada campo. Este dato se pone en relación con el total de artículos publicados ese año por la revista (consultar Anexo en la siguiente url: https://goo.gl/2Gwaw6), obteniendo así un indicador de impacto de la producción científica en dicha revista.

Dado que el número total de citas de un artículo es un valor que va creciendo a lo largo del tiempo, resulta necesario fijar un horizonte temporal para su observación. En este trabajo se presentan los resultados fijando tres horizontes temporales que abarcan un total de 3, 4 y 5 años de duración.

Se denota por (ppub_q_t)jy al indicador de impacto que mide, para la revista j y el año y, el porcentaje de artículos dentro del q% de los más citados considerando un arco temporal de t años. Esto es, para un año determinado y revista, el indicador ppub_q_t compara las citas de los documentos publicados en dicha revista en el periodo [y-t+1,y] con las del resto de documentos del mismo campo y año en la base de datos, determinando qué porcentaje de ellos entran dentro del q% de los más citados.

Por ejemplo,

(ppub_20_5)REDC2012

indica, para la revista REDC y el año 2012, el porcentaje de artículos dentro del 20% de los más citados considerando un arco temporal de 5 años. Esto es, compara las citas de los documentos publicados por REDC en el periodo 2008-2012 con las del resto de documentos del mismo campo y periodo en la base de datos JCR, determinando qué porcentaje de ellos entran dentro del 20% de los más citados.

En este trabajo se compara empíricamente este indicador con el factor de impacto (a dos años) y el índice h (a cinco años), y se analizan diferentes arcos temporales y cotas para que un documento pueda ser considerado altamente citado en comparación con otros del mismo año y campo, a nivel internacional. Se han considerado 150 revistas de 3 campos científicos diferentes. Para cada una de ellas se ha determinado el porcentaje de artículos altamente citados atendiendo a tres cotas diferentes (1%, 10% y 20%) y tres arcos temporales (2008-2012, 2009-2012, 2010-2012). La cota q% determina el número de publicaciones dentro del percentil de citación q, esto es, el número de publicaciones dentro del q% de las más citadas a nivel internacional dentro de su mismo campo y año.

Se comparan, por tanto, nueve indicadores (3 cotas x 3 arcos) con el índice h de 2012 (con un arco de 5 años) y el factor de impacto a dos años (JIF) de 2012 (que emplea información relativa a un arco de tres años). Se trata de identificar cuál de ellos es “mejor” a la hora de comparar revistas de diferentes campos científicos. Esta mejora viene dada por una mayor proximidad de la distribución de datos de la variable entre los diferentes campos científicos analizados.



 

3. MATERIALES Y MÉTODOS
 Top

La clasificación de revistas en Web of Science de Thomson Reuters (12.000 revistas) se basa en 251 categorías temáticas, que se agregan en 151 áreas científicas y que nuevamente son agregadas en 22 campos científicos. En este estudio se decidió trabajar a nivel de campo científico y seleccionar, del total de 22 campos que figuran en la base de datos, un total de 3 campos que difieren bastante en cuanto a sus perfiles de publicación y citación. Concretamente, se tomaron los campos de Economía y Empresa, Física y Matemáticas. Para cada uno de ellos se seleccionaron aleatoriamente un total de 50 revistas, de entre las 100 con mayor número de publicaciones durante los años 2008 a 2012.

Una vez seleccionadas las 150 revistas, se interrogaron las bases de datos de Thomson Reuters para recabar la siguiente información de cada una de ellas:

Con esta información se confeccionó la base de datos que se muestra en el Anexo (consultar la url: https://goo.gl/2Gwaw6) y que es la base de la metodología empleada en este trabajo.

Se decidió centrar el análisis en el periodo de tiempo más cercano a la actualidad que permitiera utilizar información fiable, teniendo en cuenta el lapso de tiempo que transcurre hasta que Thomson Reuters actualiza la información de las revistas que figuran en sus bases de datos y también la fecha de publicación del factor de impacto de las revistas. Todas las consultas fueron realizadas entre los meses de abril y mayo de 2014.



 

4. RESULTADOS
 Top

La Figura 1 muestra, a partir de la información recogida en la base de datos Web of Science, el promedio de citas por artículo en el periodo 2008-2012. El ratio de citación promedio es el cociente entre el número de citas y el número de artículos. Por ejemplo, el valor 6,19 en el campo Física en 2010 indica que, en promedio, las publicaciones de 2010 en el campo de Física han recibido un total de 6,19 citas en el periodo que va desde 2010 hasta 2012.

Figura 1. Promedio de citas por artículo según año de publicación

Promedio de citas por artículo según año de publicación

[Descargar tamaño completo]

 

Como puede observarse, las diferencias de citación son muy importantes entre campos. Así, las citas promedio recibidas en Física son muy superiores a las de Economía y Empresa, y a su vez éstas lo son también respecto a las de Matemáticas.

Los percentiles de citas de la Figura 2 muestran el número mínimo de citas requeridas para alcanzar ciertos umbrales dentro de cada campo científico y año. Por ejemplo, en el caso de Física, un valor de 15 en el percentil 10 para 2010 indica que el 10% de los artículos más citados dentro del campo de Física han recibido como mínimo 15 citas durante el periodo 2010-12.

Figura 2. Número mínimo de citas necesarias para que un artículo se encuentre dentro del 1%, 10% y 20% de los más citados en su campo y año de publicación

Número mínimo de citas necesarias para que un artículo se encuentre dentro del 1%, 10% y 20% de los más citados en su campo y año de publicación

[Descargar tamaño completo]

 

Como puede observarse, nuevamente existen diferencias muy importantes entre campos. Así, las citas requeridas en Física para encontrarse entre las publicaciones más citadas de su campo son muy superiores a las de Economía y Empresa, y éstas son en la mayor parte de los años analizados superiores a las requeridas en Matemáticas.

La Tabla I y Tabla II muestran los coeficientes de correlación de Pearson y Spearman entre los diferentes indicadores analizados, siendo todos ellos significativos al 99%. Hay que tener en cuenta que, en el caso de Spearman, existe una correlación perfecta cuando los dos indicadores están relacionados por alguna función monótona. Sin embargo, para que exista una correlación perfecta en el caso de Pearson, esta relación entre los dos indicadores ha de ser necesariamente a través de una función lineal. En este sentido, la correlación de Spearman es menos sensible que la de Pearson a los datos anormalmente pequeños o grandes que suelen encontrarse en las colas de este tipo de distribuciones de datos. Esto es debido a que los coeficientes de Spearman limitan dichos datos al valor de la posición que ocupan en el ranking.

Tabla I. Correlaciones de Pearson entre indicadores según campos

Correlaciones de Pearson entre indicadores según campos

[Descargar tamaño completo]

 

Tabla II. Correlaciones de Spearman entre indicadores según campos

Correlaciones de Spearman entre indicadores según campos

[Descargar tamaño completo]

 

Como puede observarse en Tabla I y Tabla II, las correlaciones entre indicadores son en general bastante altas y, en general, no existen diferencias significativas entre campos. El indicador porcentaje de publicaciones altamente citadas, ppub_q_t, es consistente ante cambios en los parámetros empleados (q, t). Esto es así porque los valores de las correlaciones varían muy poco cuando se modifican tanto el percentil fijado, q, como el número de años considerados, t. Las correlaciones entre dos indicadores diferentes dentro de esta familia ppub están por encima de 0,90 en una gran parte de los casos. Sin embargo, en general, la correlaciones entre alguno de estos indicadores tanto con h como con el JIF son algo inferiores a las que se obtienen entre dos indicadores de la misma familia ppub. Parece, por tanto, que el indicador ppub aporta una dimensión algo diferente a la que muestran tanto h como JIF, y que además el indicador ppub es consistente en relación a cualquiera de sus parámetros de definición.

La Figura 3 ofrece una comparativa entre el indicador ppub_20_5 y el índice h a cinco años. Estos dos indicadores consideran los mismos años y tienen en cuenta todas las citas del periodo de cinco años analizados. Ambos indicadores son, en este sentido, comparables entre sí. Además de la estimación de la función de densidad de los datos, en cada representación se muestra también en trazo discontinuo la distribución normal. Como puede observarse, el porcentaje de artículos altamente citados produce distribuciones de datos más próximas entre campos y, por tanto, más comparables entre sí que el índice h.

Figura 3. Comparativa entre las distribuciones de h (5 años) y ppub_20_5. La distribución normal se muestra en forma discontinua

Comparativa entre las distribuciones de h (5 años) y ppub_20_5. La distribución normal se muestra en forma discontinua

[Descargar tamaño completo]

 

Además, los tres campos presentan una distribución más similar a la normal, con pocas revistas con el 10% de artículos publicados durante 5 años que entren en el percentil 20 de citación; pocas revistas con el 90% de artículos altamente citados durante esos mismos años, y todo el abanico intermedio para la mayoría de ellas, con un promedio de 0,3.

De forma similar a la anterior, la Figura 4 ofrece una comparativa entre el indicador ppub_20_3 y el JIF del año 2012. Ambos indicadores consideran datos procedentes de los últimos tres años y son, en este sentido, comparables entre sí. Nuevamente, puede observarse que el porcentaje de artículos altamente citados produce distribuciones de datos más próximas entre campos y, por tanto, más comparables entre sí.

Figura 4. Comparativa entre las distribuciones de JIF (año 2012) y ppub_20_3. La distribución normal se muestra en forma discontinua

Comparativa entre las distribuciones de JIF (año 2012) y ppub_20_3. La distribución normal se muestra en forma discontinua

[Descargar tamaño completo]

 

La Tabla III ofrece con más detalle una descriptiva de todos los indicadores analizados. Se han realizado contrastes de hipótesis para comprobar si se detectan diferencias estadísticamente significativas entre las medias de cada indicador en cada campo, así como para las varianzas, ajustando los niveles de significación según la corrección de Bonferroni por tratarse de comparaciones multigrupo. En general, puede observarse que la dispersión de los indicadores h y JIF difiere significativamente entre campos, mientras que la de la familia ppub se mantiene más estable entre ellos. En el caso de las medias, es el indicador h el único que presenta diferencias estadísticamente significativas entre campos.

Tabla III. Descriptiva de los indicadores h, JIF y ppub_q_t según campos

Descriptiva de los indicadores h, JIF y ppub_q_t según campos

[Descargar tamaño completo]

 

La columna de valor mínimo evidencia que, en el campo de Matemáticas, la proporción mínima de artículos dentro del percentil 10 (20) de citación en las revistas seleccionadas es del 1% (2%), mientras que en el resto de campos esta proporción es siempre del 0%. Por tanto, en el campo de Matemáticas todas las revistas tienen en mayor o menor proporción artículos altamente citados, mientras que en el resto de campos, hay revistas que no publican artículos con este nivel de citación.

Por su parte, la columna de máximo evidencia la concentración de artículos de gran citación en las revistas. Se observa que este fenómeno es más habitual en el campo de Física, en donde algunas revistas tienen el 87% de sus artículos entre los más citados dentro del percentil 20 de citación para un arco de 3 años (ppub_20_3), frente al 78% de máximo en el campo de Economía y Empresa.

En cuanto a las dos últimas columnas de esta tabla, en general, se observa que al aumentar el arco temporal t se incrementa la asimetría y el apuntamiento de la función de densidad. Además, al reducirse el percentil de citación q aumenta también la asimetría y el apuntamiento. Estos datos parecen indicar una mejora en el comportamiento del indicador ppub_20_3 frente al resto de los indicadores de la familia y también frente a los clásicos h y JIF.

Finalmente, la Tabla IV muestra la amplitud del intervalo de variación de las medidas de tendencia central, variabilidad y forma para la variable ppub_q_t. En el caso de la media, la desviación típica, el mínimo y el máximo, dicha amplitud es mayor a medida que se incrementa el percentil de citación. Sin embargo, en el caso de la asimetría y la curtosis ocurre justo lo contrario, esto es, el rango de variación disminuye a medida que se incrementa el percentil de citación. Por tanto, para los parámetros analizados en esta aplicación empírica, aquel percentil de citación que produce distribuciones de datos más simétricas y con menor apuntamiento es q=20. Además, una vez fijado este valor, con t=3 se consigue un menor rango tanto para la media como para la desviación típica, el mínimo y el máximo. De estos datos parece deducirse, por tanto, que un 20% en el percentil de citación y una ventana de citación de tres años producen distribuciones de datos más comparables entre campos científicos.



Tabla IV. Amplitud del rango de variación de las medidas para la variable ppub_q_t

Amplitud del rango de variación de las medidas para la variable ppub_q_t

[Descargar tamaño completo]

 

 

5. CONCLUSIONES
 Top

Los indicadores h y JIF permiten realizar comparaciones del nivel de impacto científico de las publicaciones entre revistas de un mismo campo, pero no son herramientas válidas para sacar conclusiones acerca del impacto científico de las publicaciones de campos diferentes. Esto, en un momento de escasez de recursos económicos disponibles para la investigación, evidencia la necesidad de disponer de indicadores que permitan realizar comparaciones entre áreas y, por tanto, discriminar de forma objetiva sobre el impacto de las publicaciones con independencia del campo en el que se enmarquen.

La proporción de artículos altamente citados dentro de las revistas científicas (ppub_q_t) se evidencia como una alternativa para lograr tal fin, pues se trata de una medida relativa que carece de las limitaciones reconocidas en la literatura para los otros indicadores, como el tamaño de la revista o la sensibilidad a la muy alta citación de algún artículo. De hecho, permite conocer qué proporción de artículos con alta citación publica cada revista cada año, encontrándonos con revistas con un 0% de artículos altamente citados, frente a revistas con más del 90% de artículos altamente citados, lo que puede ser un claro indicador del impacto de una revista. La disyuntiva se encuentra en los límites que se pueden establecer para considerar que un artículo entre a formar parte del colectivo de los más citados y en el horizonte temporal que se considere para contabilizar el número de citas del mismo. No obstante, una vez tomadas estas decisiones, y manteniéndolas constantes para todos los campos, la comparabilidad es posible.

Tras haber analizado el comportamiento de nueve indicadores diferentes, en función del percentil de citación considerado como de excelencia (1%, 10% ó 20%) y el arco temporal en el que se contabiliza el número de citas (de 3 a 5 años), el indicador que parece homogeneizar mejor los campos es el que considera un arco temporal de 3 años y un nivel de citación del 20% (ppub_20_3). Este indicador tiene la limitación de otros indicadores en cuanto a la falta de inmediatez de obtención del mismo, no obstante, al igual que sucede con el JIF, se puede calcular transcurridos 3 años desde la publicación de una revista y, a diferencia de éste, proporciona información relevante a efectos de poder realizar comparaciones entre campos científicos.

 

6. REFERENCIASTop

Althouse, B. M.; West, J. D.; Bergstrom, C. T.; Bergstrom, T. (2009). Differences in impact factor across fields and over time. Journal of the American Society for Information Science and Technology, 60 (1), pp. 27-34, http://dx.doi.org/10.1002/asi.20936
Bensman, S. J. (2007). Garfield and the impact factor. Annual Review of Information Science and Technology, 41 (1), pp. 93-155, http://dx.doi.org/10.1002/aris.2007.1440410110
Bergstrom, C. (2007). Eigenfactor: Measuring the value and prestige of scholarly journals. College and Research Libraries News, 68 (5), p. 314.
Bordons, M.; Barrigón, S. (1992). Bibliometric analysis of publications of Spanish pharmacologists in the SCI (1984-89). Part II. Contribution to subfields other than «Pharmacology Á Pharmacy» (ISI). Scientometrics, 25 (3), pp. 425-446, http://dx.doi.org/10.1007/bf02026479
Bornmann, L.; Daniel, H. D. (2008). What do citation counts measure? A review of studies on citing behavior. Journal of Documentation, 64 (1), pp. 45-80, http://dx.doi.org/10.1108/00220410810844150
Costas, R.; Bordons, M. (2007a). Una visión crítica del índice h: algunas consideraciones derivadas de su aplicación práctica. El profesional de la información, 16 (5), pp. 427-432, http://dx.doi.org/10.3145/epi.2007.sep.04
Costas, R.; Bordons, M. (2007b). The h-index: advantages, limitations and its relation with other bibliometric indicators at the micro-level. Journal of Informetrics, 1 (3), pp. 193-203, http://dx.doi.org/10.1016/j.joi.2007.02.001
Dorta-González, P.; Dorta-González, M. I (2011). Central indexes to the citation distribution: A complement to the h-index. Scientometrics, 88 (3), pp. 729-745, http://dx.doi.org/10.1007/s11192-011-0453-3
Dorta-González, P.; Dorta-González, M. I (2013a). Comparing journals from different fields of science and social science through a JCR subject categories normalized impact factor. Scientometrics, 95 (2), pp. 645-672, http://dx.doi.org/10.1007/s11192-012-0929-9
Dorta-González, P.; Dorta-González, M. I (2013b). Hábitos de publicación y citación según campos científicos: Principales diferencias a partir de las revistas JCR. Revista Española de Documentación Científica, 36 (4), en012 http://dx.doi.org/10.3989/redc.2013.4.1003
Dorta-González, P.; Dorta-González, M. I (2013c). Impact maturity times and citation time windows: The 2-year maximum journal impact factor. Journal of Informetrics, 7 (3), pp. 593-602, http://dx.doi.org/10.1016/j.joi.2013.03.005
Dorta-González, P.; Dorta-González, M. I; Santos-Peñate, D. R.; Suárez-Vega, R. (2014). Journal topic citation potential and between-field comparisons: The topic normalized impact factor. Journal of Informetrics, 8 (2), pp. 406-418, http://dx.doi.org/10.1016/j.joi.2014.01.013
Egghe, L. (2013). Theoretical justification of the central area indices and the central interval indices. Scientometrics, 95 (1), pp. 25-34, http://dx.doi.org/10.1007/s11192-012-0803-9
Egghe, L.; Rousseau, R. (2002). A general framework for relative impact indicators. Canadian Journal of Information and Library Science, 27 (1), pp. 29-48.
Garfield, E. (1972). Citation analysis as a tool in journal evaluation. Science, 178 (4060), pp. 471-479, http://dx.doi.org/10.1126/science.178.4060.471
González-Pereira, B.; Guerrero-Bote, V. P.; Moya-Anegón, F. (2009). The SJR indicator: A new indicator of journals’ scientific prestige. Journal of Informetrics, 4 (3), pp. 379-391, http://dx.doi.org/10.1016/j.joi.2010.03.002
Hirsch, J. E. (2005). An index to quantify an individual’s scientific research output. Proceedings of the National Academy of Sciences, 102 (46), pp. 16569-16572, http://dx.doi.org/10.1073/pnas.0507655102
Leydesdorff, L. (2012). Alternatives to the journal impact factor: I3 and the top-10% (or top-25%?) of the most-highly cited papers. Scientometrics, 92 (2), pp. 355-365, http://dx.doi.org/10.1007/s11192-012-0660-6
Leydesdorff, L.; Bornmann, L. (2011). How fractional counting of citations affects the Impact Factor: Normalization in terms of differences in citation potentials among fields of science. Journal of the American Society for Information Science and Technology, 62 (2), pp. 217-229, http://dx.doi.org/10.1002/asi.21450
Moed, H. F. (2010). Measuring contextual citation impact of scientific journals. Journal of Informetrics, 4 (3), pp. 265-277, http://dx.doi.org/10.1016/j.joi.2010.01.002
Moed, H. F.; Colledge, L.; Reedijk, J.; Moya-Anegon, F.; Guerrero-Bote, V.; Plume, A.; Amin, M. (2012). Citation-based metrics are appropriate tools in journal assessment provided that they are accurate and used in an informed way. Scientometrics, 92 (2), pp. 367-376, http://dx.doi.org/10.1007/s11192-012-0679-8
Van Raan, A. F. J.; Van Leeuwen, T. N.; Visser, M. S.; Van Eck, N. J.; Waltman, L. (2010). Rivals for the crown: Reply to Opthof and Leydesdorff. Journal of Informetrics, 4 (3), pp. 431-435, http://dx.doi.org/10.1016/j.joi.2010.03.008
Wagner, C.; Roessner, J. D.; Bobb, K.; Klein, J.; Boyack, K.; Keyton, J.; Rafols, I.; Börner, K. (2011). Approaches to understanding and measuring interdisciplinary scientific research (IDR): A review of the literature. Journal of Informetrics, 5 (1), pp. 14-26, http://dx.doi.org/10.1016/j.joi.2010.06.004
Waltman, L.; Van Eck, N. J. (2013). Source normalized indicators of citation impact: an overview of different approaches and an empirical comparison. Scientometrics, 96 (3), pp. 699-716, http://dx.doi.org/10.1007/s11192-012-0913-4
Zitt, M.; Small, H. (2008). Modifying the journal impact factor by fractional citation weighting: The audience factor. Journal of the American Society for Information Science and Technology, 59 (11), pp. 1856-1860, http://dx.doi.org/10.1002/asi.20880