Revista española de Documentación Científica, Vol 38, No 3 (2015)

Porcentaje de artículos altamente citados: una medida comparable del impacto de revistas entre campos científicos


https://doi.org/10.3989/redc.2015.3.1230

Sara M. González-Betancor
Universidad de Las Palmas de Gran Canaria, Departamento de Métodos Cuantitativos en Economía y Gestión, España

Pablo Dorta-González
Universidad de Las Palmas de Gran Canaria, Departamento de Métodos Cuantitativos en Economía y Gestión, España

Resumen


Actualmente, los dos indicadores bibliométricos más empleados en la evaluación de revistas científicas son el índice de impacto y el índice h. Sin embargo, ambos indicadores dependen fuertemente del campo científico, lo que los hace no comparables entre campos. Además, el índice de impacto no es robusto a la presencia de artículos con un gran número de citas, mientras que el índice h depende del tamaño de la revista. Estas limitaciones a la hora de comparar revistas de diferentes tamaños y campos hace necesario considerar al mismo tiempo otros indicadores de impacto para revistas que sí puedan ser comparables entre campos, no dependan del tamaño de la revista y sean además robustos a la presencia de artículos con un elevado número de citas. Una alternativa es el porcentaje de artículos altamente citados en cada revista. En este trabajo se compara empíricamente este indicador con el índice de impacto y el índice h, y se analizan diferentes arcos temporales y cotas para que un documento pueda ser considerado altamente citado en comparación con otros del mismo año y campo. Como principal resultado se obtiene que un percentil del 20% y una ventana de citación de tres años producen distribuciones de datos más comparables entre campos científicos.

Palabras clave


Evaluación de revistas; indicador bibliométrico; análisis de citas; factor de impacto; índice h; percentil de citación

Texto completo:


HTML PDF XML

Referencias


Althouse, B. M.; West, J. D.; Bergstrom, C. T.; Bergstrom, T. (2009). Differences in impact factor across fields and over time. Journal of the American Society for Information Science and Technology, vol. 60 (1), 27–34. http://dx.doi.org/10.1002/asi.20936

>Bensman, S. J. (2007). Garfield and the impact factor. Annual Review of Information Science and Technology, vol. 41 (1), 93–155. http://dx.doi.org/10.1002/aris.2007.1440410110

Bergstrom, C. (2007). Eigenfactor: Measuring the value and prestige of scholarly journals. College and Research Libraries News, vol. 68 (5), 314.

Bordons, M.; Barrigón, S. (1992) Bibliometric analysis of publications of Spanish pharmacologists in the SCI (1984-89). Part II. Contribution to subfields other than «Pharmacology & Pharmacy» (ISI). Scientometrics, vol. 25 (3), 425–446. http://dx.doi.org/10.1007/bf02026479

Bornmann, L.; Daniel, H. D. (2008). What do citation counts measure? A review of studies on citing behavior. Journal of Documentation, vol. 64 (1), 45–80. http://dx.doi.org/10.1108/00220410810844150

Costas, R.; Bordons, M. (2007a). Una visión crítica del índice h: algunas consideraciones derivadas de su aplicación práctica. El profesional de la información, vol. 16 (5), 427–432. http://dx.doi.org/10.3145/epi.2007.sep.04

Costas, R.; Bordons, M. (2007b) The h-index: advantages, limitations and its relation with other bibliometric indicators at the micro-level. Journal of Informetrics, vol. 1 (3), 193–203. http://dx.doi.org/10.1016/j.joi.2007.02.001

Dorta-González, P.; Dorta-González, M. I. (2011). Central indexes to the citation distribution: A complement to the h-index. Scientometrics, vol. 88 (3), 729–745. http://dx.doi.org/10.1007/s11192-011-0453-3

Dorta-González, P.; Dorta-González, M. I. (2013a). Comparing journals from different fields of science and social science through a JCR subject categories normalized impact factor. Scientometrics, vol. 95 (2), 645–672. http://dx.doi.org/10.1007/s11192-012-0929-9

Dorta-González, P.; Dorta-González, M. I. (2013b). Hábitos de publicación y citación según campos científicos: Principales diferencias a partir de las revistas JCR. Revista Espa-ola de Documentación Científica, vol. 36 (4): en012. http://dx.doi.org/10.3989/redc.2013.4.1003

Dorta-González, P.; Dorta-González, M. I. (2013c). Impact maturity times and citation time windows: The 2-year maximum journal impact factor. Journal of Informetrics, vol. 7 (3), 593–602. http://dx.doi.org/10.1016/j.joi.2013.03.005

Dorta-González, P.; Dorta-González, M. I.; Santos-Pe-ate, D. R.; Suárez-Vega, R. (2014). Journal topic citation potential and between-field comparisons: The topic normalized impact factor. Journal of Informetrics, vol. 8 (2), 406–418. http://dx.doi.org/10.1016/j.joi.2014.01.013

Egghe, L. (2013). Theoretical justification of the central area indices and the central interval indices. Scientometrics, vol. 95 (1), 25–34. http://dx.doi.org/10.1007/s11192-012-0803-9

Egghe, L.; Rousseau, R. (2002). A general framework for relative impact indicators. Canadian Journal of Information and Library Science, vol. 27 (1), 29–48.

Garfield, E. (1972). Citation analysis as a tool in journal evaluation. Science, vol. 178 (4060), 471–479. http://dx.doi.org/10.1126/science.178.4060.471 PMid:5079701

González-Pereira, B.; Guerrero-Bote, V. P.; Moya-Anegón, F. (2009). The SJR indicator: A new indicator of journals' scientific prestige. Journal of Informetrics, vol. 4 (3), 379–391. http://dx.doi.org/10.1016/j.joi.2010.03.002

Hirsch, J. E. (2005). An index to quantify an individual's scientific research output. Proceedings of the National Academy of Sciences, vol. 102 (46), 16569–16572. http://dx.doi.org/10.1073/pnas.0507655102 PMid:16275915 PMCid:PMC1283832

Leydesdorff, L. (2012). Alternatives to the journal impact factor: I3 and the top-10% (or top-25%?) of the most-highly cited papers. Scientometrics, vol. 92 (2), 355–365. http://dx.doi.org/10.1007/s11192-012-0660-6 PMid:22844165 PMCid:PMC3399071

Leydesdorff, L.; Bornmann (2011). How fractional counting of citations affects the Impact Factor: Normalization in terms of differences in citation potentials among fields of science. Journal of the American Society for Information Science and Technology, vol. 62 (2), 217–229. http://dx.doi.org/10.1002/asi.21450

Moed, H. F. (2010). Measuring contextual citation impact of scientific journals. Journal of Informetrics, vol. 4 (3), 265–277. http://dx.doi.org/10.1016/j.joi.2010.01.002

Moed, H. F.; Colledge, L.; Reedijk, J.; Moya-Anegon, F.; Guerrero-Bote, V.; Plume, A.; Amin, M. (2012). Citation-based metrics are appropriate tools in journal assessment provided that they are accurate and used in an informed way. Scientometrics, vol. 92 (2), 367–376. http://dx.doi.org/10.1007/s11192-012-0679-8

Van Raan, A. F. J.; Van Leeuwen, T. N.; Visser, M. S.; Van Eck, N. J.; Waltman, L. (2010). Rivals for the crown: Reply to Opthof and Leydesdorff. Journal of Informetrics, vol. 4 (3), 431–435. http://dx.doi.org/10.1016/j.joi.2010.03.008

Wagner, C.; Roessner, J. D.; Bobb, K.; Klein, J.; Boyack, K.; Keyton, J.; Rafols, I.; Börner, K. (2011). Approaches to understanding and measuring interdisciplinary scientific research (IDR): A review of the literature. Journal of Informetrics, vol. 5 (1), 14–26. http://dx.doi.org/10.1016/j.joi.2010.06.004

Waltman, L.; Van Eck, N. J. (2013). Source normalized indicators of citation impact: an overview of different approaches and an empirical comparison. Scientometrics, vol. 96 (3), 699–716. http://dx.doi.org/10.1007/s11192-012-0913-4

Zitt, M.; Small, H. (2008). Modifying the journal impact factor by fractional citation weighting: The audience factor. Journal of the American Society for Information Science and Technology, vol. 59 (11), 1856–1860. http://dx.doi.org/10.1002/asi.20880




Copyright (c) 2015 Consejo Superior de Investigaciones Científicas (CSIC)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento 4.0 Internacional.


Contacte con la revista redc.cchs@cchs.csic.es

Soporte técnico soporte.tecnico.revistas@csic.es