SciELO - Scientific Electronic Library Online

 
vol.39 número1La dureza de la ciencia dura: ¿mito o realidad? Elementos para una discusiónUn estado similar al de una "posesión" en una paciente con recaída de lupus eritematoso sistémico índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Revista Colombiana de Psiquiatría

versión impresa ISSN 0034-7450

rev.colomb.psiquiatr. v.39 n.1 Bogotá ene./mar. 2010

 

El factor de impacto

Impact Factor

Natalia González Delgado1

1 Residente de tercer año de psiquiatría. Pontificia Universidad Javeriana. Bogotá, Colombia.

Correspondencia Natalia González Delgado Departamento de Psiquiatría y Salud Mental Pontificia Universidad Javeriana Carrera 7a No. 40-62 Bogotá, Colombia nagondel@yahoo.com

Recibido para evaluación: 30 de noviembre del 2009 Aceptado para publicación: 15 de febrero del 2010


Resumen

Introducción: La tendencia a evaluar las revistas de la literatura científica y biomédica existe desde hace aproximadamente 80 años, tiempo durante el cual los métodos para ello han ido cambiando, hasta llegar a lo que hoy se conoce como el factor de impacto, una medida del número promedio de veces en las cuales los trabajos publicados son citados hasta dos años después de su publicación. Objetivo: Mostrar cómo ha sido la historia del factor de impacto, su definición y su papel dentro del campo de la investigación, así como la controversia que ha generado, y lo relacionado con el uso y el abuso que se le ha dado. Método: Revisión narrativa sobre el tema. Desarrollo: Creado en 1960 por Irving H. Sher y Eugene Garfield, anualmente la Revista de Reporte de Citaciones (Journal Citation Report [JCR]), del Instituto Thomson Reuters, ofrece una serie de herramientas para evaluar el factor de impacto. Así, el de una revista para el 2009 es igual a A/B. Donde A es el número de veces que los artículos publicados en los años 2007 y 2008 fueron citados en revistas indexadas durante el año 2009 y B es el número de artículos publicados entre 2007 y 2008.

Palabras clave: factor de impacto de la revista, publicaciones periódicas.


Abstract

Introduction: The evaluation of medical and scientific journals during the past 80 years has been an important tendency in research. During this time evaluation methods have changed, arriving to what is known today as the impact factor. Objective: To show the impact factor's history, its definition and its role within the field of research, as well as the controversy it has generated in relation to its use vs. abuse. Method: Narrative review. Development: The impact factor was created in 1960 by Irving H. Sher and Eugene Garfield, and is published annually in the Journal of Citation Report (JCR) of the Thomson Reuters Institute, which offers a range of tools for its assessment. It is a measure of the average number of times published papers are cited up to two years after publication. Thus the impact factor 2009 for a journal is equal to A/B, where A is the number of times articles published in 2007- 2008 were cited in indexed journals during 2009, and B the number of articles published in 2007-2008.

Key words: Journal impact factor, periodicals.


Introducción

La tendencia a evaluar las revistas de la literatura científica y biomédica existe desde hace aproximadamente 80 años, tiempo durante el cual los métodos para realizarla han ido cambiando, hasta llegar a lo que hoy se conoce como el factor de impacto. En 1927 Gross y Gross (1) hablan en su estudio acerca de los patrones de citación durante los años veinte. Más adelante, durante los años cuarenta, Brodman expone sus trabajos enfocados en lo relacionado con la citación de revistas de fisiología (2). Eugene Garield fue el primero en mencionar la idea del factor de impacto en la revista Science en 1955. Este trabajo es considerado como la principal referencia para el concepto del Índice de Citación Científico (Science Citation Index, o SCI), el cual se publicó cinco años después. En 1960 Irving H. Sher y Eugene Garfield crearon el factor de impacto como método para ayudar a seleccionar las revistas para el nuevo índice de citación científico (SCI) (3, 4). Surge, entonces, la revista de reporte de citaciones (Journal of Citation Reports, o JCR), la cual se encarga de mostrar los resultados en cuanto a evaluación de la literatura científica (5,6).

El índice de citación científico (science citation index)

El índice de citación científico o science citation index (SCI) es una estrategia creada con el fin de ofrecer a investigadores y estudiantes una forma rápida y fácil de acceder a información bibliográfica. Su contenido ha ido aumentando progresivamente de 600 revistas en 1964, a 2.400 en 1972, y hasta 7.500 en 2008. En el SCI se pueden encontrar artículos de alto impacto de revistas reconocidas, actualizaciones útiles en el campo de la investigación y resultados relevantes en diferentes campos. Adicionalmente, en él se puede identificar a colaboradores potenciales con record significativo de citaciones (7).

Cada revista incluida en el SCI ha reunido los estándares de un proceso objetivo de evaluación que pretende ofrecer a los lectores información precisa, significativa y oportuna. Las citaciones permiten hacer un seguimiento de las investigaciones anteriores y de las actuales, identificar cuáles han sido los avances en determinada área, ver cuáles son los trabajos que se han citado, determinar cuál ha sido la influencia de los trabajos de otros colegas y seguir el camino de las ideas más interesantes en la actualidad. Dentro de las disciplinas que pueden encontrarse en el SCI se encuentran: biología, agronomía, ciencias ambientales, ingenierías, tecnología, ciencia aplicada, ciencias biomédicas, física y química (7).

¿Qué se pretende con la indexación de citas?

Dado que el valor de la información está determinado por aquellos que la usan, la mejor forma de evaluar la calidad de estos trabajos es midiendo el impacto que tienen sobre la comunidad. La población académica, aquellas personas en formación y las que se encuentran constantemente actualizándose, quienes usan o citan diferentes trabajos, son los que, finalmente, determinan la influencia o el impacto del material y de su autor sobre el conocimiento (8).

Este es un sistema relativamente nuevo, que se originó en 1950, gracias, principalmente, a 3 factores. Después de la II Guerra Mundial, el gobierno de los Estados Unidos empezó a invertir en investigación y desarrollo. De esta manera la comunidad científica empezó a hacer públicos sus trabajos a través de las revistas de literatura científica. Poco a poco surgió la necesidad de crear un método costo-efectivo para indexar la cantidad de literatura, que día a día iba siendo mayor, y de que fuese más eficiente que el modelo manual existente por entonces, y basado en índices específicos organizados por materia. Dicho sistema demandaba mucho tiempo y gran trabajo por parte de los trabajadores, situación que, finalmente, incrementaba los costos a medida que iba creciendo la producción de material de diferentes investigadores. Así pues, el primer factor fue la necesidad de un mejor sistema de manejo de la información (8).

El segundo factor fue la insatisfacción por parte de los investigadores activos con el sistema que existía para indexar la información, pues no cumplía con sus expectativas y dificultaba el acceso a la información. En ese entonces se tardaba mucho tiempo en incluir los trabajos más recientes al índice por materia, de tal manera que los investigadores se encontraban durante amplios periodos sin contar con material nuevo. Podrían pasar meses antes de que ellos pudieran tener acceso a trabajos publicados acerca de algún tema relevante para su propia investigación. Por otro lado, existían inconvenientes con la recuperación de documentos y con la terminología. Es así como la terminología apropiada para una determinada disciplina podía no tener significado para los investigadores en otro campo, aun cuando las dos disciplinas estuviesen relacionadas. De esta manera, los investigadores debían hacer revisiones extensas de diferentes áreas, con el fin de tener la tranquilidad de haber sustentado su trabajo con una adecuada revisión de toda la literatura existente (8).

De la mano con lo anterior, y como un tercer factor, estaba la esperanza de que la automatización de datos pudiese eliminar las dificultades presentes con la indexación manual, y así facilitar el trabajo de los investigadores. Con la llegada de la computarización, en 1950, se empezaron a ver los beneficios derivados del uso de aparatos electrónicos para la generación, el manejo y el archivo de datos. Eugene Garield, fundador, y ahora profesor emérito, del Instituto de Información Científica (ISI Thompson Reuters), inició, a mediados de los años cincuenta y comienzos de los sesenta, la investigación relacionada con la indexación electrónica. Uno de sus estudios iniciales, el Proyecto Welch de Indexación de la Biblioteca Médica, tenía como objetivo investigar el rol de la automatización en la organización de la literatura médica. La idea era eliminar el componente humano del proceso de indexación, y, de esta manera, aumentar la rapidez y la relación costo-efectividad de éste.

En 1960 Garfield y cols. desarrollaron dos estudios piloto para determinar la viabilidad y la eficacia de la indexación de citas. En el primer trabajo el patrón de comparación fueron 2 sistemas de indexación por materias, que se estaban utilizando por entonces. Con base en estas investigaciones y en el resultado del análisis de los datos, se consideró que el sistema de indexación de citas permitía un acceso más fácil a la literatura relevante, comparado con el sistema organizado por materias. En el segundo trabajo, en 1962, participaron el Instituto de Información científica ISI Thompson Reuters y los institutos nacionales de Salud de los Estados Unidos, diseñando un índice para la literatura publicada en genética: Genetics Citation Index. El estudio demostró el costo-efectividad que la indexación de citas tenía sobre el sistema tradicional de indexación por materias.

Eugene Garfield continuó con sus trabajos y publicó en 1963, de forma privada, la primera edición multidisciplinaria de indexación de citas, conocida como el Science Citation Index (SCI), la cual representa desde entonces la mejor indexación de citas para las revistas de literatura científica (8). En 1975 el Thomson Reuters empezó a publicar la Revista de reporte de citaciones (Journal Citation Reports [JCR]), como parte del scientific citation index, o SCI (indexación de citas científicas). Este instituto se encarga de calcular cada año el factor de impacto de las revistas incluidas en el SCI (9).

En 2004 surge Scopus de Elsevier como una competencia directa al ISI Thomson Reuters. En vista de que perseguían metas similares, en 2006 el ISI Thomson Reuters concede licencia de sus datos a Elsevier. En la actualidad Scopus tiene derechos sobre ISI Thompson Reuters, y consiste en una base de datos de citas y abstracts de Elsevier, que cubre la literatura revisada por pares, la comercial, las actas y trabajos de congresos, los registros de patentes y los sitios web. Contiene referencias de los artículos citados a partir de 1996 hasta el momento, y proporciona datos de citas de autores y artículos (10).

El factor de impacto: definición

La Revista de Reporte de Citaciones (Journal Citation Reports [JRC]) del SCI, publicada por el Instituto de Información Científica del Thomson Reuters, ofrece una serie de herramientas para clasificar, evaluar, categorizar y comparar las revistas de la literatura científica, una de las cuales es el factor de impacto.

El factor de impacto es una medida de frecuencia que indica el número promedio de artículos de una revista que han sido citados durante un año en particular o a lo largo de un periodo determinado, y se usa con el in de evaluar y posicionar las revistas de la literatura científica. En general, el factor de impacto, simplemente, refleja la habilidad de las revistas y los editores para atraer los mejores trabajos disponibles (9).

Esta medida se obtiene dividiendo el número de citaciones recibidas en un año, entre los artículos publicados durante los dos años previos. Por ejemplo, A = citas totales durante año 2000, B = artículos publicados durante el periodo 1998-1999, C = A/B = factor de impacto de la revista en el año 2000. Es decir, el factor de impacto de una revista científica indexada en una base de datos, como el SCI del Thomson Reuters, resulta de sus citas secundarias acumuladas durante un periodo de dos años, y se obtiene consultando en junio de cada año las versiones del JCR (11). Esta medida de análisis bibliométrico considera tanto el volumen de artículos publicados como el impacto que proporcionan las citas recibidas por estos (12).

El factor de impacto es útil para aclarar el significado de la frecuencia absoluta o total de las citaciones. Reduce, además, algunos de los sesgos que resultaban de los antiguos sistemas, los cuales favorecían a las revistas más grandes sobre otras más pequeñas, a las más conocidas sobre las menos conocidas y a las más antiguas, las cuales suelen tener mayor número de citaciones, sobre las más recientes. Es importante tener en cuenta que la limitación cronológica existente en el cálculo del factor de impacto es fundamental para eliminar el sesgo que pueden introducir las revistas antiguas, o aquellas conocidas como "clásicos" de la literatura (4).

¿Cuáles son las aplicaciones del factor de impacto?

Existen varias aplicaciones del factor de impacto de una revista. La más común de todas tiene que ver con la investigación de mercado por parte de los autores y editores. El factor de impacto les proporciona la evidencia necesaria para posicionar sus revistas en relación con la competencia que hay con otras de su categoría. Por otro lado, la información presentada en JCR sirve para evaluar el potencial de una revista específica. Sin embargo, el uso más importante y reciente es en el proceso de evaluación académica, al brindar una aproximación al prestigio de las revistas científicas. Es utilizado, también, como herramienta para manejar las colecciones de revistas en las bibliotecas; esto le permite a la persona a cargo tener información acerca de las revistas con las que cuenta y las que está considerando adquirir. Todo eso ayuda a la toma de decisiones con respecto a costos, cuando llega el momento de comprar nuevas revistas.

La utilización adecuada del factor de impacto: ¿uso o abuso?

El factor de impacto no es la única herramienta que tiene el ISI Thomson Reuters para evaluar las revistas de literatura científica. Éste debe ser utilizado de manera cuidadosa, interpretado, ojalá, en conjunto con pares, y tomando en cuenta una serie de factores que tienen que ver con la tasa de citaciones. Adicionalmente, existen ciertos elementos que pueden influenciar el impacto de una revista y la categoría que esta ocupa. Entre ellos se encuentran el hecho de publicar temas controversiales, e incluir artículos de revisión. Estos últimos son citados con mayor frecuencia que los artículos originales, pues describen la literatura existente del tema en cuestión, y tienen, por consiguiente, una bibliografía extensa. Por lo anterior, y tomando en consideración el concepto de factor de impacto, podemos concluir que las revistas con el mayor número de artículos de revisión tienen los más altos factores de impacto (9).

Por otro lado, es importante anotar que el editor de una revista puede seleccionar autores basándose en sus desempeños anteriores. Si revisa sus historiales de citaciones, puede escoger los artículos de autores reconocidos, y de esta manera aumentar la probabilidad de publicar trabajos con un potencial factor de impacto alto. Esta situación ocurre a menudo; especialmente, a la hora de publicar los primeros números de una nueva revista de determinada especialidad. Es así como vemos los artículos más citados en el primer volumen publicado (9).

Aunque el uso del factor de impacto como base de las medidas de citación ha sido amplio, también ha sido bastante controvertido, dado que en algunas ocasiones se tiende a utilizarlo de forma inapropiada. Esta medida se diseñó para permitir una comparación razonable entre revistas de la literatura científica, independientemente del tamaño, de la trayectoria y del tiempo que estas llevan circulando. Sin embargo, en ocasiones se lo ve como el conteo total o absoluto de citaciones, o favorece a las revistas más antiguas y a las más grandes otorgándoles un rango o clasificación superior. En su trabajo publicado en 1996 en el BJM, Garfield expone un ejemplo: en 1994, a pesar de la fecha, los artículos publicados en el BMJ fueron citados 37.600 veces; de estos, 5.800 eran de citación; es decir, el 15% fueron artículos publicados entre 1992 y 1993 (9).

El factor de impacto ha sido ampliamente utilizado; se le ha empleado, incluso, para situaciones que sobrepasan su uso real. Este es el caso de la evaluación individual de investigadores. Los autores utilizan el factor de impacto para medir sus propios ratings. En una entrevista hecha por el ISI Thomson Reuters a David Tempest, director asociado de investigación y relaciones académicas de Elsevier, este autor afirma: "Toman el factor de impacto de los 5 artículos que han publicado en un periodo de dos años, los suman, los dividen entre 5, y así, sacando un promedio, obtienen su propio factor de impacto. Esto se vuelve el promedio del promedio, medición que no es adecuada" (13).

El factor de impacto no es la única herramienta para la evaluación de las revistas de la literatura médica

Año tras año una especie de competencia entre los editores de revistas se hace evidente a la hora de la publicación del JCR, del Thomson Reuters. El factor de impacto de una revista se ha convertido en un símbolo de estatus en el mundo de la investigación. Se sabe que este mide el número de veces en el cual las revistas son citadas por académicos y otros autores. Esto se traduce no sólo en una medida de impacto, sino, también, en el relejo de una práctica editorial adecuada (14).

Si bien es cierto que el factor de impacto es importante dentro del proceso de evaluación, lo es aún más la posición que este le otorga a determinada revista. Así, las revistas con más alto factor de impacto se convierten en el blanco de publicación de los investigadores. Por otro lado, esta medición puede ser de gran utilidad para diseñar la estrategia de mercado de los editores. Sin embargo, se recomienda que la evaluación de una revista no se base únicamente en el factor de impacto; de hecho, algunos autores creen que si existe una abordaje integral y holístico, enfocado en la evaluación a largo plazo, probablemente se tendrían en cuenta más factores, se abrirían nuevas puertas, y sería más factible, entonces, el posicionamiento de un mayor número de revistas. Por lo tanto, el factor de impacto no debe interpretarse de forma aislada, pues hay otros elementos que juegan un papel muy importante cuando los autores eligen una revista en la cual publicar sus trabajos. Entre dichos factores están la calidad revisada por pares, que juega un papel importante en el impacto de la revista a largo plazo; también, la velocidad de publicación y la tasa de rechazo de artículos (14).

En ocasiones se observa que una revista puede pasar de las primeras posiciones, con un factor de impacto alto, a tener un descenso en su categoría que puede durar mucho tiempo. Esto no necesariamente quiere decir que la calidad de la revista es pobre: puede ser que los lectores hayan cambiado su interés, que el mercado ha cambiado, o, incluso, puede deberse aun error en el ISI Thomson Reuters. A lo largo de los últimos años se han desarrollado nuevas y más complejas herramientas en esta área, las cuales tienen diferentes enfoques: evaluar la calidad de la investigación como un todo dentro una revista, o la calidad de autor o de una determinada institución.

Desde los años sesenta han existido las citaciones totales del ISI Thomson Reuters y el factor de impacto a cinco años, no tan utilizado como el que toma en consideración dos años. Dentro de las nuevas propuestas se encuentran: el puntaje de influencia de un artículo, el rango de revistas SCImago y el índice. H. Martin Tanke, director de publicaciones de Elsevier Science and Technology Journal, expone que "el ISI Thomson Reuters introdujo el concepto del factor de impacto; sin embargo. hoy en día, existen muchas otras alternativas para la evaluación de las revistas que proporcionan una visión y un análisis más profundo de la calidad de las mismas" (14). Elsevier lanzó hace poco SciVal Spot light, una herramienta virtual que ofrece a las instituciones una visión especial, de tipo multidisciplinario, del desempeño de la investigación, para evaluar, establecer y ejecutar más estrategias.

Este sistema se aleja del abordaje tradicional basado en la medición del rendimiento en investigación mediante el conteo de citaciones de revistas. Por el contrario, el SciVal Spotlight está basado en un modelo más detallado de la estructura de la ciencia. Por otro lado, el UK Serials Group (UKSG) y el COUNTER, grupos del Reino Unido, se encuentran trabajando en cómo podrían las estadísticas que se encuentran en línea, acerca del uso de la literatura, ser la base para un nuevo sistema de medición de la calidad de una revista, herramienta conocida como el factor de uso (usage factor). Adicionalmente, el ISI Thomson Reuters ha introducido herramientas de medición adicionales, como el Eigenfactor y el índice H. Estos nuevos sistemas pretenden ofrecer tanto a los editores como a los investigadores la oportunidad de lograr una mejor comprensión de la posición que ocupa determinada revista en la literatura mundial. Ambas son alternativas al factor de impacto. En el caso del Eigenfactor, éste representa la influencia de las revistas considerándolas como una red formada por importantes vínculos entre ellas (14).

Los trabajos publicados por un autor pueden no estar citados en una revista con un factor de impacto alto. Tomar la posición de la revista como sustento de la calidad individual puede llevar, definitivamente, a sesgos. Por tal razón, en los últimos años se ha visto una tendencia hacia los sistemas de medición individuales, como el índice H. El índice H es una herramienta desarrollada para evaluar los trabajos individuales. Desafortunadamente, tal como ha pasado con otros sistemas de medición, muchas personas malinterpretan su significado y empiezan a darle un uso que termina en abuso.

El índice H, propuesto por Jorge E. Hirsch en 2005, integra en un valor único la productividad científica dada por el número de artículos publicados, y su impacto; este último, determinado por el número de citas recibidas (15). En 2007 Bornmann y Daniel hacen una revisión acerca de lo que hasta el momento se conoce con respecto a este tema. Exponen que, si bien el índice H fue concebido inicialmente por su autor para medir el rendimiento obtenido al final de la carrera profesional del científico, también se puede usar para medir el impacto de las propias revistas especializadas donde estos autores publicaron los resultados de sus investigaciones. Las mediciones pueden realizarse para distintas ventanas de tiempo: anual, quincenal, mensual, etc. (16).

Una de las ventajas que ofrece el índice H es que por basarse en el número total de citas, y no solamente en las cifras acumuladas durante un periodo de dos años -como el factor de impacto- ni en la calidad de la revista donde se encuentran las citas, puede obtenerse rápidamente a partir de la mayoría de las bases de datos existentes en la actualidad. Dado que este sistema de medición no sobreestima a unos pocos artículos publicados por una revista, pero que pueden llegar a ser muy citados, ni subestima a muchos artículos publicados por una revista, los cuales pueden llegar a ser poco citados, muchos investigadores consideran que su aplicación constituye una alternativa para tomar una decisión a la hora de publicar sus trabajos: a qué revista enviarlos para someterlos a revisión editorial, pensando en una eventual publicación (16).

Inconvenientes y limitaciones del factor de impacto

Existen varias críticas al factor de impacto, dentro de las cuales la más importante es su limitación para evaluar las contribuciones individuales de los autores (17). El factor de impacto de una revista está directamente relacionado con el área de investigación: a mayor cubertura de temas, mayor factor de impacto. Esto significa que las mejores revistas especializadas en áreas como dermatología y oftalmología, probablemente, nunca lograrán el factor de impacto que tienen las de medicina general. En su trabajo al respecto, publicado en 2009, Grzybowski A. expone varios ejemplos que muestran lo anterior. En 2007 los más altos factores de impacto en especialidades clínicas fueron los siguientes: Journal of Investigative Dermatology, 4.829; Progress in Retinal and Eye Research, 7.725; The New England Journal of Medicine, 52.589; and JAMA: The Journal of the American Medical Association, 25.547. Más adelante documenta cómo las revistas dedicadas a ciencias básicas tienen una mayor tasa de citaciones que las dedicadas a temas clínicos especializados: immunología (Annual Review of Immunology, 47.981), física (Reviews of Modern Physics, 38.403), bioquímica (Annual Review of Biochemistry, 31.190) y biología molecular (Nature Reviews Molecular Cell Biology, 31.921). En el grupo de las 10 revistas con mejores factores de impacto en 2007 sólo se encontraron 2 revistas dedicadas a temas clínicos en medicina; menciona los siguientes: CA-Cancer Journal for Clinicians (JIF, 60.062) y The New England Journal of Medicine (JIF, 52.589) (18).

El factor de impacto puede verse muy influenciado por el tipo de artículos que publique una revista. Como se expuso al inicio, los artículos de revisión son más citados que los originales. Por esta razón, una revista en la cual la mayoría de artículos sean de este tipo tendrá, por consiguiente, un mayor factor de impacto. De las 10 revistas con mejores factores de impacto en 2007, 7 eran revistas dedicadas a artículos de revisión. Por otro lado, el periodo de dos años, usado para calcular el factor de impacto, favorece las disciplinas en las cuales el progreso científico se da de forma rápida, tales como la inmunología, la biología molecular y la genética, contrariamente a las especialidades médicas mencionadas anteriormente (dermatología y oftalmología), para las cuales la tarea de lograr un impacto, usualmente, tomará más tiempo (18).

Por lo anterior, muchos autores han propuesto durante los últimos años que la evaluación de las revistas debería tomar en cuenta otras variables importantes, como el tipo de disciplina científica, la densidad de las citas y la vida media de las citas (número de años retrospectivos necesarios para encontrar el 50% de las referencias citadas) (6). Los sistemas de medición expuestos dentro del presente artículo han sido desarrollados con el fin de contrarrestar las debilidades que se han detectado con el factor de impacto.

Otro problema ha sido el de las autocitaciones, pues se ha sugerido que estas pueden favorecer el factor de impacto de una revista. Las autocitas usualmente representan el 13% de las citaciones de una revista. Por ello, a la hora de calcular el factor de impacto, éstas deben quedar excluidas, para evitar sesgos. Se ha demostrado que el 18% de 4.816 revistas analizadas tenían una tasa de autocitaciones mayor al 20%. Esto quiere decir que de cinco referencias, más de una corresponde a una autocitación. Otro de los ejemplos, que expone Grzybowski A. en su trabajo publicado en 2009, muestra lo descrito: en 1992 el cálculo del factor de impacto después de excluir las autocitaciones cambió en las siguientes revistas, como puede verse a continuación: American Journal of Reproductive Immunology pasó de un factor de impacto de 1.931 a 1.466; Biology of Reproduction, de 3.257 a 2.757; y el Journal of Reproduction and Fertilility, de 2.211 a 1.852 (18).

El cálculo del factor de impacto puede estar sesgado por otros factores determinantes, diferentes de las citaciones, que pueden influenciar la medida, tal como se ha visto a lo largo de esta revisión. En su trabajo publicado en 2006, Kanthraj habla acerca de algunos casos que muestran errores en el factor de impacto. Por ejemplo, en 1989 el factor de impacto (FI) de The Journal of The American Medical Association fue de 4,8 con 650 artículos citados; sin embargo, en 2001 éste aumentó a 17,6 con sólo 389 artículos citados (19). ¿Cuál sería la posible explicación? Probablemente, tiene que ver con el denominador de la ecuación en la fórmula para calcular el factor de impacto: el número de ítems publicados en una revista durante los dos años previos. A menor denominador, mayor factor de impacto. Esto tiene que ver, entonces, con el tipo de artículos publicados en la revista y el número de estos, en relación con el número de artículos citados. Es importante tener presente que no todas las veces las revistas más citadas tienen el factor de impacto más alto. Por ejemplo, en 2007 la revista con el más alto FI, CA: A Cancer Journal for Clinicians (journal impact factor, 69.026), que publica 21 artículos cada año, tiene el número más bajo de citaciones (6.021) entre las 20 revistas con el mejor FI (18).

Tabla 1

Dado su carácter controversial, durante los últimos años el factor de impacto ha sido bastante criticado por ciertos autores. Tal es el caso de McGarty, en su trabajo publicado en el año 2000, donde, con base en sus observaciones, discute lo siguiente: "El factor de impacto no es solo una mala medida de evaluación para las revistas de la literatura científica, es la invitación a la práctica de una mala ciencia" (20). Así mismo, Williams dice en su artículo publicado en 2007 en el BMJ: "El factor de impacto debería ser eliminado, y cuanto antes mejor" (22).

Conclusiones

El factor de impacto es una herramienta muy útil a la hora de evaluar las revistas de la literatura científica; sin embargo, ciertas consideraciones deben tenerse en cuenta a la hora de interpretar los resultados, ya que estos pueden verse influenciados y así dar lugar a sesgos. Dentro de estas consideraciones se encuentran la cantidad de artículos de revisión publicados en la revista y las variaciones entre las diferentes disciplinas.

Con el cambio que se ha dado durante los últimos años con respecto a la literatura científica, se ha visto una presión creciente sobre los autores para que publiquen sus artículos en revistas que se encuentren bien posicionadas mundialmente. Esta presión viene, principalmente, de instituciones académicas como las universidades, y es sostenida por los editores de las revistas, quienes se encargan día a día de mantener los más altos estándares en cuanto a la publicación de trabajos. En tal medida, es determinante la controversia que ha producido esta herramienta evaluativa en el campo de la investigación. Mientras la mayoría de instituciones e investigadores califican de manera favorable el factor de impacto, teniendo en cuenta que se debe saberlo interpretar y aplicar, otros consideran que no debería usarse, pues puede llegar a ser, incluso, un camino a la mala práctica. Esto ha dado paso al desarrollo de otros sistemas de medida que han propuesto un abordaje más completo.

Referencias

1. Gross PL, Gross EM. College libraries and chemical education. Science. 1927;66(1713):385-9.        [ Links ]

2. Brodman E. Choosing physiology journals. Bull Med Libr Assoc. 1944;32(4):479-83.        [ Links ]

3. Garfield E. Citation indexes to science: a new dimension in documentation through association of ideas. Science [Internet]. 1955 Jul [citado 2009 nov 1]; 122(3159). Disponible en: http://garfield.library.upenn.edu/essays/v6p468y1983.pdf.        [ Links ]

4. Garfield E. Citation analysis as a tool in journal evaluation. Science. 1972;178(60):471-9.        [ Links ]

5. Garfield E. SCI Journal Citation Reports: a bibliometric analysis of science journals in the ISI database. Philadelphia: Institute for Scientific Information; 1993.        [ Links ]

6. Garfield E. The agony and the ecstasy- the history and meaning of the journal impact factor [Internet]. Philadelphia: International Congress on Peer Review And Biomedical Publication Chicago; 2005. Disponible en: http://garfield.library.upenn.edu/papers/jifchicago2005.pdf        [ Links ]

7. Science Citation Indexing [Internet]. Disponible en: http://thomsonreuters.com.        [ Links ]

8. History of Citation Indexing [Internet]. 2010 [citado en 2009 nov 1] Disponible en: http://thomsonreuters.com/products_services/science/free/essays/history_of_citation_indexing/.        [ Links ]

9. Garfield E. How can impact factors be improved? BMJ. 1996;313(7054):411-3.        [ Links ]

10. Ballew B. Elsevier's Scopus Database. Journal Of Electronic Resources in Medical Libraries. 2009(6);3:245-52.        [ Links ]

11. Chapron G, Huste A. Open, fair, and free journal ranking for researchers. Bioscience. 2006; 56(7):558-9.        [ Links ]

12. Rau J. Factores de impacto de la Revista Chilena de Historia Natural: 1991-1995. Rev Chil Histor Nat. 1997;70:453-7.        [ Links ]

13. Elsevier. Thomson Reuters speaks with David Tempest. Associate Director of Research and Academic Relations for Elsevier [Internet]. 2008 Jun 26 [citado 2009 nov 1] Disponible en: http://thomsonreuters.com.        [ Links ]

14. Venkatraman A. Impact factors dominate citation metrics [Internet]; 2009 sep 10 [citado 2009 nov 1]; Disponible en: http://www.iwr.co.uk/information-world-review/analysis/2249258/journals-cherish-status-symbo.l        [ Links ]

15. Hirsch JE. An index to quantify an individual's scientific research output. Proc Natl Acad Sci USA. 2005;102(46):16569-72.        [ Links ]

16. Bornmann L, Daniel HD. What do we know about the h-index? J Am Soc Inf Sci Technol. 58(9):1381-5.        [ Links ]

17. Andersen J, Belmont J, Cho C. Journal impact factor in the era of expanding literature. J Microbiol Immunol Infect. 2006;39(6):436-43.        [ Links ]

18. Grzybowski A. The journal impact factor: How to interpret its true value and importance. Med Sci Monit. 2009;15(2):SR1-4.        [ Links ]

19. Kanthraj Gr. Journal impact factor. Indian J Dermatol Venereol Leprol. 2006;72(4):322-5.        [ Links ]

20. McGarty C. The citation impact factor in social psychology: a bad statistic that encourages bad science. Curr Res Soc Psychol. 2000;5(1):1-16.        [ Links ]

21. Science Watch. Journals ranked by impact: psychiatry [Internet]. New York: Thomson Reuters; 2009 Aug 16 [citado 2009 nov 1]. Disponible en: www.sciencewatch.com/dr/sci/09/aug16-09_1/.        [ Links ]

22. Williams G: Should we ditch impact factors? BMJ, 2007; 334: 568.        [ Links ]

Conflicto de interés: la autora manifiesta que no tiene ningún conflicto de interés en este artículo.

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons