Parte de una serie sobre |
Métricas de citación |
---|
El factor de impacto ( FI ) o factor de impacto de la revista ( JIF ) de una revista académica es un índice cienciométrico calculado por Clarivate que refleja la media anual del número de citas de artículos publicados en los últimos dos años en una revista determinada, según el índice de la Web of Science de Clarivate .
Como métrica a nivel de revista , se utiliza frecuentemente como un indicador de la importancia relativa de una revista dentro de su campo; las revistas con valores de factor de impacto más altos reciben el estatus de ser más importantes o tienen más prestigio en sus respectivos campos que aquellas con valores más bajos.
Aunque las universidades y los organismos de financiación lo utilizan con frecuencia para decidir sobre propuestas de promoción e investigación, ha sido criticado por distorsionar las buenas prácticas científicas. [1] [2] [3]
El factor de impacto fue ideado por Eugene Garfield , fundador del Institute for Scientific Information (ISI) en Filadelfia. Los factores de impacto comenzaron a calcularse anualmente a partir de 1975 para las revistas incluidas en el Journal Citation Reports (JCR). ISI fue adquirida por Thomson Scientific & Healthcare en 1992, [4] y pasó a conocerse como Thomson ISI. En 2018, Thomson-Reuters se separó y vendió ISI a Onex Corporation y Baring Private Equity Asia . [5] Fundaron una nueva corporación, Clarivate, que ahora es la editorial del JCR. [6]
En un año determinado, el factor de impacto de una revista de dos años es la relación entre el número de citas recibidas en ese año por publicaciones en esa revista que se publicaron en los dos años anteriores y el número total de "ítems citables" publicados en esa revista durante los dos años anteriores: [7] [8]
Por ejemplo, Nature tuvo un factor de impacto de 41,577 en 2017: [9]
Esto significa que, en promedio, sus artículos publicados en 2015 y 2016 recibieron aproximadamente 42 citas cada uno en 2017. Los factores de impacto de 2017 se informan en 2018; no se pueden calcular hasta que la agencia de indexación haya procesado todas las publicaciones de 2017.
El valor del factor de impacto depende de cómo se definan las "citas" y las "publicaciones"; a estas últimas se las suele denominar "elementos citables". En la práctica actual, tanto las "citas" como las "publicaciones" se definen exclusivamente por ISI de la siguiente manera. Las "publicaciones" son elementos que se clasifican como "artículo", "revisión" o "documento de actas" [10] en la base de datos Web of Science (WoS); se excluyen otros elementos como editoriales, correcciones, notas, retractaciones y discusiones. WoS es accesible para todos los usuarios registrados, que pueden verificar de forma independiente el número de elementos citables de una revista determinada. Por el contrario, el número de citas no se extrae de la base de datos WoS, sino de una base de datos JCR dedicada, a la que no tienen acceso los lectores generales. Por lo tanto, el "factor de impacto JCR" de uso común es un valor propietario, que es definido y calculado por ISI y no puede ser verificado por usuarios externos. [11]
Las revistas nuevas, que se indexan a partir de su primer número publicado, recibirán un factor de impacto después de dos años de indexación; en este caso, las citas al año anterior al volumen 1 y el número de artículos publicados en el año anterior al volumen 1 son valores cero conocidos. Las revistas que se indexan a partir de un volumen distinto del primero no obtendrán un factor de impacto hasta que hayan estado indexadas durante tres años. Ocasionalmente, Journal Citation Reports asigna un factor de impacto a las revistas nuevas con menos de dos años de indexación, basándose en datos de citas parciales. [12] [13] El cálculo siempre utiliza dos años completos y conocidos de recuentos de ítems, pero para los títulos nuevos uno de los recuentos conocidos es cero. Los anuarios y otras publicaciones irregulares a veces no publican ítems en un año en particular, lo que afecta el recuento. El factor de impacto se relaciona con un período de tiempo específico; es posible calcularlo para cualquier período deseado. Por ejemplo, el JCR también incluye un factor de impacto de cinco años , que se calcula dividiendo el número de citas a la revista en un año determinado por el número de artículos publicados en esa revista en los cinco años anteriores. [14] [15]
Aunque en un principio se inventó como una herramienta para ayudar a los bibliotecarios universitarios a decidir qué revistas comprar, el factor de impacto pronto se empezó a utilizar como medida para juzgar el éxito académico. Hoeffel resumió este uso de los factores de impacto en 1998: [16]
El factor de impacto no es una herramienta perfecta para medir la calidad de los artículos pero no hay nada mejor y tiene la ventaja de que ya existe y es, por tanto, una buena técnica de evaluación científica. La experiencia ha demostrado que en cada especialidad las mejores revistas son aquellas en las que es más difícil que un artículo sea aceptado, y son éstas las que tienen un factor de impacto alto. La mayoría de estas revistas existían mucho antes de que se ideara el factor de impacto. El uso del factor de impacto como medida de calidad está muy extendido porque encaja bien con la opinión que tenemos en cada campo de las mejores revistas de nuestra especialidad....En conclusión, las revistas de prestigio publican trabajos de alto nivel. Por tanto, su factor de impacto es alto, y no al contrario.
Como los factores de impacto son una métrica a nivel de revista, en lugar de una métrica a nivel de artículo o de individuo, su uso es controvertido. Eugene Garfield, el inventor del JIF, estuvo de acuerdo con Hoeffel, [17] pero advirtió sobre el "mal uso en la evaluación de individuos" porque existe "una amplia variación [de citas] de un artículo a otro dentro de una misma revista". [18] A pesar de esta advertencia, el uso del JIF ha evolucionado y desempeña un papel clave en el proceso de evaluación de investigadores individuales, sus solicitudes de empleo y sus propuestas de financiación. En 2005, The Journal of Cell Biology señaló que:
Los datos del factor de impacto... tienen una fuerte influencia en la comunidad científica, afectando las decisiones sobre dónde publicar, a quién promover o contratar, el éxito de las solicitudes de subvenciones e incluso las bonificaciones salariales. [19]
Una investigación más específica ha comenzado a proporcionar evidencia sólida de cuán profundamente está arraigado el factor de impacto en los procesos formales e informales de evaluación de la investigación. Una revisión realizada en 2019 estudió la frecuencia con la que el JIF aparecía en documentos relacionados con la revisión, promoción y permanencia de científicos en universidades estadounidenses y canadienses. Concluyó que el 40% de las universidades centradas en la investigación académica mencionaban específicamente el JIF como parte de dichos procesos de revisión, promoción y permanencia. [20] Y un estudio de 2017 sobre cómo se comportan los investigadores en las ciencias de la vida concluyó que "las prácticas cotidianas de toma de decisiones están muy regidas por las presiones para publicar en revistas de alto impacto". La naturaleza profundamente arraigada de dichos indicadores no solo afecta la evaluación de la investigación, sino también la cuestión más fundamental de qué investigación se lleva a cabo realmente: "Dadas las formas actuales de evaluación y valoración de la investigación, los proyectos arriesgados, prolongados y poco ortodoxos rara vez ocupan el centro del escenario". [21]
Se han hecho numerosas críticas con respecto al uso de factores de impacto, tanto en términos de su validez estadística como de sus implicaciones para la forma en que se lleva a cabo y se evalúa la ciencia. [3] [22] [23] [24] [25] Un estudio de 2007 señaló que el defecto más fundamental es que los factores de impacto presentan la media de los datos que no se distribuyen normalmente , y sugirió que sería más apropiado presentar la mediana de estos datos. [19] También existe un debate más general sobre la validez del factor de impacto como medida de la importancia de la revista y el efecto de las políticas que los editores pueden adoptar para impulsar su factor de impacto (quizás en detrimento de los lectores y escritores). Otras críticas se centran en el efecto del factor de impacto en el comportamiento de los académicos, editores y otras partes interesadas. [26] Otras críticas argumentan que el énfasis en el factor de impacto resulta de la influencia negativa de la política neoliberal en la academia. Algunos de estos argumentos exigen no sólo la sustitución del factor de impacto por métricas más sofisticadas, sino también un debate sobre el valor social de la evaluación de la investigación y la creciente precariedad de las carreras científicas en la educación superior. [27] [28]
Se ha afirmado que los factores de impacto en particular y el análisis de citas en general se ven afectados por factores dependientes del campo [29] que invalidan las comparaciones no solo entre disciplinas sino incluso dentro de diferentes campos de investigación de una disciplina. [30] El porcentaje de citas totales que ocurren en los primeros dos años después de la publicación también varía mucho entre disciplinas, desde el 1-3% en las ciencias matemáticas y físicas hasta el 5-8% en las ciencias biológicas. [31] Por lo tanto, los factores de impacto no se pueden utilizar para comparar revistas entre disciplinas.
Los factores de impacto se utilizan a veces para evaluar no sólo las revistas sino también los artículos que se publican en ellas, devaluando así los artículos sobre determinadas materias. [32] En 2004, el Comité Selecto de Ciencia y Tecnología de la Cámara de los Comunes instó al Consejo de Financiación de la Educación Superior de Inglaterra a recordar a los paneles de evaluación de la investigación que están obligados a evaluar la calidad del contenido de los artículos individuales, no la reputación de la revista en la que se publican. [33] Otros estudios han afirmado repetidamente que el factor de impacto es una métrica para las revistas y no debería utilizarse para evaluar a investigadores o instituciones individuales. [34] [35] [36]
Debido a que el factor de impacto se acepta comúnmente como un indicador de la calidad de la investigación, algunas revistas adoptan políticas y prácticas editoriales, algunas aceptables y otras de dudoso propósito, para aumentar su factor de impacto. [37] [38] Por ejemplo, las revistas pueden publicar un mayor porcentaje de artículos de revisión que generalmente se citan más que los informes de investigación. [8] Una investigación realizada en 2020 sobre revistas de odontología concluyó que la publicación de "revisiones sistemáticas tiene un efecto significativo en el factor de impacto de la revista ... mientras que los artículos que publican ensayos clínicos no tienen influencia en este factor. Un mayor promedio anual de artículos publicados ... significa un mayor factor de impacto". [39]
Las revistas también pueden intentar limitar el número de "ítems citables" (es decir, el denominador de la ecuación del factor de impacto), ya sea negándose a publicar artículos que es poco probable que sean citados (como informes de casos en revistas médicas) o alterando los artículos (por ejemplo, no permitiendo un resumen o bibliografía con la esperanza de que Journal Citation Reports no los considere un "ítem citable"). Como resultado de las negociaciones sobre si los artículos son "citables", se han observado variaciones del factor de impacto de más del 300%. [40] Los artículos considerados no citables (y por lo tanto no se incorporan a los cálculos del factor de impacto) pueden, si se citan, ingresar en la parte del numerador de la ecuación a pesar de la facilidad con la que tales citas podrían excluirse. Este efecto es difícil de evaluar, ya que la distinción entre comentarios editoriales y artículos originales breves no siempre es obvia. Por ejemplo, las cartas al editor pueden ser parte de cualquiera de las dos clases.
Otra táctica menos insidiosa que emplean las revistas es publicar una gran parte de sus artículos, o al menos los artículos que se espera que sean muy citados, a principios del año calendario. Esto les da más tiempo para reunir citas. Existen varios métodos, no necesariamente con intenciones maliciosas, para que una revista cite artículos de la misma revista, lo que aumentará el factor de impacto de la revista. [41] [42]
Más allá de las políticas editoriales que pueden distorsionar el factor de impacto, las revistas pueden tomar medidas manifiestas para manipular el sistema . Por ejemplo, en 2007, la revista especializada Folia Phoniatrica et Logopaedica , con un factor de impacto de 0,66, publicó un editorial que citaba todos sus artículos de 2005 a 2006 en protesta contra la "absurda situación científica en algunos países" relacionada con el uso del factor de impacto. [43] La gran cantidad de citas hizo que el factor de impacto de esa revista aumentara a 1,44. Como resultado de este aumento, la revista no fue incluida en los Journal Citation Reports de 2008 y 2009. [44]
La citación coercitiva es una práctica en la que un editor obliga a un autor a añadir citas extrañas a un artículo antes de que la revista acepte publicarlo, con el fin de inflar el factor de impacto de la revista. [45] Una encuesta publicada en 2012 indica que la citación coercitiva ha sido experimentada por uno de cada cinco investigadores que trabajan en economía, sociología, psicología y múltiples disciplinas empresariales, y es más común en empresas y en revistas con un factor de impacto más bajo. [46] Los editores de las principales revistas empresariales se unieron para repudiar la práctica. [47] Sin embargo, ocasionalmente se han reportado casos de citación coercitiva para otras disciplinas. [48]
El factor de impacto de una revista fue diseñado originalmente por Eugene Garfield como una métrica para ayudar a los bibliotecarios a tomar decisiones sobre qué revistas valían la pena indexar, ya que el JIF agrega el número de citas a los artículos publicados en cada revista. Desde entonces, el JIF se ha asociado como una marca de "calidad" de una revista y se ha generalizado su uso para la evaluación de la investigación y los investigadores, incluso a nivel institucional. Por lo tanto, tiene un impacto significativo en la orientación de las prácticas y los comportamientos de investigación. [49] [2] [50]
En 2010, las instituciones nacionales e internacionales de financiación de la investigación ya empezaban a señalar que los indicadores numéricos como el JIF no deberían considerarse una medida de calidad. [nota 1] De hecho, la investigación indicaba que el JIF es una métrica altamente manipulada, [51] [52] [53] y la justificación para su continuo uso generalizado más allá de su estrecho propósito original parece deberse a su simplicidad (número fácilmente calculable y comparable), en lugar de a una relación real con la calidad de la investigación. [54] [55] [56]
La evidencia empírica muestra que el uso indebido del JIF (y de las métricas de clasificación de revistas en general) tiene una serie de consecuencias negativas para el sistema de comunicación académica. Estas incluyen brechas entre el alcance de una revista y la calidad de sus artículos individuales [25] y una cobertura insuficiente de las ciencias sociales y las humanidades, así como de los resultados de investigación de toda América Latina, África y el sudeste asiático [57] . Otros inconvenientes incluyen la marginalización de la investigación en lenguas vernáculas y sobre temas relevantes a nivel local y la inducción a prácticas de autoría y citación poco éticas. En términos más generales, los factores de impacto fomentan una economía de reputación, donde el éxito científico se basa en la publicación en revistas prestigiosas por encima de las cualidades reales de la investigación, como los métodos rigurosos, la replicabilidad y el impacto social. Se ha demostrado que el uso del prestigio de las revistas y del JIF para cultivar un régimen de competencia en el ámbito académico tiene efectos nocivos para la calidad de la investigación [58] .
En la actualidad, existen varias iniciativas regionales e internacionales que ofrecen y sugieren sistemas alternativos de evaluación de la investigación, entre los que se incluyen documentos clave como el Manifiesto de Leiden [nota 2] y la Declaración de San Francisco sobre Evaluación de la Investigación (DORA). El Plan S exige una adopción e implementación más amplia de dichas iniciativas junto con cambios fundamentales en el sistema de comunicación académica. [nota 3] Como medidas adecuadas de calidad para los autores y la investigación, los conceptos de excelencia en la investigación deberían remodelarse en torno a flujos de trabajo transparentes y resultados de investigación accesibles. [59] [60] [61]
Los JIF todavía se utilizan regularmente para evaluar la investigación en muchos países, lo que constituye un problema ya que persisten varios problemas en torno a la opacidad de la métrica y al hecho de que a menudo es negociada por los editores. [62] [63] [19]
Los resultados de un factor de impacto pueden cambiar drásticamente dependiendo de qué elementos se consideren "citables" y, por lo tanto, se incluyan en el denominador. [64] Un ejemplo notorio de esto ocurrió en 1988 cuando se decidió que los resúmenes de reuniones publicados en FASEB Journal ya no se incluirían en el denominador. El factor de impacto de la revista aumentó de 0,24 en 1988 a 18,3 en 1989. [65] Los editores discuten rutinariamente con Clarivate cómo mejorar la "precisión" del factor de impacto de sus revistas y, por lo tanto, obtener puntuaciones más altas. [40] [25]
Estas discusiones producen rutinariamente "valores negociados" que resultan en cambios dramáticos en las puntuaciones observadas para docenas de revistas, a veces después de eventos no relacionados como la compra por parte de uno de los editores más grandes. [66]
Debido a que los recuentos de citas tienen distribuciones altamente sesgadas , [24] el número medio de citas es potencialmente engañoso si se utiliza para medir el impacto típico de los artículos en la revista en lugar del impacto general de la revista en sí. [68] Por ejemplo, alrededor del 90% del factor de impacto de Nature de 2004 se basó en solo una cuarta parte de sus publicaciones. Por lo tanto, el número real de citas para un solo artículo en la revista es en la mayoría de los casos mucho menor que el número medio de citas en todos los artículos. [69] Además, la fuerza de la relación entre los factores de impacto de las revistas y las tasas de citas de los artículos en ellas ha estado disminuyendo constantemente desde que los artículos comenzaron a estar disponibles digitalmente. [70]
El efecto de los valores atípicos se puede ver en el caso del artículo "Una breve historia de SHELX", que incluía esta frase: "Este artículo podría servir como una cita bibliográfica general cuando uno o más de los programas SHELX de código abierto (y la versión SHELXTL de Bruker AXS) se emplean en el curso de una determinación de la estructura cristalina". Este artículo recibió más de 6.600 citas. Como consecuencia, el factor de impacto de la revista Acta Crystallographica Section A aumentó de 2,051 en 2008 a 49,926 en 2009, más que Nature (con 31,434) y Science (con 28,103). [71] El segundo artículo más citado en Acta Crystallographica Section A en 2008 tuvo solo 28 citas. [72]
Los críticos del JIF afirman que el uso de la media aritmética en su cálculo es problemático porque el patrón de distribución de citas está sesgado [73] y se han propuesto métricas de distribución de citas como una alternativa a los factores de impacto. [74] [75] [76]
Sin embargo, también se ha pedido que se adopte un enfoque más matizado para juzgar la asimetría de la distribución del factor de impacto. Ludo Waltman y Vincent Antonio Traag, en su artículo de 2021, realizaron numerosas simulaciones y concluyeron que "las objeciones estadísticas contra el uso del factor de impacto a nivel de artículos individuales no son convincentes" y que "el factor de impacto puede ser un indicador más preciso del valor de un artículo que el número de citas del artículo". [1]
Si bien el modelo matemático subyacente es de conocimiento público, el conjunto de datos que se utiliza para calcular el JIF no está disponible públicamente. Esto provocó críticas: "Así como los científicos no aceptarían los hallazgos de un artículo científico sin ver los datos primarios, tampoco deberían confiar en el factor de impacto de Thomson Scientific, que se basa en datos ocultos". [19] Sin embargo, un artículo de 2019 demostró que "con acceso a los datos y una limpieza cuidadosa, el JIF se puede reproducir", aunque esto requirió mucho trabajo para lograrlo. [77] Un artículo de investigación de 2020 fue más allá. Indicó que al consultar bases de datos de acceso abierto o parcialmente abierto, como Google Scholar, ResearchGate y Scopus, es posible calcular factores de impacto aproximados sin la necesidad de comprar Web of Science / JCR. [78]
Así como el factor de impacto ha sido criticado por varios problemas inmediatos asociados con su aplicación, también ha habido críticas de que su aplicación socava el proceso más amplio de la ciencia. Las investigaciones han indicado que las cifras bibliométricas, en particular el factor de impacto, reducen la calidad de la revisión por pares que recibe un artículo, [79] provocan una renuencia a compartir datos, [21] disminuyen la calidad de los artículos, [80] y reducen el alcance de la investigación publicable. "Para muchos investigadores, las únicas preguntas y proyectos de investigación que parecen viables son aquellos que pueden satisfacer la demanda de una buena puntuación en términos de indicadores de rendimiento métrico, y principalmente el factor de impacto de la revista". [21] Además, el proceso de publicación y la ciencia se ralentizan -los autores automáticamente intentan publicar en las revistas con el factor de impacto más alto- "ya que los editores y revisores tienen la tarea de revisar artículos que no se envían a los lugares más apropiados". [77]
En vista de las crecientes críticas y de su uso generalizado como medio de evaluación de la investigación, las organizaciones e instituciones han comenzado a tomar medidas para alejarse del factor de impacto de las revistas. En noviembre de 2007, la Asociación Europea de Editores Científicos (EASE) emitió una declaración oficial en la que recomendaba "que los factores de impacto de las revistas se utilicen únicamente -y con cautela- para medir y comparar la influencia de revistas enteras, pero no para la evaluación de artículos individuales y, desde luego, no para la evaluación de investigadores o programas de investigación". [23]
En julio de 2008, el Comité sobre Libertad y Responsabilidad en la Conducta Científica del Consejo Internacional para la Ciencia emitió una "declaración sobre las prácticas e índices de publicación y el papel de la revisión por pares en la evaluación de la investigación", sugiriendo muchas soluciones posibles, por ejemplo, considerar un número límite de publicaciones por año a tener en cuenta para cada científico, o incluso penalizar a los científicos por un número excesivo de publicaciones por año (por ejemplo, más de 20). [81]
En febrero de 2010, la Deutsche Forschungsgemeinschaft (Fundación Alemana de Investigación) publicó nuevas directrices para reducir el número de publicaciones que se podían presentar al solicitar financiación: "El enfoque no se ha centrado en qué investigación ha realizado alguien, sino más bien en cuántos artículos se han publicado y dónde". Señalaron que para las decisiones relativas a "asignaciones de financiación basadas en el rendimiento, calificaciones postdoctorales, nombramientos o revisión de propuestas de financiación, [donde] se ha dado una importancia cada vez mayor a indicadores numéricos como el índice h y el factor de impacto". [82] El Ejercicio de Evaluación de Investigación del Reino Unido para 2014 también prohibió el factor de impacto de las revistas [83], aunque la evidencia sugirió que esta prohibición a menudo se ignoraba. [84]
En respuesta a las crecientes preocupaciones sobre el uso inadecuado de los factores de impacto de las revistas para evaluar los resultados científicos y a los propios científicos, la Sociedad Estadounidense de Biología Celular, junto con un grupo de editores y editores de revistas académicas, creó la Declaración de San Francisco sobre Evaluación de la Investigación (DORA, por sus siglas en inglés). Publicada en mayo de 2013, DORA ha obtenido el apoyo de miles de personas y cientos de instituciones, [28] incluida en marzo de 2015 la Liga de Universidades de Investigación Europeas (un consorcio de 21 de las universidades de investigación más reconocidas de Europa), [85] que han respaldado el documento en el sitio web de DORA.
Los editores, incluso aquellos con altos factores de impacto, también reconocieron los defectos. [86] La revista Nature criticó la excesiva dependencia del JIF, señalando no sólo sus defectos estadísticos sino también los efectos negativos sobre la ciencia: "Las presiones y decepciones resultantes no son más que desmoralizantes, y en laboratorios mal gestionados pueden fomentar una investigación descuidada que, por ejemplo, no prueba los supuestos a fondo o no tiene en cuenta todos los datos antes de presentar grandes afirmaciones". [87] Varios editores utilizan ahora una mezcla de métricas en su sitio web; la serie de revistas PLOS no muestra el factor de impacto. [88] Microsoft Academic adoptó una opinión similar, afirmando que el índice h, el EI/SCI y los factores de impacto de las revistas no se muestran porque "la literatura de investigación ha proporcionado abundante evidencia de que estas métricas son, en el mejor de los casos, una aproximación aproximada del impacto de la investigación y la influencia académica". [89]
En 2021, la Universidad de Utrecht prometió abandonar toda la bibliometría cuantitativa, incluido el factor de impacto. La universidad afirmó que "se ha convertido en un modelo muy enfermizo que va más allá de lo que es realmente relevante para la ciencia y para promover la ciencia". [90] [91] Esto siguió a una decisión de 2018 del principal organismo de financiación holandés para la investigación, NWO , de eliminar todas las referencias a los factores de impacto de las revistas y al índice h en todos los textos de convocatoria y formularios de solicitud. [92] La decisión de Utrecht encontró cierta resistencia. Una carta abierta firmada por más de 150 académicos holandeses argumentó que, aunque imperfecto, el JIF sigue siendo útil y que omitirlo "conducirá a la aleatoriedad y a un compromiso de la calidad científica". [93]
Algunas métricas relacionadas, también calculadas y publicadas por la misma organización, incluyen:
Una revista determinada puede alcanzar un cuartil o percentil diferente en diferentes categorías.
Al igual que con el factor de impacto, esto tiene algunos matices: por ejemplo, Clarivate excluye ciertos tipos de artículos (como noticias, correspondencia y erratas) del denominador. [99] [100] [101] [10]
Existen otras métricas a nivel de revista disponibles en otras organizaciones. Por ejemplo, CiteScore es una métrica para títulos de publicaciones periódicas en Scopus lanzada en diciembre de 2016 por Elsevier . [102] [103] Si bien estas métricas se aplican solo a las revistas, también hay métricas a nivel de autor , como el índice h , que se aplican a investigadores individuales. Además, las métricas a nivel de artículo miden el impacto a nivel de artículo en lugar de a nivel de revista.
Otras métricas alternativas más generales, o " altmetrics ", que incluyen visualizaciones de artículos, descargas o menciones en redes sociales , ofrecen una perspectiva diferente sobre el impacto de la investigación, concentrándose más en el impacto social inmediato dentro y fuera del ámbito académico. [61] [104]
Los factores de impacto falsos o factores de impacto ficticios son producidos por ciertas empresas o individuos. [105] Según un artículo publicado en Electronic Physician , estos incluyen Global Impact Factor, Citefactor y Universal Impact Factor. [105] Jeffrey Beall mantuvo una lista de tales métricas engañosas. [106] [107] Otra práctica engañosa es informar "factores de impacto alternativos", calculados como el número promedio de citas por artículo utilizando índices de citas distintos de JCR como Google Scholar (por ejemplo, "Google-based Journal Impact Factor") o Microsoft Academic . [108]
Los editores depredadores suelen utilizar factores de impacto falsos . [109] [110] Consultar la lista maestra de revistas de Journal Citation Reports puede confirmar si una publicación está indexada por Journal Citation Reports . [111] El uso de métricas de impacto falsas se considera una señal de alerta . [112]
Medida de la velocidad con la que se selecciona y se hace referencia al contenido de una revista en particular.
El índice de inmediatez es el número promedio de veces que se cita un artículo en el año de su publicación. El índice de inmediatez de una revista indica la rapidez con la que se citan los artículos de una revista. El índice de inmediatez agregado indica la rapidez con la que se citan los artículos de una categoría temática.