Parte de una serie sobre |
Métricas de citación |
---|
Las métricas a nivel de autor son métricas de citas que miden el impacto bibliométrico de autores, investigadores, académicos y especialistas individuales. Se han desarrollado muchas métricas que tienen en cuenta una cantidad variable de factores (desde considerar únicamente la cantidad total de citas hasta analizar su distribución en artículos o revistas utilizando principios estadísticos o de teoría de grafos ).
Estas comparaciones cuantitativas entre investigadores se realizan principalmente para distribuir recursos (como dinero y puestos académicos). Sin embargo, todavía existe un debate en el mundo académico sobre la eficacia con la que las métricas a nivel de autor logran este objetivo. [1] [2] [3]
Las métricas a nivel de autor difieren de las métricas a nivel de revista , que intentan medir el impacto bibliométrico de las revistas académicas en lugar de los individuos, y de las métricas a nivel de artículo , que intentan medir el impacto de los artículos individuales. Sin embargo, las métricas desarrolladas originalmente para revistas académicas se pueden informar a nivel de investigador, como el factor propio a nivel de autor [4] y el factor de impacto del autor. [5]
Nombre | Descripción |
---|---|
índice h | Formalmente, si f es la función que corresponde al número de citas de cada publicación, el índice h se calcula de la siguiente manera. Primero, ordenamos los valores de f desde el mayor hasta el menor valor. Luego, buscamos la última posición en la que f es mayor o igual que la posición (llamamos h a esta posición). Por ejemplo, si tenemos un investigador con 5 publicaciones A, B, C, D y E con 10, 8, 5, 4 y 3 citas, respectivamente, el índice h es igual a 4 porque la cuarta publicación tiene 4 citas y la quinta tiene solo 3. En cambio, si las mismas publicaciones tienen 25, 8, 5, 3 y 3 citas, entonces el índice es 3 porque el cuarto artículo tiene solo 3 citas. [1] |
Índice h individual | Se ha propuesto un índice h individual normalizado por el número de autores: , siendo el número de autores considerados en los artículos. [6] Se encontró que la distribución del índice h , aunque depende del campo, se puede normalizar mediante un simple factor de reescalado. Por ejemplo, asumiendo como estándar la h s para biología, la distribución de h para matemáticas colapsa con ella si esta h se multiplica por tres, es decir, un matemático con h = 3 es equivalente a un biólogo con h = 9. Este método no ha sido adoptado fácilmente, tal vez debido a su complejidad. |
Índice h fraccional | Para evitar incentivar la hiperautoría con más de 100 coautores por artículo, podría ser más sencillo dividir el recuento de citas por el número de autores antes de ordenar los artículos y obtener el índice h fraccional , como sugirió originalmente Hirsch. Este índice, también llamado h-frac, no está altamente correlacionado con el índice h y actualmente está correlacionado con los premios científicos. [7] |
el 2 | Se han propuesto tres métricas adicionales: h2lower, h2center y h2upper , para dar una representación más precisa de la forma de la distribución. Las tres métricas h2 miden el área relativa dentro de la distribución de citas de un científico en el área de bajo impacto, h2lower , el área capturada por el índice h , h2center , y el área de publicaciones con la mayor visibilidad, h2upper . Los científicos con altos porcentajes de h2upper son perfeccionistas, mientras que los científicos con altos porcentajes de h2lower son productores en masa. Como estas métricas son porcentajes , tienen como objetivo dar una descripción cualitativa para complementar el índice h cuantitativo. [8] |
Índice h normalizado | Se ha demostrado que el índice h tiene un fuerte sesgo disciplinario. Sin embargo, una simple normalización por el promedio h de académicos en una disciplina d es una forma eficaz de mitigar este sesgo, obteniendo una métrica de impacto universal que permite la comparación de académicos de diferentes disciplinas. [9] |
Factor propio a nivel de autor | El factor propio a nivel de autor es una versión del factor propio para autores individuales. [10] El factor propio considera a los autores como nodos en una red de citas. La puntuación de un autor según esta métrica es la centralidad de su vector propio en la red. |
Número de Erdős | Se ha argumentado que "para un investigador individual, una medida como el número de Erdős captura las propiedades estructurales de la red, mientras que el índice h captura el impacto de las citas de las publicaciones. Uno puede convencerse fácilmente de que la clasificación en redes de coautoría debe tener en cuenta ambas medidas para generar una clasificación realista y aceptable". Ya se han propuesto varios sistemas de clasificación de autores, por ejemplo, el algoritmo Phys Author Rank. [11] |
índice i-10 | El índice i-10 indica la cantidad de publicaciones académicas que ha escrito un autor y que han sido citadas por al menos 10 fuentes. Fue introducido en julio de 2011 por Google como parte de su trabajo en Google Scholar . [12] |
Puntuación RG | ResearchGate Score o RG Score es una métrica a nivel de autor introducida por ResearchGate en 2012. [13] Según el director ejecutivo de ResearchGate, el Dr. Ijad Madisch , "[e]l RG Score permite una retroalimentación en tiempo real de las personas que importan: los propios científicos". [14] Se ha informado que RG Score está correlacionado con métricas a nivel de autor existentes y tiene una metodología de cálculo no revelada. [15] [16] [17] [18] Dos estudios informaron que RG Score parece incorporar los factores de impacto de la revista en el cálculo. [17] [18] Se encontró que RG Score estaba correlacionado negativamente con la centralidad de la red : los usuarios que son más activos en ResearchGate generalmente no tienen puntuaciones RG altas. [19] También se encontró que estaba fuertemente correlacionado positivamente con las clasificaciones universitarias de Quacquarelli Symonds a nivel institucional, pero solo débilmente con las clasificaciones de Elsevier SciVal de autores individuales. [20] Si bien se encontró que estaba correlacionado con diferentes clasificaciones universitarias, la correlación entre estas clasificaciones en sí fue mayor. [15] |
índice m | El índice m se define como h / n , donde h es el índice h y n es el número de años transcurridos desde el primer artículo publicado del científico; [1] también llamado cociente m . [21] [22] |
índice g | El índice g se introdujo en 2006 como el mayor número de artículos destacados que recibieron al menos citas. [23] |
índice electrónico | El índice e , la raíz cuadrada de las citas excedentes para el conjunto h más allá de h 2 , complementa el índice h para las citas ignoradas y, por lo tanto, es especialmente útil para científicos altamente citados y para comparar aquellos con el mismo índice h ( grupo de índice h iso ). [24] [25] |
c -índice | El índice c no sólo tiene en cuenta las citas, sino también la calidad de las citas en términos de la distancia de colaboración entre los autores que citan y los autores citados. Un científico tiene un índice c n si n de [sus] N citas son de autores que están a una distancia de colaboración de al menos n , y las otras ( N − n ) citas son de autores que están a una distancia de colaboración de como máximo n . [26] |
o -índice | El índice o corresponde a la media geométrica del índice h y el artículo más citado de un investigador. [27] |
Índice RA | El índice RA permite mejorar la sensibilidad del índice h en relación con el número de artículos muy citados y tiene muchos artículos citados y no citados en el núcleo h . Esta mejora puede mejorar la sensibilidad de medición del índice h . [28] |
Índice L | El índice L combina el número de citas, el número de coautores y la antigüedad de las publicaciones en un único valor, que es independiente del número de publicaciones y varía convenientemente de 0,0 a 9,9. [29] Con c como número de citas, a como número de autores e y como número de años, el índice L se define mediante la fórmula: El índice L se calcula automáticamente mediante la base de datos Exaly. [30] |
s -índice | Se ha propuesto un índice s que tiene en cuenta la distribución no entrópica de citas y se ha demostrado que tiene una muy buena correlación con h . [31] |
índice w | El índice w se define de la siguiente manera: si w de los artículos de un investigador tienen al menos citas cada uno y los otros artículos tienen menos de citas, el índice w de ese investigador es w . [32] |
Factor de impacto del autor | El Factor de Impacto del Autor (AIF) es el Factor de Impacto aplicado a los autores. [5] El AIF de un autor en el año es el número medio de citas dadas por los artículos publicados en el año a los artículos publicados por en un período de años antes del año . A diferencia del índice h, el AIF es capaz de capturar tendencias y variaciones del impacto de la producción científica de los científicos a lo largo del tiempo, que es una medida creciente teniendo en cuenta toda la trayectoria profesional. |
Existen varios modelos propuestos para incorporar la contribución relativa de cada autor a un artículo, por ejemplo, teniendo en cuenta el rango en la secuencia de autores. [33] Se ha propuesto una generalización del índice h y algunos otros índices que brindan información adicional sobre la forma de la función de citación del autor (de cola pesada, plana/con pico, etc.). [34] Debido a que el índice h nunca estuvo pensado para medir el éxito de publicaciones futuras, recientemente, un grupo de investigadores ha investigado las características que son más predictivas del índice h futuro . Es posible probar las predicciones utilizando una herramienta en línea. [ 35] Sin embargo, trabajos posteriores han demostrado que, dado que el índice h es una medida acumulativa, contiene una autocorrelación intrínseca que llevó a una sobrestimación significativa de su predictibilidad. Por lo tanto, la verdadera predictibilidad del índice h futuro es mucho menor en comparación con lo que se ha afirmado antes. [36] El índice h se puede cronometrar para analizar su evolución durante la carrera de uno, empleando diferentes ventanas de tiempo. [37]
Algunos académicos, como el físico Jorge E. Hirsch , han elogiado las métricas a nivel de autor como un "criterio útil con el que comparar, de manera imparcial, a diferentes individuos que compiten por el mismo recurso cuando un criterio de evaluación importante es el logro científico". [1] Sin embargo, otros miembros de la comunidad científica, e incluso el propio Hirsch, [38] las han criticado por ser particularmente susceptibles a manipular el sistema . [2] [3] [39]
Los trabajos en bibliometría han demostrado múltiples técnicas para la manipulación de métricas populares a nivel de autor. La métrica más utilizada, el índice h, se puede manipular a través de autocitas, [40] [41] [42] e incluso se pueden utilizar documentos sin sentido generados por computadora para ese propósito, por ejemplo utilizando SCIgen . [43] Las métricas también se pueden manipular mediante citas coercitivas , una práctica en la que un editor de una revista obliga a los autores a agregar citas falsas a sus propios artículos antes de que la revista acepte publicarlos. [44] [45]
Además, si el índice h se considera como un criterio de decisión para las agencias de financiación de la investigación, la solución de teoría de juegos para esta competencia implica aumentar la longitud promedio de las listas de coautores . [46] Un estudio que analizó >120 millones de artículos en el campo específico de la biología mostró que la validez de las medidas basadas en citas se está comprometiendo y su utilidad está disminuyendo. [47] Como predice la ley de Goodhart , la cantidad de publicaciones ya no es una buena métrica como resultado de artículos más cortos y listas de autores más largas.
Leo Szilard , el inventor de la reacción nuclear en cadena , también expresó críticas al sistema de toma de decisiones para la financiación científica en su libro "La voz de los delfines y otras historias". [48] El senador J. Lister Hill leyó extractos de esta crítica en una audiencia del senado de 1962 sobre la ralentización de la investigación del cáncer financiada por el gobierno . [49] El trabajo de Szilard se centra en las métricas que ralentizan el progreso científico, en lugar de en métodos específicos de manipulación:
"De hecho, creo que sería bastante fácil. Podría crearse una fundación con una dotación anual de treinta millones de dólares. Los investigadores que necesiten fondos podrían solicitar subvenciones, si pudieran enviar por correo una justificación convincente. Se crearían diez comités, cada uno compuesto por doce científicos, para que examinaran esas solicitudes. Se sacaría a los científicos más activos del laboratorio y se les haría miembros de esos comités. Y se nombraría presidentes a los mejores hombres en el campo, con salarios de cincuenta mil dólares cada uno. También habría que conceder unos veinte premios de cien mil dólares cada uno para los mejores artículos científicos del año. Eso es prácticamente todo lo que habría que hacer. Sus abogados podrían preparar fácilmente un estatuto para la fundación. De hecho, cualquiera de los proyectos de ley de la Fundación Nacional de la Ciencia que se presentaron en el 79.º y el 80.º Congreso podría servir perfectamente como modelo."
"En primer lugar, los mejores científicos serían sacados de sus laboratorios y se les mantendría ocupados en comités que aprobarían solicitudes de fondos. En segundo lugar, los trabajadores científicos necesitados de fondos se concentrarían en problemas que se consideraban prometedores y que era bastante seguro que llevarían a resultados publicables. Durante unos pocos años podría haber un gran aumento en la producción científica; pero si se perseguía lo obvio, muy pronto la ciencia se agotaría. La ciencia se convertiría en algo así como un juego de salón. Algunas cosas se considerarían interesantes, otras no. Habría modas. Aquellos que siguieran las modas obtendrían subvenciones. Aquellos que no las siguieran, no las obtendrían, y muy pronto aprenderían a seguirlas también". [48]
Propuse el índice H con la esperanza de que fuera una medida objetiva de los logros científicos. En general, creo que así se cree. Pero ahora he llegado a creer que también puede fallar espectacularmente y tener graves consecuencias negativas no deseadas. Puedo entender cómo se debe haber sentido el aprendiz de brujo. (p. 5)