Falsos positivos y falsos negativos

Tipos de errores en la presentación de datos

Un falso positivo es un error en la clasificación binaria en el que el resultado de una prueba indica incorrectamente la presencia de una afección (como una enfermedad cuando la enfermedad no está presente), mientras que un falso negativo es el error opuesto, en el que el resultado de la prueba indica incorrectamente la ausencia de una afección cuando en realidad está presente. Estos son los dos tipos de errores en una prueba binaria , en contraste con los dos tipos de resultado correcto (un resultado positivo falso).verdadero positivo y unverdadero negativo ). También se conocen en medicina comodiagnósticofalso positivo(ofalso negativo), y enla clasificación estadísticacomoerrorfalso positivo(ofalso negativo).[1]

En las pruebas de hipótesis estadísticas , los conceptos análogos se conocen como errores de tipo I y de tipo II , donde un resultado positivo corresponde a rechazar la hipótesis nula y un resultado negativo corresponde a no rechazar la hipótesis nula. Los términos se utilizan a menudo indistintamente, pero existen diferencias en los detalles y la interpretación debido a las diferencias entre las pruebas médicas y las pruebas de hipótesis estadísticas.

Error de falso positivo

Un error de falso positivo , o falso positivo , es un resultado que indica que existe una determinada condición cuando no es así. Por ejemplo, una prueba de embarazo que indica que una mujer está embarazada cuando no lo está, o la condena de una persona inocente.

Un error de falso positivo es un error de tipo I en el que la prueba comprueba una sola condición y da una decisión afirmativa (positiva) de forma errónea. Sin embargo, es importante distinguir entre la tasa de error de tipo 1 y la probabilidad de que un resultado positivo sea falso. Esta última se conoce como riesgo de falso positivo (véase Ambigüedad en la definición de tasa de falsos positivos, más adelante). [2]

Error de falso negativo

Un error de falso negativo , o falso negativo , es un resultado de una prueba que indica erróneamente que una condición no se cumple. Por ejemplo, cuando una prueba de embarazo indica que una mujer no está embarazada, pero sí lo está, o cuando una persona culpable de un delito es absuelta, se trata de falsos negativos. La condición "la mujer está embarazada" o "la persona es culpable" se cumple, pero la prueba (la prueba de embarazo o el juicio en un tribunal de justicia) no tiene en cuenta esta condición y decide erróneamente que la persona no está embarazada o que no es culpable.

Un error falso negativo es un error de tipo II que ocurre en una prueba en la que se comprueba una sola condición y el resultado de la prueba es erróneo (es decir, que la condición está ausente). [3]

Tasas de falsos positivos y falsos negativos

La tasa de falsos positivos (FPR) es la proporción de todos los negativos que aún producen resultados positivos en la prueba, es decir, la probabilidad condicional de un resultado positivo en la prueba dado un evento que no estaba presente.

La tasa de falsos positivos es igual al nivel de significación . La especificidad de la prueba es igual a 1 menos la tasa de falsos positivos.

En las pruebas de hipótesis estadísticas , esta fracción se representa con la letra griega α y 1 −  α se define como la especificidad de la prueba. Aumentar la especificidad de la prueba reduce la probabilidad de errores de tipo I, pero puede aumentar la probabilidad de errores de tipo II (falsos negativos que rechazan la hipótesis alternativa cuando es verdadera). [a]

Complementariamente, laLa tasa de falsos negativos (FNR) es la proporción de positivos que arrojan resultados negativos con la prueba, es decir, la probabilidad condicional de un resultado negativo dado que la condición buscada está presente.

En las pruebas de hipótesis estadísticas , esta fracción se denomina β . La " potencia " (o " sensibilidad ") de la prueba es igual a 1 −  β .

Ambigüedad en la definición de tasa de falsos positivos

El término tasa de falsos descubrimientos (FDR) fue utilizado por Colquhoun (2014) [4] para referirse a la probabilidad de que un resultado "significativo" fuera un falso positivo. Posteriormente, Colquhoun (2017) [2] utilizó el término riesgo de falsos positivos (FPR) para la misma cantidad, para evitar confusiones con el término FDR que utilizan las personas que trabajan en comparaciones múltiples . Las correcciones para comparaciones múltiples solo tienen como objetivo corregir la tasa de error de tipo I, por lo que el resultado es un valor p (corregido) . Por lo tanto, son susceptibles a la misma interpretación errónea que cualquier otro valor p . El riesgo de falsos positivos siempre es mayor, a menudo mucho mayor, que el valor p . [4] [2]

La confusión de estas dos ideas, el error del condicional transpuesto , ha causado mucho daño. [5] Debido a la ambigüedad de la notación en este campo, es esencial mirar la definición en cada artículo. Los peligros de confiar en los valores p fueron enfatizados en Colquhoun (2017) [2] al señalar que incluso una observación de p = 0,001 no era necesariamente una evidencia sólida en contra de la hipótesis nula. A pesar del hecho de que la razón de verosimilitud a favor de la hipótesis alternativa sobre la nula es cercana a 100, si la hipótesis fuera inverosímil, con una probabilidad previa de un efecto real de 0,1, incluso la observación de p = 0,001 tendría una tasa de falsos positivos del 8 por ciento. Ni siquiera alcanzaría el nivel del 5 por ciento. Como consecuencia, se ha recomendado [2] [6] que cada valor p debe ir acompañado de la probabilidad previa de que haya un efecto real que sería necesario asumir para lograr un riesgo de falsos positivos del 5%. Por ejemplo, si observamos p = 0,05 en un solo experimento, tendríamos que estar 87% seguros de que hubo un efecto real antes de que se realizara el experimento para lograr un riesgo de falso positivo del 5%.

Característica de funcionamiento del receptor

El artículo " Características operativas del receptor " analiza los parámetros del procesamiento estadístico de señales basados ​​en proporciones de errores de varios tipos.

Véase también

Notas

  1. ^ Al desarrollar algoritmos o pruebas de detección, se debe lograr un equilibrio entre los riesgos de falsos negativos y falsos positivos. Por lo general, existe un umbral que indica qué tan cerca debe alcanzarse una coincidencia con una muestra determinada antes de que el algoritmo informe una coincidencia. Cuanto más alto sea este umbral, habrá más falsos negativos y menos falsos positivos.

Referencias

  1. ^ Falsos positivos y falsos negativos
  2. ^ abcde Colquhoun, David (2017). "La reproducibilidad de la investigación y la interpretación errónea de los valores p". Royal Society Open Science . 4 (12): 171085. doi :10.1098/rsos.171085. PMC  5750014 . PMID  29308247.
  3. ^ Banerjee, A; Chitnis, UB; Jadhav, SL; Bhawalkar, JS; Chaudhury, S (2009). "Prueba de hipótesis, errores tipo I y tipo II". Ind Psychiatry J. 18 ( 2): 127–31. doi : 10.4103/0972-6748.62274 . PMC 2996198. PMID  21180491 . 
  4. ^ ab Colquhoun, David (2014). "Una investigación de la tasa de descubrimientos falsos y la interpretación errónea de los valores p". Royal Society Open Science . 1 (3): 140216. arXiv : 1407.5296 . Bibcode :2014RSOS....140216C. doi :10.1098/rsos.140216. PMC 4448847 . PMID  26064558. 
  5. ^ Colquhoun, David. "El problema con los valores p". Aeon . Revista Aeon . Consultado el 11 de diciembre de 2016 .
  6. ^ Colquhoun, David (2018). "El riesgo de falsos positivos: una propuesta sobre qué hacer con los valores p". The American Statistician . 73 : 192–201. arXiv : 1802.04888 . doi :10.1080/00031305.2018.1529622. S2CID  85530643.
Obtenido de "https://es.wikipedia.org/w/index.php?title=Falsos_positivos_y_falsos_negativos&oldid=1249116936"