Clasificación binaria

Dividir las cosas en dos categorías

La clasificación binaria es la tarea de clasificar los elementos de un conjunto en uno de dos grupos (cada uno llamado clase ). Los problemas típicos de clasificación binaria incluyen:

Al medir la precisión de un clasificador binario, la forma más sencilla es contar los errores. Pero en el mundo real, a menudo una de las dos clases es más importante, por lo que el número de ambos tipos de errores es de interés. Por ejemplo, en las pruebas médicas, detectar una enfermedad cuando no está presente (un falso positivo ) se considera de forma diferente a no detectar una enfermedad cuando está presente (un falso negativo ).

En este conjunto de instancias probadas, las instancias que se encuentran a la izquierda del divisor tienen la condición que se está probando; la mitad derecha no. El óvalo delimita aquellas instancias que un algoritmo de prueba clasifica como que tienen la condición. Las áreas verdes resaltan las instancias que el algoritmo de prueba clasificó correctamente. Las etiquetas se refieren a:
TP=verdadero positivo; TN=verdadero negativo; FP=falso positivo (error de tipo I); FN=falso negativo (error de tipo II); TPR=conjunto de instancias para determinar la tasa de verdaderos positivos; FPR=conjunto de instancias para determinar la tasa de falsos positivos; PPV=valor predictivo positivo; NPV=valor predictivo negativo.

Cuatro resultados

Dada una clasificación de un conjunto de datos específico, hay cuatro combinaciones básicas de categoría de datos reales y categoría asignada: verdaderos positivos TP (asignaciones positivas correctas), verdaderos negativos TN (asignaciones negativas correctas), falsos positivos FP (asignaciones positivas incorrectas) y falsos negativos FN (asignaciones negativas incorrectas).

Asignado
Actual
Resultado de la prueba positivoResultado de la prueba negativo
Condición positivaVerdadero positivoFalso negativo
Condición negativaFalso positivoVerdadero negativo

Estos se pueden organizar en una tabla de contingencia de 2×2 , con filas correspondientes al valor real (condición positiva o condición negativa) y columnas correspondientes al valor de clasificación (resultado de la prueba positivo o resultado de la prueba negativo).

Evaluación

A partir de los resultados de los cuatro resultados básicos, se pueden utilizar muchos métodos para medir la precisión de un clasificador o predictor. Los distintos campos tienen preferencias diferentes.

Las ocho proporciones básicas

Un método común de evaluación consiste en comenzar calculando dos razones de un patrón estándar. Existen ocho razones básicas de esta forma que se pueden calcular a partir de la tabla de contingencia, que se presentan en cuatro pares complementarios (cada par suma 1). Estas se obtienen dividiendo cada uno de los cuatro números por la suma de su fila o columna, lo que da como resultado ocho números, a los que se puede hacer referencia de forma genérica con la forma "razón de fila positiva verdadera" o "razón de columna negativa falsa".

Por lo tanto, hay dos pares de proporciones de columnas y dos pares de proporciones de filas, y uno puede resumirlos con cuatro números eligiendo una proporción de cada par: los otros cuatro números son los complementos.

Las proporciones de las filas son:

Las relaciones de las columnas son:

En las pruebas diagnósticas, las razones principales que se utilizan son las razones de columna verdadera (tasa de verdaderos positivos y tasa de verdaderos negativos), que se conocen como sensibilidad y especificidad . En la recuperación de información, las razones principales son las razones de verdaderos positivos (fila y columna) (valor predictivo positivo y tasa de verdaderos positivos), que se conocen como precisión y recuperación .

Cullerne Bown ha sugerido un diagrama de flujo para determinar qué par de indicadores se debe utilizar y cuándo. [1] De lo contrario, no existe una regla general para tomar una decisión. Tampoco hay un acuerdo general sobre cómo se debe utilizar el par de indicadores para decidir sobre cuestiones concretas, como cuándo preferir un clasificador sobre otro.

Se pueden tomar las razones de un par complementario de razones, lo que produce cuatro razones de verosimilitud (razón de razones en dos columnas, razón de razones en dos filas). Esto se hace principalmente para las razones de columna (condición), lo que produce razones de verosimilitud en las pruebas de diagnóstico . Al tomar la razón de uno de estos grupos de razones, se obtiene una razón final, la razón de probabilidades diagnósticas (DOR). Esto también se puede definir directamente como (TP×TN)/(FP×FN) = (TP/FN)/(FP/TN); esto tiene una interpretación útil –como razón de probabilidades– y es independiente de la prevalencia.

Otras métricas

Existen otras métricas, la más sencilla es la precisión o Fracción correcta (FC), que mide la fracción de todos los casos que están correctamente categorizados; el complemento es la Fracción incorrecta (FiC). La puntuación F combina precisión y recuperación en un solo número a través de una elección de ponderación, la más sencilla es una ponderación igual, como la puntuación F equilibrada ( puntuación F1 ). Algunas métricas provienen de coeficientes de regresión : la marcación y la información , y su media geométrica , el coeficiente de correlación de Matthews . Otras métricas incluyen la estadística J de Youden , el coeficiente de incertidumbre , el coeficiente phi y la kappa de Cohen .

Clasificación binaria estadística

La clasificación estadística es un problema estudiado en el aprendizaje automático en el que la clasificación se realiza en base a una regla de clasificación . Es un tipo de aprendizaje supervisado , un método de aprendizaje automático donde las categorías están predefinidas, y se utiliza para categorizar nuevas observaciones probabilísticas en dichas categorías. Cuando solo hay dos categorías el problema se conoce como clasificación binaria estadística.

Algunos de los métodos comúnmente utilizados para la clasificación binaria son:

Cada clasificador es mejor en un dominio seleccionado en función de la cantidad de observaciones, la dimensionalidad del vector de características , el ruido en los datos y muchos otros factores. Por ejemplo, los bosques aleatorios funcionan mejor que los clasificadores SVM para nubes de puntos 3D. [2] [3]

Convertir valores continuos a binarios

La clasificación binaria puede ser una forma de dicotomización en la que una función continua se transforma en una variable binaria. Las pruebas cuyos resultados son valores continuos, como la mayoría de los valores sanguíneos , se pueden convertir en binarias de forma artificial definiendo un valor de corte , y los resultados de la prueba se designan como positivos o negativos según si el valor resultante es mayor o menor que el valor de corte.

Sin embargo, esta conversión provoca una pérdida de información, ya que la clasificación binaria resultante no indica cuánto por encima o por debajo del valor de corte se encuentra un valor. Como resultado, al convertir un valor continuo que está cerca del valor de corte en uno binario, el valor predictivo positivo o negativo resultante es generalmente más alto que el valor predictivo dado directamente a partir del valor continuo. En tales casos, la designación de la prueba como positiva o negativa da la apariencia de una certeza inapropiadamente alta, mientras que el valor está de hecho en un intervalo de incertidumbre. Por ejemplo, con la concentración de hCG en orina como valor continuo, una prueba de embarazo en orina que midió 52 mUI/ml de hCG puede mostrarse como "positiva" con 50 mUI/ml como valor de corte, pero está de hecho en un intervalo de incertidumbre, que puede ser evidente solo conociendo el valor continuo original. Por otro lado, un resultado de prueba muy alejado del valor de corte generalmente tiene un valor predictivo positivo o negativo resultante que es menor que el valor predictivo dado a partir del valor continuo. Por ejemplo, un valor de hCG en orina de 200.000 mUI/ml confiere una probabilidad muy alta de embarazo, pero la conversión a valores binarios da como resultado que se muestre tan "positivo" como el de 52 mUI/ml.

Véase también

Referencias

  1. ^ William Cullerne Bown (2024). "Sensibilidad y especificidad versus precisión y recuperación, y dilemas relacionados". Revista de clasificación .
  2. ^ Zhang y Zakhor, Richard y Avideh (2014). "Identificación automática de regiones de ventana en nubes de puntos interiores mediante LiDAR y cámaras". Publicaciones de VIP Lab . CiteSeerX 10.1.1.649.303 . 
  3. ^ Y. Lu y C. Rasmussen (2012). "Campos aleatorios de Markov simplificados para el etiquetado semántico eficiente de nubes de puntos 3D" (PDF) . IROS .

Bibliografía

  • Nello Cristianini y John Shawe-Taylor . Introducción a las máquinas de vectores de soporte y otros métodos de aprendizaje basados ​​en kernel . Cambridge University Press, 2000. ISBN 0-521-78019-5 ([1] Libro de SVM) 
  • John Shawe-Taylor y Nello Cristianini. Kernel Methods for Pattern Analysis . Cambridge University Press, 2004. ISBN 0-521-81397-2 (sitio web del libro) 
  • Bernhard Schölkopf y AJ Smola: Aprendizaje con núcleos . MIT Press, Cambridge, Massachusetts, 2002. ISBN 0-262-19475-9 
Obtenido de "https://es.wikipedia.org/w/index.php?title=Clasificación_binaria&oldid=1238734055#Evaluación_de_clasificadores_binarios"