Esta sección necesita citas adicionales para su verificación . ( Marzo de 2022 ) |
El control estadístico de procesos ( CEP ) o control estadístico de calidad ( CCQ ) es la aplicación de métodos estadísticos para supervisar y controlar la calidad de un proceso de producción. Esto ayuda a garantizar que el proceso funcione de manera eficiente, produciendo más productos que cumplan con las especificaciones con menos desechos. El CEP se puede aplicar a cualquier proceso en el que se pueda medir el resultado de un "producto conforme" (producto que cumple con las especificaciones). Las herramientas clave que se utilizan en el CEP incluyen diagramas de ejecución , diagramas de control , un enfoque en la mejora continua y el diseño de experimentos . Un ejemplo de un proceso en el que se aplica el CEP son las líneas de fabricación.
El control estadístico de procesos debe practicarse en dos fases: la primera fase es el establecimiento inicial del proceso y la segunda fase es el uso regular de la producción del proceso. En la segunda fase, se debe tomar una decisión sobre el período que se examinará, dependiendo del cambio en las condiciones de 5M&E (hombre, máquina, material, método, movimiento, entorno) y la tasa de desgaste de las piezas utilizadas en el proceso de fabricación (piezas de la máquina, plantillas y accesorios).
Una ventaja del SPC sobre otros métodos de control de calidad, como la " inspección ", es que enfatiza la detección temprana y la prevención de problemas, en lugar de la corrección de los problemas después de que hayan ocurrido.
Además de reducir los desechos, el control estadístico de procesos (SPC) puede reducir el tiempo necesario para producir el producto. El control estadístico de procesos reduce la probabilidad de que el producto terminado deba ser retrabajado o desechado.
El control estadístico de procesos fue iniciado por Walter A. Shewhart en Bell Laboratories a principios de la década de 1920. Shewhart desarrolló el diagrama de control en 1924 y el concepto de un estado de control estadístico. El control estadístico es equivalente al concepto de intercambiabilidad [2] [3] desarrollado por el lógico William Ernest Johnson también en 1924 en su libro Logic, Part III: The Logical Foundations of Science . [4] Junto con un equipo de AT&T que incluía a Harold Dodge y Harry Romig, trabajó para poner la inspección de muestreo sobre una base estadística racional también. Shewhart consultó con el coronel Leslie E. Simon en la aplicación de los diagramas de control a la fabricación de municiones en el Arsenal Picatinny del Ejército en 1934. Esa aplicación exitosa ayudó a convencer a Army Ordnance de contratar a George D. Edwards de AT&T para asesorar sobre el uso del control estadístico de calidad entre sus divisiones y contratistas al estallar la Segunda Guerra Mundial.
W. Edwards Deming invitó a Shewhart a hablar en la Escuela de Graduados del Departamento de Agricultura de los Estados Unidos y se desempeñó como editor del libro de Shewhart Método estadístico desde el punto de vista del control de calidad (1939), que fue el resultado de esa conferencia. Deming fue un arquitecto importante de los cursos cortos de control de calidad que capacitaron a la industria estadounidense en las nuevas técnicas durante la Segunda Guerra Mundial. Los graduados de estos cursos en tiempos de guerra formaron una nueva sociedad profesional en 1945, la Sociedad Estadounidense para el Control de Calidad , que eligió a Edwards como su primer presidente. Deming viajó a Japón durante la ocupación aliada y se reunió con la Unión de Científicos e Ingenieros Japoneses (JUSE) en un esfuerzo por introducir métodos de control estadístico de procesos en la industria japonesa. [5] [6]
Shewhart leyó las nuevas teorías estadísticas que surgían de Gran Bretaña, especialmente el trabajo de William Sealy Gosset , Karl Pearson y Ronald Fisher . Sin embargo, comprendió que los datos de los procesos físicos rara vez producían una curva de distribución normal (es decir, una distribución gaussiana o " curva de campana "). Descubrió que los datos de las mediciones de variación en la fabricación no siempre se comportaban de la misma manera que los datos de las mediciones de fenómenos naturales (por ejemplo, el movimiento browniano de partículas). Shewhart concluyó que, si bien todos los procesos muestran variación, algunos procesos muestran una variación que es natural para el proceso (fuentes " comunes " de variación); describió estos procesos como estando bajo control (estadístico) . Otros procesos muestran además una variación que no está presente en el sistema causal del proceso en todo momento ( fuentes " especiales " de variación), que Shewhart describió como no bajo control . [7]
El control estadístico de procesos es apropiado para respaldar cualquier proceso repetitivo y se ha implementado en muchos entornos donde, por ejemplo, se utilizan sistemas de gestión de calidad ISO 9000 , incluyendo auditoría financiera y contabilidad, operaciones de TI, procesos de atención médica y procesos administrativos como la organización y administración de préstamos, facturación de clientes, etc. A pesar de las críticas a su uso en el diseño y desarrollo, está bien posicionado para gestionar la gobernanza de datos semiautomatizada de operaciones de procesamiento de datos de alto volumen, por ejemplo, en un almacén de datos empresarial o un sistema de gestión de calidad de datos empresarial. [8]
En el Modelo de Madurez de Capacidades (CMM) de 1988, el Instituto de Ingeniería de Software sugirió que el SPC podría aplicarse a los procesos de ingeniería de software. Las prácticas de Nivel 4 y Nivel 5 de la Integración del Modelo de Madurez de Capacidades ( CMMI ) utilizan este concepto.
La aplicación del SPC a procesos no repetitivos e intensivos en conocimiento, como la investigación y el desarrollo o la ingeniería de sistemas, ha generado escepticismo y sigue siendo controvertida. [9] [10] [11]
En No Silver Bullet , Fred Brooks señala que la complejidad, los requisitos de conformidad, la variabilidad y la invisibilidad del software [12] [13] dan como resultado una variación inherente y esencial que no se puede eliminar. Esto implica que el SPC es menos eficaz en el desarrollo de software que, por ejemplo, en la fabricación.
En la fabricación, la calidad se define como la conformidad con las especificaciones. Sin embargo, nunca hay dos productos o características exactamente iguales, porque cualquier proceso contiene muchas fuentes de variabilidad. En la fabricación en masa, tradicionalmente, la calidad de un artículo terminado se asegura mediante la inspección posterior a la fabricación del producto. Cada artículo (o una muestra de artículos de un lote de producción) puede aceptarse o rechazarse según lo bien que cumpla con sus especificaciones de diseño . El SPC utiliza herramientas estadísticas para observar el rendimiento del proceso de producción con el fin de detectar variaciones significativas antes de que resulten en la producción de un artículo de calidad inferior. Cualquier fuente de variación en cualquier momento de un proceso se clasificará en una de dos clases.
La mayoría de los procesos tienen muchas fuentes de variación; la mayoría de ellas son menores y pueden ignorarse. Si se detectan las fuentes de variación asignables dominantes, es posible identificarlas y eliminarlas. Cuando se eliminan, se dice que el proceso es "estable". Cuando un proceso es estable, su variación debería permanecer dentro de un conjunto conocido de límites. Esto es así, al menos, hasta que aparezca otra fuente de variación asignable.
Por ejemplo, una línea de envasado de cereales para el desayuno puede estar diseñada para llenar cada caja de cereales con 500 gramos de cereal. Algunas cajas tendrán un poco más de 500 gramos y otras tendrán un poco menos. Cuando se miden los pesos de los paquetes, los datos mostrarán una distribución de pesos netos.
Si el proceso de producción, sus insumos o su entorno (por ejemplo, la máquina en la línea) cambian, la distribución de los datos cambiará. Por ejemplo, a medida que las levas y poleas de la maquinaria se desgastan, la máquina de llenado de cereales puede colocar más de la cantidad especificada de cereal en cada caja. Aunque esto puede beneficiar al cliente, desde el punto de vista del fabricante es un desperdicio y aumenta el costo de producción. Si el fabricante encuentra el cambio y su origen de manera oportuna, el cambio se puede corregir (por ejemplo, se reemplazan las levas y las poleas).
Desde una perspectiva SPC, si el peso de cada caja de cereal varía aleatoriamente, algunas más altas y otras más bajas, siempre dentro de un rango aceptable, entonces el proceso se considera estable. Si las levas y poleas de la maquinaria comienzan a desgastarse, los pesos de la caja de cereal podrían no ser aleatorios. La funcionalidad degradada de las levas y poleas puede conducir a un patrón lineal no aleatorio de aumento de los pesos de las cajas de cereal. A esto lo llamamos variación de causa común. Sin embargo, si todas las cajas de cereal repentinamente pesaran mucho más que el promedio debido a un mal funcionamiento inesperado de las levas y poleas, esto se consideraría una variación de causa especial.
La aplicación del SPC implica tres fases principales de actividad:
La implementación adecuada del SPC ha sido limitada, en parte debido a la falta de experiencia estadística en muchas organizaciones. [14]
Los datos de las mediciones de variaciones en puntos del mapa de procesos se controlan mediante gráficos de control . Los gráficos de control intentan diferenciar las fuentes de variación "asignables" ("especiales") de las fuentes "comunes". Las fuentes "comunes", dado que son una parte esperada del proceso, son de mucha menor importancia para el fabricante que las fuentes "asignables". El uso de gráficos de control es una actividad continua, que se mantiene en el tiempo.
Cuando el proceso no activa ninguna de las "reglas de detección" del diagrama de control, se dice que es "estable". Se puede realizar un análisis de la capacidad del proceso en un proceso estable para predecir la capacidad del proceso de producir un "producto conforme" en el futuro.
Un proceso estable se puede demostrar mediante una firma de proceso que no presente variaciones fuera del índice de capacidad. Una firma de proceso son los puntos graficados comparados con el índice de capacidad.
Cuando el proceso activa cualquiera de las "reglas de detección" del diagrama de control (o, alternativamente, la capacidad del proceso es baja), se pueden realizar otras actividades para identificar la fuente de la variación excesiva. Las herramientas utilizadas en estas actividades adicionales incluyen: diagrama de Ishikawa , experimentos diseñados y diagramas de Pareto . Los experimentos diseñados son un medio para cuantificar objetivamente la importancia relativa (fuerza) de las fuentes de variación. Una vez que se identifican las fuentes de variación (causa especial), se pueden minimizar o eliminar. Los pasos para eliminar una fuente de variación pueden incluir: desarrollo de estándares, capacitación del personal, detección de errores y cambios en el proceso mismo o sus entradas.
Al monitorear muchos procesos con gráficos de control, a veces es útil calcular medidas cuantitativas de la estabilidad de los procesos. Estas métricas se pueden usar para identificar/priorizar los procesos que más necesitan acciones correctivas. Estas métricas también se pueden considerar como un complemento de las métricas tradicionales de capacidad de proceso . Se han propuesto varias métricas, como se describe en Ramirez y Runger. [15] Son (1) un índice de estabilidad que compara la variabilidad a largo plazo con la variabilidad a corto plazo, (2) una prueba ANOVA que compara la variación dentro de los subgrupos con la variación entre subgrupos, y (3) un índice de inestabilidad que compara el número de subgrupos que tienen una o más violaciones de las reglas de Western Electric con el número total de subgrupos.
Los gráficos de control digital utilizan reglas basadas en lógica que determinan "valores derivados" que indican la necesidad de realizar correcciones. Por ejemplo,
{{cite web}}
: CS1 maint: estado de la URL ( enlace )Hay pocas áreas de aplicación estadística con una brecha más amplia entre el desarrollo metodológico y la aplicación que la que se observa en el SPC (control estadístico de procesos). Muchas organizaciones que necesitan urgentemente el SPC no lo están utilizando en absoluto, mientras que la mayoría del resto está utilizando métodos esencialmente exactamente como los propuso Shewhart a principios de este siglo. Las razones para esto son variadas. Una que no se puede pasar por alto es la observación de Deming de que cualquier procedimiento que requiera la intervención regular de un estadístico experto para funcionar correctamente no se implementará.