El análisis conjunto es una técnica estadística basada en encuestas que se utiliza en investigaciones de mercado y que ayuda a determinar cómo las personas valoran los diferentes atributos (características, funciones, beneficios) que componen un producto o servicio individual.
El objetivo del análisis conjunto es determinar qué combinación de un conjunto de atributos es la más influyente en la elección o toma de decisiones de los encuestados. En un experimento conjunto, se muestra a los encuestados un conjunto controlado de productos o servicios potenciales, desglosados por atributo. Al analizar cómo eligen los encuestados entre los productos, se puede determinar la valoración que hacen de los atributos que componen los productos o servicios. Estas valoraciones implícitas ( utilidades o valores parciales) se pueden utilizar para crear modelos de mercado que estimen la participación de mercado, los ingresos e incluso la rentabilidad de los nuevos diseños.
El análisis conjunto se originó en la psicología matemática y fue desarrollado por el profesor de marketing Paul E. Green en la Wharton School de la Universidad de Pensilvania . Otros pioneros destacados del análisis conjunto incluyen al profesor V. "Seenu" Srinivasan de la Universidad de Stanford, quien desarrolló un procedimiento de programación lineal (LINMAP) para datos ordenados por rango, así como un enfoque autoexplicativo, y Jordan Louviere (Universidad de Iowa), quien inventó y desarrolló enfoques basados en la elección para el análisis conjunto y técnicas relacionadas, como el escalamiento mejor-peor .
En la actualidad, se utiliza en muchas de las ciencias sociales y aplicadas, como el marketing , la gestión de productos y la investigación de operaciones . Se utiliza con frecuencia para probar la aceptación de los clientes de nuevos diseños de productos , para evaluar el atractivo de los anuncios publicitarios y en el diseño de servicios . Se ha utilizado en el posicionamiento de productos , pero hay quienes plantean problemas con esta aplicación del análisis conjunto.
Las técnicas de análisis conjunto también pueden denominarse modelado compositivo de atributos múltiples , modelado de elección discreta o investigación de preferencias declaradas , y son parte de un conjunto más amplio de herramientas de análisis de compensaciones que se utilizan para el análisis sistemático de decisiones. Estas herramientas incluyen Brand-Price Trade-Off, Simalto y enfoques matemáticos como AHP , [1] PAPRIKA , [2] [3] algoritmos evolutivos o experimentación de desarrollo de reglas.
Un producto o servicio se describe en términos de una serie de atributos. Por ejemplo, un televisor puede tener atributos de tamaño de pantalla, formato de pantalla, marca, precio, etc. Cada atributo puede desglosarse en una serie de niveles. Por ejemplo, los niveles para el formato de pantalla pueden ser LED, LCD o Plasma. [ cita requerida ]
A los encuestados se les muestra un conjunto de productos, prototipos, maquetas o imágenes creadas a partir de una combinación de niveles de todos o algunos de los atributos constituyentes y se les pide que elijan, clasifiquen o califiquen los productos que se les muestran. Cada ejemplo es lo suficientemente similar como para que los consumidores los vean como sustitutos cercanos, pero lo suficientemente diferente como para que los encuestados puedan determinar claramente una preferencia. Cada ejemplo está compuesto por una combinación única de características del producto. Los datos pueden consistir en calificaciones individuales, órdenes de clasificación u opciones entre combinaciones alternativas. [ cita requerida ]
El diseño conjunto implica cuatro pasos diferentes:
Existen diferentes tipos de estudios que se pueden diseñar:
Los atributos en el análisis conjunto deben:
Los niveles de los atributos deben ser:
A medida que aumenta el número de combinaciones de atributos y niveles, el número de perfiles potenciales aumenta exponencialmente. En consecuencia, el diseño factorial fraccionado se utiliza comúnmente para reducir el número de perfiles a evaluar, al tiempo que se garantiza que haya suficientes datos disponibles para el análisis estadístico, lo que da como resultado un conjunto cuidadosamente controlado de "perfiles" para que el encuestado los considere. [ cita requerida ]
Las primeras formas de análisis conjunto que comenzaron en la década de 1970 fueron los denominados estudios de perfil completo, en los que se utilizaba un pequeño conjunto de atributos (normalmente de 4 a 5) para crear perfiles que se mostraban a los encuestados, a menudo en tarjetas individuales. Los encuestados luego clasificaban o calificaban estos perfiles. Mediante un análisis de regresión de variables ficticias relativamente simple , se podían calcular las utilidades implícitas de los niveles que mejor reproducían los rangos o calificaciones especificados por los encuestados. Se observaron dos desventajas en estos primeros diseños. [ cita requerida ]
En primer lugar, el número de atributos en uso estaba muy restringido. Con un gran número de atributos, la tarea de consideración de los encuestados se vuelve demasiado grande e incluso con diseños factoriales fraccionados el número de perfiles para evaluación puede aumentar rápidamente. Para utilizar más atributos (hasta 30), se desarrollaron técnicas conjuntas híbridas que combinaban la autoexplicación (calificación o clasificación de niveles y atributos) seguida de tareas conjuntas. A partir de la década de 1980, se empezaron a utilizar cuestionarios en papel y adaptativos asistidos por computadora. [ cita requerida ]
El segundo inconveniente era que las calificaciones o clasificaciones de los perfiles no eran realistas y no se vinculaban directamente con la teoría del comportamiento. En situaciones de la vida real, los compradores eligen entre alternativas en lugar de clasificarlas o calificarlas. Jordan Louviere fue pionero en un enfoque que utilizaba solo una tarea de elección que se convirtió en la base del análisis conjunto basado en la elección y el análisis de elección discreta . Esta investigación de preferencias declaradas está vinculada a la modelización econométrica y puede vincularse a la preferencia revelada donde los modelos de elección se calibran sobre la base de datos reales en lugar de datos de encuestas. Originalmente, el análisis conjunto basado en la elección no podía proporcionar utilidades a nivel individual y los investigadores desarrollaron modelos agregados para representar las preferencias del mercado. Esto lo hizo inadecuado para los estudios de segmentación del mercado . Con técnicas de análisis bayesiano jerárquico más nuevas , se pueden estimar utilidades a nivel individual que brindan una mayor comprensión de las preferencias heterogéneas entre individuos y segmentos del mercado. [ cita requerida ]
Los datos para el análisis conjunto se obtienen con mayor frecuencia a través de una encuesta de investigación de mercado, aunque el análisis conjunto también se puede aplicar a un configurador cuidadosamente diseñado o a los datos de un experimento de mercado de prueba diseñado adecuadamente . Las reglas generales de investigación de mercado se aplican con respecto al tamaño y la precisión de la muestra estadística al diseñar entrevistas de análisis conjunto. [ cita requerida ]
La longitud del cuestionario conjunto depende de la cantidad de atributos que se evaluarán y del método de análisis conjunto seleccionado. Un cuestionario conjunto adaptativo típico con 20 a 25 atributos puede llevar más de 30 minutos para completarse [ cita requerida ] . El cuestionario conjunto basado en opciones, al utilizar un conjunto de perfiles más pequeño distribuido en toda la muestra, puede completarse en menos de 15 minutos. Los ejercicios de opciones pueden mostrarse como un diseño tipo escaparate o en algún otro entorno de compras simulado. [ cita requerida ]
Debido a que los diseños conjuntos son complicados, generalmente generan un error de medición sustancial (como lo indica la baja confiabilidad intra-encuestado), que puede inducir un sesgo sustancial en cualquier dirección por cualquier cantidad; este sesgo debe corregirse en los análisis estadísticos de datos conjuntos. [4] Dependiendo del tipo de modelo, se pueden utilizar diferentes métodos econométricos y estadísticos para estimar las funciones de utilidad. Estas funciones de utilidad indican el valor percibido de la característica y cuán sensibles son las percepciones y preferencias del consumidor a los cambios en las características del producto. El procedimiento de estimación real dependerá del diseño de la tarea y los perfiles de los encuestados y la escala de medición utilizada para indicar las preferencias (escalada por intervalos, clasificación o elección discreta). Para estimar las utilidades para cada nivel de atributo utilizando tareas de perfil completo basadas en calificaciones, la regresión lineal puede ser apropiada, para tareas basadas en elección, se utiliza típicamente la estimación de máxima verosimilitud generalmente con regresión logística . Los métodos originales de estimación de utilidad eran análisis de varianza monótonos o técnicas de programación lineal, pero la práctica de investigación de mercado contemporánea ha cambiado hacia modelos basados en elección utilizando logit multinomial, versiones mixtas de este modelo y otros refinamientos. Los estimadores bayesianos también son muy populares. Los procedimientos bayesianos jerárquicos también son relativamente populares en la actualidad. [ cita requerida ]
Una aplicación práctica del análisis conjunto en el análisis empresarial se da en el siguiente ejemplo: un promotor inmobiliario está interesado en construir un complejo de apartamentos de gran altura cerca de una universidad urbana de la Ivy League. Para asegurar el éxito del proyecto, se contrata a una empresa de investigación de mercado para que lleve a cabo grupos de discusión con los estudiantes actuales. Los estudiantes se segmentan por año académico (estudiantes de primer año, estudiantes de último año, estudios de posgrado) y cantidad de ayuda financiera recibida. A los participantes del estudio se les muestra una serie de escenarios de elección, que involucran diferentes opciones de vivienda en apartamentos especificadas en seis atributos (proximidad al campus, costo, paquetes de telecomunicaciones, opciones de lavandería, planos de planta y características de seguridad ofrecidas). El costo estimado para construir el edificio asociado con cada opción de apartamento es equivalente. Se pide a los participantes que elijan su opción de apartamento preferida dentro de cada escenario de elección. Este ejercicio de elección forzada revela las prioridades y preferencias de los participantes. La regresión logística multinomial se puede utilizar para estimar las puntuaciones de utilidad para cada nivel de atributo de los seis atributos involucrados en el experimento conjunto. Usando estas puntuaciones de utilidad, se puede predecir la preferencia del mercado por cualquier combinación de los niveles de atributo que describen las posibles opciones de vivienda en apartamentos. [ cita requerida ]
El enfoque de investigación de mercado, Mind Genomics (MG), es una aplicación del Análisis Conjunto (AC). El AC se lleva a cabo para evaluar la aceptación del consumidor, presentándoles un conjunto de atributos del producto y evaluando sus preferencias por diferentes combinaciones de atributos mediante la estimación de las puntuaciones de utilidad para diferentes niveles de atributos. MG aplicando AC profundiza en los aspectos psicológicos y emocionales que influyen en la toma de decisiones, ayudando en la identificación inicial de los atributos que son más destacados para los consumidores y ayudando a los investigadores a refinar los atributos que se utilizarán en el AC. [5]
Los tribunales federales de los Estados Unidos han permitido que los testigos expertos utilicen el análisis conjunto para respaldar sus opiniones sobre los daños que un infractor de una patente debería pagar para compensar al titular de la patente por violar sus derechos. [6] No obstante, los académicos legales han señalado que la jurisprudencia del Circuito Federal sobre el uso del análisis conjunto en los cálculos de daños por patentes sigue en una etapa formativa. [7]
Un ejemplo de esto es cómo Apple utilizó un análisis conjunto para demostrar los daños sufridos por la violación de derechos de autor por parte de Samsung y aumentar su compensación en el caso. [ cita requerida ]