Analítica web

Medición, recopilación, análisis y elaboración de informes de datos web

La analítica web es la medición, recopilación , análisis y generación de informes de datos web para comprender y optimizar el uso de la web . [1] La analítica web no es solo un proceso para medir el tráfico web , sino que puede usarse como una herramienta para la investigación empresarial y de mercado y para evaluar y mejorar la eficacia del sitio web . Las aplicaciones de analítica web también pueden ayudar a las empresas a medir los resultados de las campañas publicitarias tradicionales impresas o transmitidas . Se puede utilizar para estimar cómo cambia el tráfico a un sitio web después de lanzar una nueva campaña publicitaria. La analítica web proporciona información sobre la cantidad de visitantes a un sitio web y la cantidad de vistas de página, o crea perfiles de comportamiento del usuario. [2] Ayuda a medir las tendencias de tráfico y popularidad, lo que es útil para la investigación de mercado.

Pasos básicos del proceso de analítica web

Pasos básicos del proceso de análisis web

La mayoría de los procesos de análisis web se reducen a cuatro etapas o pasos esenciales, [3] que son:

  • Recopilación de datos : Esta etapa es la recopilación de datos básicos y elementales. Por lo general, estos datos son recuentos de cosas. El objetivo de esta etapa es recopilar los datos.
  • Procesamiento de datos en métricas : Esta etapa generalmente toma recuentos y los convierte en ratios, aunque aún puede haber algunos recuentos. El objetivo de esta etapa es tomar los datos y convertirlos en información, específicamente métricas.
  • Desarrollo de KPI: Esta etapa se centra en utilizar los índices (y los recuentos) y en integrarlos con las estrategias de negocio, a los que se denomina indicadores clave de rendimiento (KPI). Muchas veces, los KPI se ocupan de aspectos de conversión, pero no siempre. Depende de la organización.
  • Formulación de la estrategia en línea: esta etapa se ocupa de las metas, objetivos y estándares en línea para la organización o empresa. Estas estrategias suelen estar relacionadas con la obtención de ganancias , el ahorro de dinero o el aumento de la participación en el mercado .

Otra función esencial desarrollada por los analistas para la optimización de los sitios web son los experimentos:

El objetivo de las pruebas A/B es identificar y sugerir cambios en las páginas web que aumenten o maximicen el efecto de un resultado de interés probado estadísticamente.

Cada etapa impacta o puede impactar (es decir, impulsar) la etapa anterior o posterior. Por lo tanto, a veces los datos que están disponibles para la recopilación impactan la estrategia en línea. Otras veces, la estrategia en línea afecta los datos recopilados.

Categorías de análisis web

Existen al menos dos categorías de análisis web: análisis web local y externo .

  • El análisis web externo se refiere a la medición y el análisis web independientemente de si una persona posee o mantiene un sitio web. Incluye la medición de la audiencia potencial de un sitio web (oportunidad), la cuota de voz (visibilidad) y el boca a boca (comentarios) que se produce en Internet en su conjunto.
  • El análisis web en el sitio , el más común de los dos, mide el comportamiento de un visitante una vez en un sitio web específico . Esto incluye sus impulsores y conversiones; por ejemplo, el grado en que las diferentes páginas de destino están asociadas con compras en línea. El análisis web en el sitio mide el rendimiento de un sitio web específico en un contexto comercial. Estos datos generalmente se comparan con indicadores clave de rendimiento para el rendimiento y se utilizan para mejorar la respuesta de la audiencia de un sitio web o una campaña de marketing . Google Analytics  y Adobe Analytics  son los servicios de análisis web en el sitio más utilizados; aunque están surgiendo nuevas herramientas que brindan capas adicionales de información, incluidos mapas de calor y reproducción de sesiones .

En el pasado, el análisis web se ha utilizado para referirse a la medición de visitantes en el sitio. Sin embargo, este significado se ha vuelto difuso, principalmente porque los proveedores están produciendo herramientas que abarcan ambas categorías. Muchos proveedores diferentes proporcionan software y servicios de análisis web en el sitio . Hay dos formas técnicas principales de recopilar los datos. El primer método y el tradicional, el análisis de archivos de registro del servidor , lee los archivos de registro en los que el servidor web registra las solicitudes de archivos de los navegadores. El segundo método, el etiquetado de páginas , utiliza JavaScript incrustado en la página web para realizar solicitudes de imágenes a un servidor de análisis de terceros dedicado, siempre que un navegador web renderice una página web o, si se desea, cuando se produce un clic del mouse. Ambos recopilan datos que se pueden procesar para producir informes de tráfico web.

Análisis web en el sitio

No existen definiciones acordadas a nivel mundial en el ámbito de la analítica web, ya que los organismos del sector llevan tiempo intentando ponerse de acuerdo sobre definiciones que sean útiles y definitivas, es decir, las métricas de las herramientas y productos de diferentes empresas pueden tener distintas formas de medición, por lo que, como resultado, un mismo nombre de métrica puede representar distintos significados de los datos. Los principales organismos que han aportado información en este ámbito han sido el IAB (Interactive Advertising Bureau), JICWEBS (The Joint Industry Committee for Web Standards in the UK and Ireland) y la DAA (Digital Analytics Association), formalmente conocida como WAA (Web Analytics Association, EE. UU.). Sin embargo, muchos términos se utilizan de forma coherente en las distintas herramientas de analítica, por lo que la siguiente lista, basada en esas convenciones, puede ser un punto de partida útil:

  • Tasa de rebote : porcentaje de visitas que son visitas a una sola página y sin otras interacciones (clics) en esa página. En otras palabras, un solo clic en una sesión en particular se denomina rebote. Una tasa de rebote alta puede indicar que el contenido o la experiencia del usuario necesitan mejoras. [4]
  • Ruta de clics : secuencia cronológica de visitas a páginas durante una visita o sesión. El análisis de esta ruta proporciona información sobre los objetivos de la sesión y los objetivos del usuario. [5]
  • Hit - Solicitud de un archivo del servidor web. Disponible solo en el análisis de registros. La cantidad de hits que recibe un sitio web se cita con frecuencia para afirmar su popularidad, pero este número es extremadamente engañoso y sobreestima drásticamente la popularidad. Una sola página web generalmente consta de varios archivos discretos (a menudo docenas), cada uno de los cuales se cuenta como un hit cuando se descarga la página, por lo que el número de hits es en realidad un número arbitrario que refleja más la complejidad de las páginas individuales del sitio web que la popularidad real del sitio web. El número total de visitas o vistas de página proporciona una evaluación más realista y precisa de la popularidad.
  • Vista de página (pageview) - Una solicitud de un archivo, o a veces un evento como un clic del mouse, que se define como una página en la configuración de la herramienta de análisis web. Por lo general, la cantidad de vistas de página es mayor que la de Visitas y Visitantes (Visitantes únicos). Una ocurrencia de la secuencia de comandos que se ejecuta en el etiquetado de páginas. En el análisis de registros, una sola vista de página puede generar múltiples visitas ya que todos los recursos necesarios para ver la página (imágenes, archivos .js y .css) también se solicitan al servidor web. Una "actualización" de la misma página web se puede contar como otra vista de página. Por ejemplo, a las 16:07, el usuario vio la página A, 2 segundos después, el usuario hace clic en el botón "actualizar" en el navegador, la cantidad de vistas de página de la página A es entonces 2.
  • Visitante/visitante único/usuario único : el cliente identificado de forma única que genera visitas a la página o visitas dentro de un período de tiempo definido (por ejemplo, día, semana o mes). Un cliente identificado de forma única suele ser una combinación de una máquina (por ejemplo, la computadora de escritorio del trabajo) y un navegador (Firefox en esa máquina). La identificación suele realizarse mediante una cookie persistente que el código de la página del sitio ha colocado en la computadora. Un método más antiguo, utilizado en el análisis de archivos de registro, es la combinación única de la dirección IP de la computadora y la información del agente de usuario (navegador) proporcionada al servidor web por el navegador. El "visitante" no es lo mismo que el ser humano que está sentado frente a la computadora en el momento de la visita, ya que un ser humano individual puede usar diferentes computadoras o, en la misma computadora, puede usar diferentes navegadores, y será visto como un visitante diferente en cada circunstancia. Cada vez más, pero todavía algo raramente, los visitantes son identificados de forma única por Flash LSO ( objetos compartidos locales ), que son menos susceptibles a la aplicación de la privacidad.
  • Visita/sesión : una visita o sesión se define como una serie de solicitudes de páginas o, en el caso de las etiquetas, solicitudes de imágenes del mismo cliente identificado de forma única. Por lo general, la cantidad de visitas es mayor que la de visitantes (visitantes únicos). Un cliente único se identifica comúnmente por una dirección IP o una identificación única que se coloca en la cookie del navegador. Una visita se considera finalizada cuando no se han registrado solicitudes en una cierta cantidad de minutos transcurridos. Muchas herramientas de análisis utilizan un límite de 30 minutos ("tiempo de espera"), pero en algunas herramientas (como Google Analytics), se puede cambiar a otra cantidad de minutos. Los recopiladores de datos analíticos y las herramientas de análisis no tienen una forma confiable de saber si un visitante ha visitado otros sitios entre las vistas de página; una visita se considera una visita siempre que los eventos (vistas de página, clics, lo que sea que se esté registrando) estén 30 minutos o menos juntos. Una visita puede consistir en una vista de una página o miles. Una sesión de visita única también se puede extender si el tiempo entre cargas de página indica que un visitante ha estado viendo las páginas de forma continua.
  • Tiempo activo/tiempo de interacción : cantidad promedio de tiempo que los visitantes pasan interactuando con el contenido de una página web, en función de los movimientos del mouse, los clics, los desplazamientos del mouse y los desplazamientos. A diferencia de la duración de la sesión y la duración/tiempo de visualización de la página, esta métrica puede medir con precisión la duración de la interacción en la visualización final de la página, pero no está disponible en muchas herramientas de análisis o métodos de recopilación de datos.
  • Profundidad promedio de página/páginas vistas por sesión promedio : la profundidad de página es el "tamaño" aproximado de una visita promedio, calculado dividiendo el número total de páginas vistas por el número total de visitas.
  • Duración promedio de la visita a la página : cantidad promedio de tiempo que los visitantes pasan en una página promedio del sitio.
  • Clic : "se refiere a una sola instancia en la que un usuario sigue un hipervínculo de una página de un sitio a otra".
  • Evento : una acción discreta o una clase de acciones que ocurren en un sitio web. Una vista de página es un tipo de evento. Los eventos también incluyen clics, envíos de formularios, eventos de pulsación de teclas y otras acciones del usuario del lado del cliente.
  • Tasa de salida/% de salida : estadística que se aplica a una página individual, no a un sitio web. El porcentaje de visitas que ven una página donde esa página es la última página vista en la visita.
  • Segmentación de datos : las herramientas de análisis web permiten la segmentación de datos, lo que significa dividir los datos en subconjuntos más pequeños según criterios como la demografía, la ubicación o el comportamiento. Esto proporciona una comprensión más profunda de los diferentes segmentos de audiencia. [6]
  • Primera visita/primera sesión (también llamada "visitante único absoluto" en algunas herramientas) Visita de un cliente identificado de forma única que, en teoría, no ha realizado ninguna visita anterior. Dado que la única forma de saber si el cliente identificado de forma única ha visitado el sitio antes es la presencia de una cookie persistente o mediante la huella digital que se haya recibido en una visita anterior, la etiqueta de primera visita no es fiable si las cookies del sitio se han eliminado desde su visita anterior.
  • Frecuencia/sesión por visitante único : la frecuencia mide la frecuencia con la que los visitantes ingresan a un sitio web en un período de tiempo determinado. Se calcula dividiendo el número total de sesiones (o visitas) por el número total de visitantes únicos durante un período de tiempo específico, como un mes o un año. A veces se usa indistintamente con el término "lealtad".
  • Impresión : la definición más común de impresión es la aparición de un anuncio en una página visitada. Un anuncio puede aparecer en una página visitada debajo del área que realmente se muestra en la pantalla, por lo que la mayoría de las mediciones de impresiones no necesariamente significan que un anuncio haya sido visible.
  • Visitante nuevo : visitante que no ha realizado ninguna visita anterior. Esta definición genera cierta confusión (consulte las confusiones más comunes a continuación) y, a veces, se sustituye por el análisis de las primeras visitas.
  • Tiempo de visualización de la página/tiempo de visibilidad de la página/duración de la visualización de la página : el tiempo que una sola página (o un blog, un banner publicitario) permanece en la pantalla, medido como la diferencia calculada entre el tiempo de la solicitud de esa página y el tiempo de la siguiente solicitud registrada. Si no hay una siguiente solicitud registrada, el tiempo de visualización de esa instancia de esa página no se incluye en los informes.
  • Visitante recurrente : visitante que ha realizado al menos una visita anterior. El período entre la última visita y la actual se denomina "visitante reciente" y se mide en días.
  • Visitante recurrente : visitante único cuya actividad consiste en una visita a un sitio durante un período de informe y que visitó el sitio antes de ese período. El individuo se contabiliza solo una vez durante el período de informe.
  • Duración de la sesión/duración de la visita : cantidad promedio de tiempo que los visitantes pasan en el sitio cada vez que lo visitan. Se calcula como la suma total de la duración de todas las sesiones dividida por el número total de sesiones. Esta métrica puede complicarse por el hecho de que los programas de análisis no pueden medir la duración de la última visita a la página. [7]
  • Visita de página única/singleton : visita en la que solo se ve una única página (esto no es un "rebote").
  • La superposición de sitios es una técnica de informes en la que se superponen estadísticas (clics) o puntos críticos, por ubicación física, en una instantánea visual de la página web.
  • La tasa de clics es la proporción de usuarios que hacen clic en un enlace específico respecto del número total de usuarios que ven una página, un correo electrónico o un anuncio. Se utiliza habitualmente para medir el éxito de una campaña publicitaria en línea para un sitio web en particular, así como la eficacia de las campañas por correo electrónico. Otra definición conocida de la tasa de clics (CTR) es la cantidad total de clics dividida por la cantidad total de impresiones, ya que la métrica de la tasa de clics mide la proporción de clics e impresiones, no la cantidad de usuarios (que hicieron clic y vieron).

Análisis web externo

El análisis web externo se basa en el análisis de datos abiertos, la exploración de redes sociales y la participación en las propiedades web. Por lo general, se utiliza para comprender cómo comercializar un sitio mediante la identificación de las palabras clave etiquetadas en este sitio, ya sea desde las redes sociales o desde otros sitios web.

Fuentes de datos de análisis web

El objetivo fundamental de la analítica web es recopilar y analizar datos relacionados con el tráfico web y los patrones de uso. Los datos proceden principalmente de cuatro fuentes: [8]

  1. Datos de solicitud HTTP directa : provienen directamente de los mensajes de solicitud HTTP (encabezados de solicitud HTTP).
  2. Datos a nivel de red y generados por el servidor asociados con solicitudes HTTP: no son parte de una solicitud HTTP, pero son necesarios para transmisiones de solicitudes exitosas, por ejemplo, la dirección IP de un solicitante.
  3. Datos de nivel de aplicación enviados con solicitudes HTTP: generados y procesados ​​por programas de nivel de aplicación (como JavaScript , PHP y ASP.Net ), incluidas sesiones y referencias. Estos datos suelen ser capturados por registros internos en lugar de servicios de análisis web públicos.
  4. Datos externos: se pueden combinar con datos del sitio para ayudar a ampliar los datos de comportamiento del sitio web descritos anteriormente e interpretar el uso de la web. Por ejemplo, las direcciones IP suelen estar asociadas con regiones geográficas y proveedores de servicios de Internet, tasas de apertura y clics de correo electrónico , datos de campañas de correo directo, ventas, historial de clientes potenciales u otros tipos de datos según sea necesario.

Análisis de archivos de registro del servidor web

Los servidores web registran algunas de sus transacciones en un archivo de registro. Pronto se descubrió que un programa podía leer estos archivos de registro para obtener datos sobre la popularidad del sitio web. Así surgió el software de análisis de registros web .

A principios de los años 90, las estadísticas de los sitios web consistían principalmente en contar la cantidad de solicitudes de clientes (o visitas ) realizadas al servidor web. Al principio, este era un método razonable, ya que cada sitio web solía constar de un solo archivo HTML. Sin embargo, con la introducción de imágenes en HTML y sitios web que abarcaban varios archivos HTML, este conteo se volvió menos útil. El primer analizador de registros comercial verdadero fue lanzado por IPRO en 1994. [9]

A mediados de los años 90 se introdujeron dos unidades de medida para medir con mayor precisión la cantidad de actividad humana en los servidores web: las visitas a páginas y las sesiones . Una visita a una página se definía como una solicitud realizada al servidor web para obtener una página, en lugar de un gráfico, mientras que una visita se definía como una secuencia de solicitudes de un cliente identificado de forma única que expiraba después de una cierta cantidad de inactividad, normalmente 30 minutos.

La aparición de robots y arañas de motores de búsqueda a finales de los años 1990, junto con los servidores proxy web y las direcciones IP asignadas dinámicamente para grandes empresas y proveedores de servicios de Internet , hicieron que fuera más difícil identificar a los visitantes humanos únicos de un sitio web. Los analizadores de registros respondieron rastreando las visitas mediante cookies e ignorando las solicitudes de arañas conocidas. [ cita requerida ]

El uso extensivo de cachés web también presentó un problema para el análisis de archivos de registro. Si una persona vuelve a visitar una página, la segunda solicitud a menudo se recuperará de la caché del navegador y, por lo tanto, el servidor web no recibirá ninguna solicitud. Esto significa que se pierde la ruta de la persona a través del sitio. El almacenamiento en caché se puede anular configurando el servidor web, pero esto puede resultar en un rendimiento degradado para el visitante y una mayor carga en los servidores. [10]

Etiquetado de páginas

Las preocupaciones sobre la precisión del análisis de archivos de registro en presencia de almacenamiento en caché y el deseo de poder realizar análisis web como un servicio subcontratado, llevaron al segundo método de recopilación de datos, el etiquetado de páginas o " balizas web ".

A mediados de los años 90, los contadores web eran muy comunes: eran imágenes incluidas en una página web que mostraban la cantidad de veces que se había solicitado la imagen, lo que era una estimación de la cantidad de visitas a esa página. A fines de los años 90, este concepto evolucionó para incluir una pequeña imagen invisible en lugar de una visible y, mediante el uso de JavaScript, pasar junto con la solicitud de imagen cierta información sobre la página y el visitante. Esta información puede ser procesada de forma remota por una empresa de análisis web y generar estadísticas exhaustivas.

El servicio de analítica web también gestiona el proceso de asignación de una cookie al usuario, que puede identificarlo de forma única durante su visita y en visitas posteriores. Las tasas de aceptación de cookies varían significativamente entre sitios web y pueden afectar la calidad de los datos recopilados y notificados.

La recopilación de datos de sitios web mediante un servidor de recopilación de datos de terceros (o incluso un servidor de recopilación de datos interno) requiere una búsqueda DNS adicional por parte de la computadora del usuario para determinar la dirección IP del servidor de recopilación. En ocasiones, las demoras en completar búsquedas DNS exitosas o fallidas pueden provocar que no se recopilen los datos.

Con la creciente popularidad de las soluciones basadas en Ajax , una alternativa al uso de una imagen invisible es implementar una llamada de retorno al servidor desde la página renderizada. En este caso, cuando la página se renderiza en el navegador web, un fragmento de código JavaScript llamaría de vuelta al servidor y pasaría información sobre el cliente que luego puede ser agregada por una empresa de análisis web.

Análisis de archivos de registro frente a etiquetado de páginas

Tanto los programas de análisis de archivos de registro como las soluciones de etiquetado de páginas están disponibles para las empresas que desean realizar análisis web. En algunos casos, la misma empresa de análisis web ofrecerá ambos enfoques. Entonces surge la pregunta de qué método debería elegir una empresa. Cada enfoque tiene sus ventajas y desventajas. [11] [12]

Ventajas del análisis de archivos de registro

Las principales ventajas del análisis de archivos de registro frente al etiquetado de páginas son las siguientes:

  • Normalmente, el servidor web ya genera archivos de registro, por lo que los datos sin procesar ya están disponibles. No es necesario realizar cambios en el sitio web.
  • Los datos se encuentran en los servidores de la empresa y tienen un formato estándar, no exclusivo. Esto permite que la empresa pueda cambiar de programa más adelante, utilizar varios programas diferentes y analizar datos históricos con un programa nuevo.
  • Los archivos de registro contienen información sobre las visitas de las arañas de los motores de búsqueda, que generalmente se excluyen de las herramientas de análisis mediante el etiquetado de JavaScript. (Es posible que algunos motores de búsqueda ni siquiera ejecuten JavaScript en una página). Aunque no se deben informar como parte de la actividad humana, es información útil para la optimización de los motores de búsqueda .
  • Los archivos de registro no requieren búsquedas DNS adicionales ni inicios lentos de TCP . Por lo tanto, no hay llamadas a servidores externos que puedan reducir la velocidad de carga de las páginas o generar visitas a páginas no contabilizadas.
  • El servidor web registra de forma confiable cada transacción que realiza, por ejemplo, al servir documentos PDF y contenido generado por scripts, y no depende de la cooperación de los navegadores de los visitantes.

Ventajas del etiquetado de páginas

Las principales ventajas del etiquetado de páginas frente al análisis de archivos de registro son las siguientes:

  • El recuento se activa al abrir la página (siempre que el cliente web ejecute los scripts de etiquetas), no al solicitarlo al servidor. Si una página está almacenada en caché, no se contabilizará mediante el análisis de registros basado en servidor. Las páginas almacenadas en caché pueden representar hasta un tercio de todas las visitas a la página, lo que puede afectar negativamente a muchas métricas del sitio. [ cita requerida ]
  • Los datos se recopilan a través de un componente ("etiqueta") en la página, generalmente escrito en JavaScript. Normalmente se utiliza junto con un lenguaje de programación del lado del servidor (como PHP ) para manipularlos y (normalmente) almacenarlos en una base de datos.
  • El script puede tener acceso a información adicional sobre el cliente web o sobre el usuario, no enviada en la consulta, como el tamaño de las pantallas de los visitantes y el precio de los bienes que compraron.
  • El etiquetado de páginas puede informar sobre eventos que no implican una solicitud al servidor web, como interacciones dentro de películas Flash , finalización parcial de formularios, eventos del mouse como onClick, onMouseOver, onFocus, onBlur, etc.
  • El servicio de etiquetado de páginas gestiona el proceso de asignación de cookies a los visitantes; con el análisis de archivos de registro, el servidor debe estar configurado para hacer esto.
  • El etiquetado de páginas está disponible para las empresas que no tienen acceso a sus servidores web.
  • Últimamente, el etiquetado de páginas se ha convertido en un estándar en el análisis web. [13]

Factores económicos

El análisis de los archivos de registro casi siempre se realiza internamente. El etiquetado de páginas se puede realizar internamente, pero lo más frecuente es que se proporcione como servicio de terceros. La diferencia económica entre estos dos modelos también puede ser un factor a tener en cuenta para que una empresa decida cuál comprar.

  • El análisis de archivos de registro generalmente implica una compra única de software; sin embargo, algunos proveedores están introduciendo vistas de página anuales máximas con costos adicionales para procesar información adicional. [ cita requerida ] Además de las ofertas comerciales, varias herramientas de análisis de archivos de registro de código abierto están disponibles de forma gratuita.
  • Para el análisis de archivos de registro, es necesario almacenar y archivar datos, que suelen crecer rápidamente. Si bien el costo del hardware para realizar esta tarea es mínimo, los gastos generales para un departamento de TI pueden ser considerables.
  • Para el análisis de archivos de registro es necesario realizar un mantenimiento del software, incluidas actualizaciones y parches de seguridad.
  • Los proveedores de etiquetado de páginas complejas cobran una tarifa mensual basada en el volumen, es decir, la cantidad de páginas vistas recopiladas por mes.

Qué solución es más barata de implementar depende de la cantidad de experiencia técnica dentro de la empresa, el proveedor elegido, la cantidad de actividad observada en los sitios web, la profundidad y el tipo de información buscada y la cantidad de sitios web distintos que necesitan estadísticas.

Independientemente de la solución del proveedor o del método de recopilación de datos empleado, también se debe incluir el costo del análisis e interpretación de los visitantes web. Es decir, el costo de convertir los datos sin procesar en información procesable. Esto puede deberse al uso de consultores externos, la contratación de un analista web experimentado o la capacitación de una persona interna adecuada. Luego se puede realizar un análisis de costo-beneficio . Por ejemplo, ¿qué aumento de ingresos o ahorro de costos se puede obtener al analizar los datos de los visitantes web?

Métodos híbridos

Algunas empresas producen soluciones que recopilan datos a través de archivos de registro y etiquetado de páginas y pueden analizar ambos tipos. Al utilizar un método híbrido, su objetivo es producir estadísticas más precisas que cada método por separado. [14]

Geolocalización de visitantes

Con la geolocalización por IP , es posible rastrear la ubicación de los visitantes. Mediante una base de datos o API de geolocalización por IP, se puede geolocalizar a los visitantes a nivel de ciudad, región o país. [15]

La inteligencia IP, o inteligencia del protocolo de Internet (IP), es una tecnología que mapea Internet y clasifica las direcciones IP por parámetros como la ubicación geográfica (país, región, estado, ciudad y código postal), el tipo de conexión, el proveedor de servicios de Internet (ISP), la información del proxy y más. La primera generación de inteligencia IP se denominó tecnología de geosegmentación o geolocalización . Las empresas utilizan esta información para la segmentación de la audiencia en línea en aplicaciones como la publicidad en línea , la segmentación por comportamiento , la localización de contenido (o localización de sitios web ), la gestión de derechos digitales , la personalización , la detección de fraude en línea, la búsqueda localizada, los análisis mejorados, la gestión del tráfico global y la distribución de contenido.

Análisis de clics

Análisis de la ruta de clics con páginas de referencia a la izquierda y flechas y rectángulos que difieren en grosor y extensión para simbolizar la cantidad de movimiento

El análisis de clics , también conocido como Clickstream, es un tipo especial de análisis web que presta especial atención a los clics .

Por lo general, el análisis de clics se centra en el análisis del sitio. Un editor de un sitio web utiliza el análisis de clics para determinar el rendimiento de su sitio en particular, en relación con los lugares donde hacen clic los usuarios del sitio.

Además, el análisis de clics puede realizarse en tiempo real o en tiempo "irreal", según el tipo de información que se busque. Normalmente, los editores de portada de sitios de medios de comunicación con mucho tráfico querrán supervisar sus páginas en tiempo real para optimizar el contenido. Los editores, diseñadores u otros tipos de partes interesadas pueden analizar los clics en un marco temporal más amplio para ayudarlos a evaluar el rendimiento de los escritores, los elementos de diseño o los anuncios, etc.

Los datos sobre los clics se pueden recopilar de al menos dos formas. Lo ideal es que se "registre" un clic cuando se produce, y este método requiere alguna funcionalidad que recopile información relevante cuando se produce el evento. Como alternativa, se puede suponer que una visita a una página es el resultado de un clic y, por lo tanto, registrar un clic simulado que condujo a esa visita a la página.

Análisis del ciclo de vida del cliente

El análisis del ciclo de vida del cliente es un enfoque de medición centrado en el visitante. [16] Las visitas a la página, los clics y otros eventos (como llamadas a la API, acceso a servicios de terceros, etc.) están todos vinculados a un visitante individual en lugar de almacenarse como puntos de datos separados. El análisis del ciclo de vida del cliente intenta conectar todos los puntos de datos en un embudo de marketing que puede ofrecer información sobre el comportamiento del visitante y la optimización del sitio web . [17] Las métricas comunes utilizadas en el análisis del ciclo de vida del cliente incluyen el costo de adquisición del cliente (CAC), el valor de vida del cliente (CLV), la tasa de abandono del cliente y las puntuaciones de satisfacción del cliente . [16]

Otros métodos

A veces se utilizan otros métodos de recopilación de datos. El rastreo de paquetes recopila datos rastreando el tráfico de red que pasa entre el servidor web y el mundo exterior. El rastreo de paquetes no implica cambios en las páginas web ni en los servidores web. También es posible integrar análisis web en el propio software del servidor web. [18] Ambos métodos afirman proporcionar datos en tiempo real mejores que otros métodos.

Fuentes comunes de confusión en el análisis web

El problema del hotel

El problema del hotel es generalmente el primer problema con el que se encuentra un usuario de análisis web. El problema es que la suma de los visitantes únicos de cada día de un mes no es la misma que la de los visitantes únicos de ese mes. Para un usuario inexperto, esto parece ser un problema del software de análisis que esté utilizando. De hecho, es una propiedad simple de las definiciones de métricas.

La forma de visualizar la situación es imaginar un hotel. El hotel tiene dos habitaciones (Habitación A y Habitación B).

Día 01Día 02Día 03Total
Habitación AJohnJohnMarca2 usuarios únicos
Habitación BMarcaAnaAna2 usuarios únicos
Total222?

Como se puede observar en la tabla, el hotel cuenta con dos usuarios únicos cada día durante tres días, por lo que la suma de los totales con respecto a los días es de seis.

Durante el periodo cada habitación ha tenido dos usuarios únicos, por lo que la suma de los totales respecto a las habitaciones es de cuatro.

En realidad, solo tres visitantes han estado en el hotel durante este período. El problema es que una persona que se aloja en una habitación durante dos noches se contabilizará dos veces si se la cuenta una vez cada día, pero solo se contabilizará una vez si se analiza el total del período. Cualquier software de análisis web sumará estos datos correctamente para el período de tiempo elegido, lo que genera el problema cuando un usuario intenta comparar los totales.

Envenenamiento analítico

A medida que Internet ha madurado, la proliferación del tráfico automatizado de bots se ha convertido en un problema cada vez mayor para la fiabilidad de las analíticas web. [ cita requerida ] A medida que los bots recorren Internet, procesan documentos web de forma similar a los usuarios orgánicos y, como resultado, pueden activar de forma incidental el mismo código que utiliza la analítica web para contar el tráfico. En conjunto, esta activación incidental de eventos de analítica web afecta la interpretabilidad de los datos y las inferencias realizadas a partir de esos datos. IPM proporcionó una prueba de concepto de cómo Google Analytics , así como sus competidores, se activan fácilmente mediante estrategias de implementación de bots comunes. [19]

Problemas con las cookies de terceros

Históricamente, los proveedores de soluciones de análisis de etiquetado de páginas han utilizado cookies de terceros enviadas desde el dominio del proveedor en lugar del dominio del sitio web que se está visitando. Las cookies de terceros pueden gestionar visitantes que cruzan varios dominios no relacionados dentro del sitio de la empresa, ya que la cookie siempre es gestionada por los servidores del proveedor.

Sin embargo, las cookies de terceros permiten en principio rastrear a un usuario individual en los sitios de diferentes empresas, lo que permite al proveedor de análisis cotejar la actividad del usuario en los sitios donde proporcionó información personal con su actividad en otros sitios donde pensó que era anónimo. Aunque las empresas de análisis web niegan que lo hagan, otras empresas, como las que suministran anuncios de banner , sí lo han hecho. Por lo tanto, las preocupaciones sobre la privacidad de las cookies han llevado a una notable minoría de usuarios a bloquear o eliminar las cookies de terceros. En 2005, algunos informes mostraron que aproximadamente el 28% de los usuarios de Internet bloqueaban las cookies de terceros y el 22% las eliminaban al menos una vez al mes. [20] La mayoría de los proveedores de soluciones de etiquetado de páginas han pasado a ofrecer al menos la opción de utilizar cookies de origen (cookies asignadas desde el subdominio del cliente).

Otro problema es la eliminación de cookies. Cuando las analíticas web dependen de las cookies para identificar a los visitantes únicos, las estadísticas dependen de una cookie persistente que contenga un ID de visitante único. Cuando los usuarios eliminan las cookies, normalmente eliminan tanto las cookies propias como las de terceros. Si esto se hace entre interacciones con el sitio, el usuario aparecerá como un visitante nuevo en su siguiente punto de interacción. Sin un ID de visitante único y persistente, las conversiones, el análisis del flujo de clics y otras métricas que dependen de las actividades de un visitante único a lo largo del tiempo no pueden ser precisas.

Las cookies se utilizan porque las direcciones IP no siempre son exclusivas de los usuarios y pueden ser compartidas por grandes grupos o servidores proxy. En algunos casos, la dirección IP se combina con el agente de usuario para identificar con mayor precisión a un visitante si no hay cookies disponibles. Sin embargo, esto solo resuelve parcialmente el problema porque a menudo los usuarios detrás de un servidor proxy tienen el mismo agente de usuario. Otros métodos para identificar de forma única a un usuario son técnicamente complicados y limitarían la audiencia rastreable o se considerarían sospechosos. Las cookies alcanzan el mínimo común denominador sin utilizar tecnologías consideradas como software espía y tener las cookies habilitadas/activas genera problemas de seguridad. [21]

Métodos de análisis (medición) seguros

La recopilación de información de terceros está sujeta a las limitaciones de la red y a las medidas de seguridad que se apliquen. Los países, los proveedores de servicios y las redes privadas pueden impedir que los datos de las visitas a sitios web lleguen a terceros. Todos los métodos descritos anteriormente (y algunos otros métodos no mencionados aquí, como el muestreo) tienen el problema central de ser vulnerables a la manipulación (tanto a la inflación como a la deflación). Esto significa que estos métodos son imprecisos e inseguros (en cualquier modelo razonable de seguridad). Esta cuestión se ha abordado en varios artículos [22] [23] [24] [25], pero hasta la fecha las soluciones sugeridas en estos artículos siguen siendo teóricas.

Véase también

Referencias

  1. ^ Comité de Normas de la WAA. "Definiciones de análisis web". Washington DC: Web Analytics Association (2008).
  2. ^ Nielsen, Janne (27 de abril de 2021). "Uso de métodos mixtos para estudiar el uso histórico de balizas web en el seguimiento web". Revista internacional de humanidades digitales . 2 (1–3): 65–88. doi :10.1007/s42803-021-00033-4. ISSN  2524-7832. S2CID  233416836.
  3. ^ Jansen, BJ (2009). Comprensión de las interacciones entre usuarios y sitios web a través de la analítica web. Síntesis de conferencias sobre conceptos, recuperación y servicios de información, 1(1), 1-102.
  4. ^ Sng, Yun Fei (22 de agosto de 2016), "Estudio sobre los factores asociados con las tasas de rebote en los sitios web de productos de consumo", Business Analytics , WORLD SCIENTIFIC, págs. 526-546, doi : 10.1142/9789813149311_0019, ISBN 978-981-314-929-8, consultado el 11 de agosto de 2023
  5. ^ Menasalvas, Ernestina; Millán, Socorro; Peña, José M.; Hadjimichael, Michael; Marbán, Oscar (julio de 2004). "Subsesiones: Un enfoque granular para el análisis de la ruta de clics: Análisis de la ruta de clics". Revista Internacional de Sistemas Inteligentes . 19 (7): 619–637. doi :10.1002/int.20014.
  6. ^ Chaffey, Dave; Patron, Mark (1 de julio de 2012). "De la analítica web a la optimización del marketing digital: aumentar el valor comercial de la analítica digital". Revista de prácticas de marketing directo, de datos y digital . 14 (1): 30–45. doi : 10.1057/dddmp.2012.20 . ISSN  1746-0174.
  7. ^ "Cómo se define una sesión web en Universal Analytics - Ayuda de Analytics". support.google.com . Consultado el 11 de agosto de 2023 .
  8. ^ Zheng, G. y Peltsverger S. (2015) Descripción general de la analítica web, en el libro: Enciclopedia de ciencia y tecnología de la información, tercera edición, editor: IGI Global, editores: Mehdi Khosrow-Pour
  9. ^ Fuentes de datos de tráfico web y comparación de proveedores por Brian Clifton y Omega Digital Media Ltd
  10. ^ Gestión de marketing: un proceso de creación de valor (segunda edición) por Alain Jolibert, Pierre-Louis Dubois, Hans Mühlbacher, Laurent Flores, Pierre-Louis Jolibert Dubois, 2012, p. 359.
  11. ^ Aumentar la precisión para el crecimiento de los negocios en línea: un informe técnico sobre la precisión de los análisis web
  12. ^ "Etiquetado de páginas frente a análisis de registros: un informe ejecutivo" (PDF) . aserradero. 2008.
  13. ^ "Revisiting log file analysis versus page tagging": artículo del blog de Web Analytics de la Universidad McGill (CMIS 530) "Revisiting Log File Analysis versus Page tagging". Archivado desde el original el 6 de julio de 2011 . Consultado el 26 de febrero de 2010 .
  14. ^ "Etiquetado de páginas (cookies) frente a análisis de registros". Logaholic Web Analytics . 2018-04-25 . Consultado el 2023-07-21 .
  15. ^ IPInfoDB (10 de julio de 2009). «Base de datos de geolocalización de IP». IPInfoDB . Consultado el 19 de julio de 2009 .
  16. ^ ab Kitchens, Brent; Dobolyi, David; Li, Jingjing; Abbasi, Ahmed (3 de abril de 2018). "Análisis avanzado de clientes: valor estratégico a través de la integración de big data orientado a las relaciones". Revista de sistemas de información de gestión . 35 (2): 540–574. doi :10.1080/07421222.2018.1451957. ISSN  0742-1222. S2CID  49681142.
  17. ^ Önder, Irem; Berbekova, Adiyukh (10 de agosto de 2022). "Análisis web: ¿algo más que una evaluación del rendimiento de un sitio web?". Revista Internacional de Turismo de Ciudades . 8 (3): 603–615. doi :10.1108/IJTC-03-2021-0039. ISSN  2056-5607.
  18. ^ Hu, Xiaohua; Cercone, Nick (1 de julio de 2004). "Un marco de procesamiento analítico en línea/almacén de datos para la minería de datos de uso web y la generación de informes de inteligencia empresarial". Revista internacional de sistemas inteligentes . 19 (7): 585–606. doi : 10.1002/int.v19:7 .
  19. ^ "Envenenamiento por análisis: una breve reseña - IPM Corporation". 5 de diciembre de 2020. Consultado el 29 de julio de 2022 .
  20. ^ McGann, Rob (14 de marzo de 2005). «Estudio: los consumidores eliminan las cookies a un ritmo sorprendente» . Consultado el 3 de abril de 2014 .
  21. ^ "Inicio Noticias Acceso a la Guía Herramientas Educación Compras Internet Cookies: ¿software espía o tecnología neutral?". CNET . 2 de febrero de 2005 . Consultado el 24 de abril de 2017 .
  22. ^ Naor, M.; Pinkas, B. (1998). "Medición segura y eficiente". Avances en criptología – EUROCRYPT'98 . Apuntes de clase en informática. Vol. 1403. pág. 576. doi :10.1007/BFb0054155. ISBN 978-3-540-64518-4.
  23. ^ Naor, M.; Pinkas, B. (1998). "Contabilidad y auditoría seguras en la Web". Redes informáticas y sistemas RDSI . 30 (1–7): 541–550. doi :10.1016/S0169-7552(98)00116-0.
  24. ^ Franklin, MK ; Malkhi, D. (1997). "Medición auditable con seguridad liviana" . Criptografía financiera . Apuntes de clase en informática. Vol. 1318. págs. 151. CiteSeerX 10.1.1.46.7786 . doi :10.1007/3-540-63594-7_75. ISBN  978-3-540-63594-9.
  25. ^ Johnson, R.; Staddon, J. (2007). "Medición web segura frente a la deflación". Revista internacional de seguridad informática e informática . 1 : 39. CiteSeerX 10.1.1.116.3451 . doi :10.1504/IJICS.2007.012244. 

Bibliografía

  • Clifton, Brian (2010) Métricas web avanzadas con Google Analytics, 2.ª edición, Sybex (libro de bolsillo).
  • Mortensen, Dennis R. (2009). Yahoo! Web analytics: seguimiento, generación de informes y análisis para obtener información basada en datos . Indianápolis, Ind: Wiley. ISBN 978-0470424247.
  • Farris, P., Bendle, NT, Pfeifer, PE Reibstein, DJ (2009) Métricas clave de marketing: más de 50 métricas que todo gerente necesita conocer, Prentice Hall , Londres.
  • Plaza, Beatriz (18 de septiembre de 2009). "Monitorización de la efectividad de las fuentes de tráfico web con Google Analytics: un experimento con series temporales". Actas de la ASLIB . 61 (5): 474–482. doi :10.1108/00012530910989625.
  • Arikan, Akin (2008) Marketing multicanal. Métricas y métodos para el éxito en línea y fuera de línea. Sybex.
  • Tullis, Tom y Albert, Bill (2008) Medición de la experiencia del usuario. Recopilación, análisis y presentación de métricas de usabilidad. Morgan Kaufmann , Elsevier , Burlington MA.
  • Kaushik, Avinash (2009). Analítica web 2.0:: El arte de la rendición de cuentas en línea y la ciencia de la centralidad del cliente . Sybex. ISBN 9780470529393.
  • Kaushik, Avinash; Raybould, Dave (2007). Análisis web: una hora al día . Indianápolis, Ind: Wiley. ISBN 9780470130650.
  • Bradley N (2007) Investigación de mercados. Herramientas y técnicas. Oxford University Press , Oxford.
  • Sostre, Pedro y LeClaire, Jennifer (2007) Análisis web para principiantes. Wiley .
  • Burby, Jason y Atchison, Shane (2007) Análisis web procesable: uso de datos para tomar decisiones comerciales inteligentes.
  • Davis, J. (2006) 'Métricas de marketing: cómo crear planes de marketing responsables que realmente funcionen' John Wiley & Sons (Asia).
  • Peterson Eric T (2005) Trucos para la medición de sitios web. Libro electrónico de O'Reilly .
  • Zheng, JG y Peltsverger, S. (2015) Descripción general de la analítica web, en el libro: Encyclopedia of Information Science and Technology, tercera edición, editorial: IGI Global, editores: Mehdi Khosrow-Pour
Retrieved from "https://en.wikipedia.org/w/index.php?title=Web_analytics&oldid=1250434710"