Teoría de la renovación

Rama de la teoría de la probabilidad

La teoría de renovación es la rama de la teoría de la probabilidad que generaliza el proceso de Poisson para tiempos de espera arbitrarios. En lugar de tiempos de espera distribuidos exponencialmente , un proceso de renovación puede tener tiempos de espera independientes e idénticamente distribuidos (IID) que tengan una media finita. Un proceso de renovación-recompensa tiene además una secuencia aleatoria de recompensas incurridas en cada tiempo de espera, que son IID pero no necesitan ser independientes de los tiempos de espera.

Un proceso de renovación tiene propiedades asintóticas análogas a la ley fuerte de los grandes números y al teorema del límite central . La función de renovación (número esperado de llegadas) y la función de recompensa (valor esperado de la recompensa) son de importancia clave en la teoría de renovación. La función de renovación satisface una ecuación integral recursiva, la ecuación de renovación. La ecuación de renovación clave proporciona el valor límite de la convolución de con una función no negativa adecuada. La superposición de procesos de renovación se puede estudiar como un caso especial de procesos de renovación de Markov . metro ( a ) {\estilo de visualización m(t)} gramo ( a ) {\estilo de visualización g(t)} metro " ( a ) {\displaystyle m'(t)}

Las aplicaciones incluyen el cálculo de la mejor estrategia para reemplazar la maquinaria desgastada en una fábrica y la comparación de los beneficios a largo plazo de diferentes pólizas de seguro. La paradoja de la inspección se relaciona con el hecho de que la observación de un intervalo de renovación en el tiempo t da como resultado un intervalo con un valor promedio mayor que el de un intervalo de renovación promedio.

Procesos de renovación

Introducción

El proceso de renovación es una generalización del proceso de Poisson . En esencia, el proceso de Poisson es un proceso de Markov de tiempo continuo sobre los números enteros positivos (que normalmente empiezan en cero) que tiene tiempos de espera distribuidos exponencialmente independientes en cada número entero antes de avanzar al siguiente número entero, . En un proceso de renovación, los tiempos de espera no necesitan tener una distribución exponencial; más bien, los tiempos de espera pueden tener cualquier distribución sobre los números positivos, siempre que los tiempos de espera sean independientes y estén distribuidos de forma idéntica ( IID ) y tengan una media finita. i {\estilo de visualización i} i + 1 {\estilo de visualización i+1}

Definición formal

Ejemplo de evolución de un proceso de renovación con tiempos de retención S i y tiempos de salto J n .

Sea una secuencia de variables aleatorias independientes positivas distribuidas de forma idéntica con un valor esperado finito ( S i ) i 1 {\displaystyle (S_{i})_{i\geq 1}}

0 < mi [ S i ] < . {\displaystyle 0<\operatorname {E} [S_{i}]<\infty .}

Nos referimos a la variable aleatoria como el " -ésimo tiempo de retención". S i Estilo de visualización S_{i}} i {\estilo de visualización i}

Definir para cada n > 0 :

Yo norte = i = 1 norte S i , {\displaystyle J_{n}=\sum _{i=1}^{n}S_{i},}

Cada uno de ellos se denomina " tiempo de salto -ésimo" y los intervalos se denominan "intervalos de renovación". Yo norte Estilo de visualización J_{n} norte {\estilo de visualización n} [ Yo norte , Yo norte + 1 ] {\displaystyle [J_{n},J_{n+1}]}

Entonces viene dado por variable aleatoria ( incógnita a ) a 0 {\displaystyle (X_{t})_{t\geq 0}}

incógnita a = norte = 1 I { Yo norte a } = sorber { norte : Yo norte a } {\displaystyle X_{t}=\sum _{n=1}^{\infty }\operatorname {\mathbb {I} } _{\{J_{n}\leq t\}}=\sup \left\{\,n:J_{n}\leq t\,\right\}}

¿Dónde está la función indicadora? I { Yo norte a } {\displaystyle \operatorname {\mathbb {I} } _{\{J_{n}\leq t\}}}

I { Yo norte a } = { 1 , si  Yo norte a 0 , de lo contrario {\displaystyle \operatorname {\mathbb {I} } _{\{J_{n}\leq t\}}={\begin{cases}1,&{\text{si }}J_{n}\leq t\\0,&{\text{en caso contrario}}\end{cases}}}

( incógnita a ) a 0 {\displaystyle (X_{t})_{t\geq 0}} representa el número de saltos que han ocurrido en el tiempo t , y se llama proceso de renovación.

Interpretación

Si se consideran los eventos que ocurren en momentos aleatorios, se puede optar por pensar en los tiempos de espera como el tiempo aleatorio transcurrido entre dos eventos consecutivos. Por ejemplo, si el proceso de renovación está modelando la cantidad de averías de diferentes máquinas, entonces el tiempo de espera representa el tiempo que transcurre entre la avería de una máquina y la de otra. { S i : i 1 } {\displaystyle \{S_{i}:i\geq 1\}}

El proceso de Poisson es el único proceso de renovación con la propiedad de Markov , [1] ya que la distribución exponencial es la única variable aleatoria continua con la propiedad de no tener memoria.

Procesos de renovación-recompensa

Ejemplo de evolución de un proceso de renovación-recompensa con tiempos de espera S i , tiempos de salto J n y recompensas W i

Sea una secuencia de variables aleatorias IID ( recompensas ) que satisfacen Yo 1 , Yo 2 , {\displaystyle W_{1},W_{2},\ldots }

mi | Yo i | < . {\displaystyle \operatorname {E} |W_{i}|<\infty .\,}

Entonces la variable aleatoria

Y a = i = 1 incógnita a Yo i {\displaystyle Y_{t}=\sum _{i=1}^{X_{t}}W_{i}}

se denomina proceso de renovación-recompensa . Nótese que, a diferencia de , cada uno puede tomar valores negativos y positivos. S i Estilo de visualización S_{i}} Yo i Estilo de visualización W_{i}}

La variable aleatoria depende de dos secuencias: los tiempos de retención y las recompensas . Estas dos secuencias no necesitan ser independientes. En particular, pueden ser una función de . Y a {\displaystyle Y_{t}} S 1 , S 2 , {\displaystyle S_{1},S_{2},\ldots} Yo 1 , Yo 2 , {\displaystyle W_{1},W_{2},\ldots } Yo i Estilo de visualización W_{i}} S i Estilo de visualización S_{i}}

Interpretación

En el contexto de la interpretación anterior de los tiempos de espera como el tiempo entre fallos sucesivos de una máquina, las "recompensas" (que en este caso resultan ser negativas) pueden verse como los sucesivos costos de reparación incurridos como resultado de los fallos sucesivos. Yo 1 , Yo 2 , {\displaystyle W_{1},W_{2},\ldots }

Una analogía alternativa es que tenemos un ganso mágico que pone huevos a intervalos (tiempos de espera) distribuidos como . A veces pone huevos de oro de peso aleatorio y, a veces, pone huevos tóxicos (también de peso aleatorio) que requieren una eliminación responsable (y costosa). Las "recompensas" son las pérdidas/ganancias financieras sucesivas (aleatorias) resultantes de los huevos sucesivos ( i = 1, 2, 3, ...) y registra la "recompensa" financiera total en el momento t . S i Estilo de visualización S_{i}} Yo i Estilo de visualización W_{i}} Y a {\displaystyle Y_{t}}

Función de renovación

Definimos la función de renovación como el valor esperado del número de saltos observados hasta un momento determinado : a {\estilo de visualización t}

metro ( a ) = mi [ incógnita a ] . {\displaystyle m(t)=\nombre del operador {E} [X_{t}].\,}

Teorema de renovación elemental

La función de renovación satisface

límite a 1 a metro ( a ) = 1 mi [ S 1 ] . {\displaystyle \lim _{t\to \infty }{\frac {1}{t}}m(t)={\frac {1}{\operatorname {E} [S_{1}]}}.}

Teorema de renovación elemental para procesos de recompensa por renovación

Definimos la función de recompensa :

gramo ( a ) = mi [ Y a ] . {\displaystyle g(t)=\nombre del operador {E} [Y_{t}].\,}

La función de recompensa satisface

límite a 1 a gramo ( a ) = mi [ Yo 1 ] mi [ S 1 ] . {\displaystyle \lim _{t\to \infty }{\frac {1}{t}}g(t)={\frac {\operatorname {E} [W_{1}]}{\operatorname {E} [S_{1}]}}.}

Ecuación de renovación

La función de renovación satisface

metro ( a ) = F S ( a ) + 0 a metro ( a s ) F S ( s ) d s {\displaystyle m(t)=F_{S}(t)+\int _{0}^{t}m(ts)f_{S}(s)\,ds}

donde es la función de distribución acumulativa de y es la función de densidad de probabilidad correspondiente. F S Estilo de visualización F_{S} S 1 Estilo de visualización S_{1} F S estilo de visualización f_{S}}

Teorema de renovación de claves

Sea X un proceso de renovación con función de renovación y media entre renovaciones . Sea una función que satisface: m ( t ) {\displaystyle m(t)} μ {\displaystyle \mu } g : [ 0 , ) [ 0 , ) {\displaystyle g:[0,\infty )\rightarrow [0,\infty )}

  • 0 g ( t ) d t < {\displaystyle \int _{0}^{\infty }g(t)\,dt<\infty }
  • g es monótona y no creciente

El teorema de renovación clave establece que, como : [3] t {\displaystyle t\rightarrow \infty }

0 t g ( t x ) m ( x ) d x 1 μ 0 g ( x ) d x {\displaystyle \int _{0}^{t}g(t-x)m'(x)\,dx\rightarrow {\frac {1}{\mu }}\int _{0}^{\infty }g(x)\,dx}

Teorema de renovación

Considerando para cualquier caso especial el teorema de renovación: [4] g ( x ) = I [ 0 , h ] ( x ) {\displaystyle g(x)=\mathbb {I} _{[0,h]}(x)} h > 0 {\displaystyle h>0}

m ( t + h ) m ( t ) h μ {\displaystyle m(t+h)-m(t)\rightarrow {\frac {h}{\mu }}} como t {\displaystyle t\rightarrow \infty }

El resultado puede demostrarse utilizando ecuaciones integrales o mediante un argumento de acoplamiento . [5] Aunque es un caso especial del teorema de renovación de clave, puede usarse para deducir el teorema completo, considerando funciones escalonadas y luego secuencias crecientes de funciones escalonadas. [3]

Propiedades asintóticas

Los procesos de renovación y los procesos de renovación-recompensa tienen propiedades análogas a la ley fuerte de los grandes números , que se puede derivar del mismo teorema. Si es un proceso de renovación y es un proceso de renovación-recompensa entonces: ( X t ) t 0 {\displaystyle (X_{t})_{t\geq 0}} ( Y t ) t 0 {\displaystyle (Y_{t})_{t\geq 0}}

lim t 1 t X t = 1 E [ S 1 ] {\displaystyle \lim _{t\to \infty }{\frac {1}{t}}X_{t}={\frac {1}{\operatorname {E} [S_{1}]}}} [6]
lim t 1 t Y t = 1 E [ S 1 ] E [ W 1 ] {\displaystyle \lim _{t\to \infty }{\frac {1}{t}}Y_{t}={\frac {1}{\operatorname {E} [S_{1}]}}\operatorname {E} [W_{1}]}

Casi seguro.

Los procesos de renovación tienen además una propiedad análoga al teorema del límite central : [6]

X t t / μ t σ 2 / μ 3 N ( 0 , 1 ) {\displaystyle {\frac {X_{t}-t/\mu }{\sqrt {t\sigma ^{2}/\mu ^{3}}}}\to {\mathcal {N}}(0,1)}

Paradoja de la inspección

El intervalo de renovación determinado por el punto aleatorio t (mostrado en rojo) es estocásticamente mayor que el primer intervalo de renovación.

Una característica curiosa de los procesos de renovación es que si esperamos un tiempo predeterminado t y luego observamos qué tan grande es el intervalo de renovación que contiene t , deberíamos esperar que sea típicamente más grande que un intervalo de renovación de tamaño promedio.

Matemáticamente, la paradoja de inspección establece que, para cualquier t > 0, el intervalo de renovación que contiene a t es estocásticamente mayor que el primer intervalo de renovación. Es decir, para todo x > 0 y para todo t > 0:

P ( S X t + 1 > x ) P ( S 1 > x ) = 1 F S ( x ) {\displaystyle \operatorname {P} (S_{X_{t}+1}>x)\geq \operatorname {P} (S_{1}>x)=1-F_{S}(x)}

donde F S es la función de distribución acumulada de los tiempos de espera del IID S i . Un ejemplo claro es la paradoja del tiempo de espera del autobús : para una distribución aleatoria dada de llegadas de autobuses, el pasajero promedio en una parada de autobús observa más demoras que el operador promedio de los autobuses.

La solución de la paradoja es que nuestra distribución muestreada en el momento t está sesgada por el tamaño (véase sesgo de muestreo ), en el sentido de que la probabilidad de que se elija un intervalo es proporcional a su tamaño. Sin embargo, un intervalo de renovación de tamaño promedio no está sesgado por el tamaño.

Superposición

A menos que el proceso de renovación sea un proceso de Poisson, la superposición (suma) de dos procesos de renovación independientes no es un proceso de renovación. [7] Sin embargo, dichos procesos pueden describirse dentro de una clase más grande de procesos llamados procesos de renovación de Markov . [8] Sin embargo, la función de distribución acumulativa del primer tiempo entre eventos en el proceso de superposición está dada por [9]

R ( t ) = 1 k = 1 K α k l = 1 K α l ( 1 R k ( t ) ) j = 1 , j k K α j t ( 1 R j ( u ) ) d u {\displaystyle R(t)=1-\sum _{k=1}^{K}{\frac {\alpha _{k}}{\sum _{l=1}^{K}\alpha _{l}}}(1-R_{k}(t))\prod _{j=1,j\neq k}^{K}\alpha _{j}\int _{t}^{\infty }(1-R_{j}(u))\,{\text{d}}u}

donde R k ( t ) y α k  > 0 son la CDF de los tiempos entre eventos y la tasa de llegada del proceso k . [10]

Ejemplo de aplicación

Eric, el empresario, tiene n máquinas, cada una de ellas con una vida útil uniformemente distribuida entre cero y dos años. Eric puede dejar que cada máquina funcione hasta que falle, con un coste de sustitución de 2600 €; o bien puede sustituir una máquina en cualquier momento mientras aún esté en funcionamiento, con un coste de 200 €.

¿Cuál es su política de reemplazo óptima?

Véase también

Notas

  1. ^ Grimmett y Stirzaker (1992), pág. 393.
  2. ^ Grimmett y Stirzaker (1992), pág. 390.
  3. ^ abc Grimmett y Stirzaker (1992), pág. 395.
  4. ^ Feller (1971), págs. 347–351.
  5. ^ Grimmett y Stirzaker (1992), págs. 394-5.
  6. ^ de Grimmett y Stirzaker (1992), pág. 394.
  7. ^ Grimmett y Stirzaker (1992), pág. 405.
  8. ^ Çinlar, Erhan (1969). "Teoría de renovación de Markov". Avances en probabilidad aplicada . 1 (2). Applied Probability Trust: 123–187. doi :10.2307/1426216. JSTOR  1426216.
  9. ^ Lawrence, AJ (1973). "Dependencia de intervalos entre eventos en procesos de superposición". Revista de la Royal Statistical Society. Serie B (Metodológica) . 35 (2): 306–315. doi :10.1111/j.2517-6161.1973.tb00960.x. JSTOR  2984914.Fórmula 4.1
  10. ^ Choungmo Fofack, Nicaise; Nain, Philippe; Neglia, Giovanni; Towsley, Don (6 de marzo de 2012). Análisis de redes de caché basadas en TTL. Actas de la 6.ª Conferencia internacional sobre metodologías y herramientas de evaluación del rendimiento (informe) . Consultado el 15 de noviembre de 2012 .

Referencias

  • Cox, David (1970). Teoría de la renovación . Londres: Methuen & Co., pág. 142. ISBN 0-412-20570-X.
  • Doob, JL (1948). "Teoría de la renovación desde el punto de vista de la teoría de la probabilidad" (PDF) . Transactions of the American Mathematical Society . 63 (3): 422–438. doi : 10.2307/1990567 . JSTOR  1990567.
  • Feller, William (1971). Introducción a la teoría de la probabilidad y sus aplicaciones . Vol. 2 (segunda edición). Wiley.
  • Grimmett, GR ; Stirzaker, DR (1992). Probabilidad y procesos aleatorios (segunda edición). Oxford University Press. ISBN 0198572220.
  • Smith, Walter L. (1958). "Teoría de la renovación y sus ramificaciones". Revista de la Royal Statistical Society, Serie B. 20 ( 2): 243–302. JSTOR  2983891.
  • Wanli Wang, Johannes HP Schulz, Weihua Deng y Eli Barkai (2018). "Teoría de la renovación con tiempos de permanencia distribuidos de cola gruesa: típicos versus raros". Phys. Rev. E . 98 (4): 042139. arXiv : 1809.05856 . Código Bibliográfico :2018PhRvE..98d2139W. doi :10.1103/PhysRevE.98.042139. S2CID  54727926.{{cite journal}}: CS1 maint: multiple names: authors list (link)
Retrieved from "https://en.wikipedia.org/w/index.php?title=Renewal_theory&oldid=1210401502"