Sin memoria

Propiedad del tiempo de espera de ciertas distribuciones de probabilidad

En probabilidad y estadística , la falta de memoria es una propiedad de ciertas distribuciones de probabilidad . Describe situaciones en las que el tiempo que ya se ha pasado esperando un evento no afecta a cuánto tiempo más durará la espera. Para modelar situaciones sin memoria con precisión, tenemos que ignorar el estado pasado del sistema: las probabilidades no se ven afectadas por la historia del proceso. [1]

Sólo dos tipos de distribuciones no tienen memoria : las distribuciones de probabilidad geométricas y las exponenciales .

Ejemplos de tiempos de espera

Con memoria

La mayoría de los fenómenos no carecen de memoria, lo que significa que los observadores obtendrán información sobre ellos a lo largo del tiempo. Por ejemplo, supongamos que X es una variable aleatoria , la vida útil del motor de un automóvil, expresada en términos de "número de millas recorridas hasta que el motor se estropea". Está claro, según nuestra intuición, que un motor que ya ha recorrido 300.000 millas tendrá una X mucho menor que un segundo motor (equivalente) que solo ha recorrido 1.000 millas. Por lo tanto, esta variable aleatoria no tendría la propiedad de carecer de memoria.

Sin memoria

En cambio, examinemos una situación en la que se manifiesta falta de memoria. Imaginemos un pasillo largo, con miles de cajas fuertes alineadas en una pared. Cada caja tiene un dial con 500 posiciones y a cada una se le ha asignado una posición de apertura al azar. Imaginemos que una persona excéntrica camina por el pasillo, deteniéndose una vez en cada caja fuerte para hacer un único intento aleatorio de abrirla. En este caso, podríamos definir la variable aleatoria X como el tiempo de vida de su búsqueda, expresado en términos de "número de intentos que la persona debe hacer hasta abrir con éxito una caja fuerte". En este caso, E[ X ] siempre será igual al valor de 500, independientemente de cuántos intentos se hayan hecho ya. Cada nuevo intento tiene una probabilidad (1/500) de tener éxito, por lo que es probable que la persona abra exactamente una caja fuerte en algún momento de los próximos 500 intentos, pero con cada nuevo fracaso no hace ningún "progreso" hacia el éxito final. Incluso si el ladrón de cajas fuertes acaba de fallar 499 veces consecutivas (o 4.999 veces), esperamos esperar 500 intentos más hasta que observemos el siguiente éxito. Si, en cambio, esta persona concentrara sus intentos en una sola caja fuerte y "recordara" sus intentos anteriores para abrirla, tendría la garantía de abrir la caja fuerte después de, como máximo, 500 intentos (y, de hecho, al principio solo esperaría necesitar 250 intentos, no 500).

La ley universal de desintegración radiactiva , que describe el tiempo que transcurre hasta que una partícula radiactiva determinada se desintegra, es un ejemplo real de falta de memoria. Un ejemplo (teórico) de falta de memoria que se utiliza a menudo en la teoría de colas es el tiempo que debe esperar un comerciante antes de que llegue el siguiente cliente.

Falta de memoria discreta

Si una variable aleatoria discreta no tiene memoria, entonces satisface donde y son números naturales . La igualdad sigue siendo cierta cuando se sustituye por en el lado izquierdo de la ecuación. [2] incógnita {\estilo de visualización X} Pr ( incógnita > metro + norte incógnita > metro ) = Pr ( incógnita > norte ) {\displaystyle \Pr(X>m+n\mid X>m)=\Pr(X>n)} metro {\estilo de visualización m} norte {\estilo de visualización n} {\estilo de visualización \geq} > {\estilo de visualización >}

La única variable aleatoria discreta que no tiene memoria es la variable aleatoria geométrica que toma valores en . [3] Esta variable aleatoria describe cuándo ocurre el primer éxito en una secuencia infinita de ensayos de Bernoulli independientes e idénticamente distribuidos . [4] La propiedad de falta de memoria afirma que la cantidad de ensayos fallidos previamente no tiene efecto en la cantidad de ensayos futuros necesarios para un éxito. norte {\displaystyle \mathbb {N}}

Las variables aleatorias geométricas también pueden definirse como aquellas que toman valores en , lo que describe el número de ensayos fallidos antes del primer éxito en una secuencia de ensayos de Bernoulli independientes e idénticamente distribuidos. Estas variables aleatorias no satisfacen la condición de falta de memoria mencionada anteriormente; sin embargo, sí satisfacen una condición de falta de memoria ligeramente modificada: [5] norte 0 {\displaystyle \mathbb {N} _ {0}}

Pr ( incógnita > metro + norte incógnita metro ) = Pr ( incógnita > norte ) . {\displaystyle \Pr(X>m+n\mid X\geq m)=\Pr(X>n).}

De manera similar a la primera definición, solo las variables aleatorias discretas que satisfacen esta condición de falta de memoria son variables aleatorias geométricas que toman valores en . En el caso continuo, estas dos definiciones de falta de memoria son equivalentes. norte 0 {\displaystyle \mathbb {N} _ {0}}

Falta de memoria continua

Si una variable aleatoria continua no tiene memoria, entonces satisface donde y son números reales no negativos . [6] La igualdad sigue siendo verdadera cuando se sustituye . [7] incógnita {\estilo de visualización X} Pr ( incógnita > s + a incógnita > a ) = Pr ( incógnita > s ) {\displaystyle \Pr(X>s+t\mid X>t)=\Pr(X>s)} s {\estilo de visualización s} a {\estilo de visualización t} {\estilo de visualización \geq}

La única variable aleatoria continua que no tiene memoria es la variable aleatoria exponencial . Modela procesos aleatorios como el tiempo entre eventos consecutivos. [8] La propiedad de falta de memoria afirma que la cantidad de tiempo desde el evento anterior no tiene efecto en el tiempo futuro hasta que ocurra el próximo evento.

Distribución exponencial y demostración de falta de memoria

La única distribución de probabilidad continua sin memoria es la distribución exponencial, que se muestra en la siguiente prueba: [9]

En primer lugar, defina , también conocida como función de supervivencia de la distribución . A partir de la propiedad de falta de memoria y la definición de probabilidad condicional , se deduce que S ( a ) = Pr ( incógnita > a ) {\displaystyle S(t)=\Pr(X>t)} Pr ( incógnita > a + s ) Pr ( incógnita > a ) = Pr ( incógnita > s ) {\displaystyle {\frac {\Pr(X>t+s)}{\Pr(X>t)}}=\Pr(X>s)}

Esto da la ecuación funcional que implica que donde es un número natural . De manera similar, donde es un número natural, excluyendo . Por lo tanto, todos los números racionales satisfacen Dado que es continua y el conjunto de números racionales es denso en el conjunto de números reales , donde es un número real no negativo. Cuando , Como resultado, donde . S ( a + s ) = S ( a ) S ( s ) {\displaystyle S(t+s)=S(t)S(s)} S ( pag a ) = S ( a ) pag {\displaystyle S(pt)=S(t)^{p}} pag {\estilo de visualización p} S ( a q ) = S ( a ) 1 q {\displaystyle S\left({\frac {t}{q}}\right)=S(t)^{\frac {1}{q}}} q {\estilo de visualización q} 0 {\estilo de visualización 0} a = pag q {\displaystyle a={\tfrac {p}{q}}} S ( a a ) = S ( a ) a {\displaystyle S(at)=S(t)^{a}} S {\estilo de visualización S} S ( incógnita a ) = S ( a ) incógnita {\displaystyle S(xt)=S(t)^{x}} incógnita {\estilo de visualización x} a = 1 {\estilo de visualización t=1} S ( incógnita ) = S ( 1 ) incógnita {\displaystyle S(x)=S(1)^{x}} S ( incógnita ) = mi la incógnita {\displaystyle S(x)=e^{-\lambda x}} la = En S ( 1 ) 0 {\displaystyle \lambda =-\ln S(1)\geq 0}

Referencias

  1. ^ "Notas sobre variables aleatorias sin memoria" (PDF) .
  2. ^ Chattamvelli, Rajan; Shanmugam, Ramalingam (2020). Distribuciones discretas en ingeniería y ciencias aplicadas. Synthesis Lectures on Mathematics & Statistics. Cham: Springer International Publishing. pág. 71. doi :10.1007/978-3-031-02425-2. ISBN 978-3-031-01297-6.
  3. ^ Dekking, Frederik Michel; Kraaikamp, ​​Cornelis; Lopuhaä, Hendrik Paul; Meester, Ludolf Erwin (2005). Una introducción moderna a la probabilidad y la estadística. Textos Springer en Estadística. Londres: Springer Londres. pag. 50.doi :10.1007/1-84628-168-7 . ISBN 978-1-85233-896-1.
  4. ^ Nagel, Werner; Steyer, Rolf (4 de abril de 2017). Probabilidad y expectativa condicional: fundamentos para las ciencias empíricas. Serie Wiley sobre probabilidad y estadística (1.ª ed.). Wiley. págs. 260–261. doi :10.1002/9781119243496. ISBN 978-1-119-24352-6.
  5. ^ Weisstein, Eric W. "Sin memoria". mathworld.wolfram.com . Consultado el 25 de julio de 2024 .
  6. ^ Pitman, Jim (1993). Probabilidad. Nueva York, NY: Springer New York. p. 279. doi :10.1007/978-1-4612-4374-8. ISBN 978-0-387-94594-1.
  7. ^ Brémaud, Pierre (2024). Introducción a la probabilidad aplicada. Textos de matemáticas aplicadas. Vol. 77. Cham: Springer International Publishing. pág. 84. doi :10.1007/978-3-031-49306-5. ISBN 978-3-031-49305-8.
  8. ^ Bas, Esra (2019). Fundamentos de probabilidad y procesos estocásticos. Cham: Springer International Publishing. pág. 74. doi :10.1007/978-3-030-32323-3. ISBN 978-3-030-32322-6.
  9. ^ Riposo, Julien (2023). Algunos fundamentos de las matemáticas de la cadena de bloques. Cham: Springer Nature Switzerland. págs. 8-9. doi :10.1007/978-3-031-31323-3. ISBN 978-3-031-31322-6.
Obtenido de "https://es.wikipedia.org/w/index.php?title=Falta de memoria&oldid=1247718442"