Método del segundo momento

Método en teoría de la probabilidad

En matemáticas, el método del segundo momento es una técnica utilizada en la teoría y el análisis de la probabilidad para demostrar que una variable aleatoria tiene una probabilidad positiva de ser positiva. En términos más generales, el "método del momento" consiste en limitar la probabilidad de que una variable aleatoria fluctúe lejos de su media, utilizando sus momentos. [1]

El método suele ser cuantitativo, en el sentido de que a menudo se puede deducir un límite inferior para la probabilidad de que la variable aleatoria sea mayor que una constante multiplicada por su valor esperado. El método implica comparar el segundo momento de las variables aleatorias con el cuadrado del primer momento.

Método del primer momento

El método del primer momento es una aplicación simple de la desigualdad de Markov para variables de valor entero. Para una variable aleatoria X de valor entero no negativo , es posible que queramos demostrar que X = 0 con alta probabilidad. Para obtener un límite superior para Pr( X > 0) , y por lo tanto un límite inferior para Pr( X = 0) , primero notamos que como X solo toma valores enteros, Pr( X > 0) = Pr( X ≥ 1) . Como X no es negativo, ahora podemos aplicar la desigualdad de Markov para obtener Pr( X ≥ 1) ≤ E[ X ] . Combinando estos, tenemos Pr( X > 0) ≤ E[ X ] ; el método del primer momento es simplemente el uso de esta desigualdad.

Método del segundo momento

En la otra dirección, que E[ X ] sea "grande" no implica directamente que Pr( X = 0) sea pequeña. Sin embargo, a menudo podemos utilizar el segundo momento para derivar dicha conclusión, utilizando la desigualdad de Cauchy-Schwarz .

Teorema  —  Si X ≥ 0 es una variable aleatoria con varianza finita, entonces Pr ( incógnita > 0 ) ( mi [ incógnita ] ) 2 mi [ incógnita 2 ] . {\displaystyle \Pr(X>0)\geq {\frac {(\operatorname {E} [X])^{2}}{\operatorname {E} [X^{2}]}}.}

Prueba

Usando la desigualdad de Cauchy-Schwarz , tenemos Al resolver para , entonces se obtiene la desigualdad deseada. QED mi [ incógnita ] = mi [ incógnita 1 { incógnita > 0 } ] mi [ incógnita 2 ] 1 / 2 Pr ( incógnita > 0 ) 1 / 2 . {\displaystyle \operatorname {E} [X]=\operatorname {E} [X\,\mathbf {1} _{\{X>0\}}]\leq \operatorname {E} [X^{2}]^{1/2}\Pr(X>0)^{1/2}.} Pr ( X > 0 ) {\displaystyle \Pr(X>0)}

El método también puede utilizarse en límites distribucionales de variables aleatorias. Además, la estimación del teorema anterior puede refinarse mediante la denominada desigualdad de Paley-Zygmund . Supóngase que X n es una secuencia de variables aleatorias reales no negativas que convergen en ley a una variable aleatoria X . Si hay constantes positivas finitas c 1 , c 2 tales que E [ X n 2 ] c 1 E [ X n ] 2 E [ X n ] c 2 {\displaystyle {\begin{aligned}\operatorname {E} \left[X_{n}^{2}\right]&\leq c_{1}\operatorname {E} [X_{n}]^{2}\\\operatorname {E} \left[X_{n}\right]&\geq c_{2}\end{aligned}}}

se cumple para cada n , entonces se deduce de la desigualdad de Paley-Zygmund que para cada n y θ en (0, 1) Pr ( X n c 2 θ ) ( 1 θ ) 2 c 1 . {\displaystyle \Pr(X_{n}\geq c_{2}\theta )\geq {\frac {(1-\theta )^{2}}{c_{1}}}.}

En consecuencia , la misma desigualdad se satisface para X.

Ejemplo de aplicación del método

Configuración del problema

El subgrafo de percolación de enlace de Bernoulli de un grafo G en el parámetro p es un subgrafo aleatorio obtenido de G eliminando cada arista de G con probabilidad 1− p , de forma independiente. El árbol binario completo infinito T es un árbol infinito donde un vértice (llamado raíz) tiene dos vecinos y cada otro vértice tiene tres vecinos. El segundo método de momento se puede utilizar para mostrar que en cada parámetro p(1/2, 1] con probabilidad positiva el componente conectado de la raíz en el subgrafo de percolación de T es infinito.

Aplicación del método

Sea K el componente de percolación de la raíz, y sea T n el conjunto de vértices de T que están a una distancia n de la raíz. Sea X n el número de vértices en T nK .

Para demostrar que K es infinito con probabilidad positiva, basta con demostrar que . Como los eventos forman una secuencia decreciente, por medidas de continuidad de probabilidad esto es equivalente a demostrar que . Pr ( X n > 0     n ) > 0 {\displaystyle \Pr(X_{n}>0\ \ \forall n)>0} { X n > 0 } {\displaystyle \{X_{n}>0\}} inf n Pr ( X n > 0 ) > 0 {\displaystyle \inf _{n}\Pr(X_{n}>0)>0}

La desigualdad de Cauchy-Schwarz da Por lo tanto, es suficiente demostrar que es decir, que el segundo momento está acotado desde arriba por una constante multiplicada por el primer momento al cuadrado (y ambos son distintos de cero). En muchas aplicaciones del método del segundo momento, no se pueden calcular los momentos con precisión, pero se puede establecer esta desigualdad. E [ X n ] 2 E [ X n 2 ] E [ ( 1 X n > 0 ) 2 ] = E [ X n 2 ] Pr ( X n > 0 ) . {\displaystyle \operatorname {E} [X_{n}]^{2}\leq \operatorname {E} [X_{n}^{2}]\,\operatorname {E} \left[(1_{X_{n}>0})^{2}\right]=\operatorname {E} [X_{n}^{2}]\,\Pr(X_{n}>0).} inf n E [ X n ] 2 E [ X n 2 ] > 0 , {\displaystyle \inf _{n}{\frac {\operatorname {E} \left[X_{n}\right]^{2}}{\operatorname {E} \left[X_{n}^{2}\right]}}>0\,,}

En esta aplicación particular, estos momentos pueden calcularse. Para cada v específico en T n , Puesto que , se sigue que es el primer momento. Ahora viene el cálculo del segundo momento. Para cada par v , u en T n sea w ( v , u ) el vértice en T que está más alejado de la raíz y se encuentra en el camino simple en T a cada uno de los dos vértices v y u , y sea k ( v , u ) la distancia desde w a la raíz. Para que v , u estén ambos en K , es necesario y suficiente que los tres caminos simples desde w ( v , u ) a v , u y la raíz estén en K . Puesto que el número de aristas contenidas en la unión de estos tres caminos es 2 nk ( v , u ) , obtenemos El número de pares ( v , u ) tales que k ( v , u ) = s es igual a , para e igual a para . Por lo tanto, para , de modo que lo que completa la prueba. Pr ( v K ) = p n . {\displaystyle \Pr(v\in K)=p^{n}.} | T n | = 2 n {\displaystyle |T_{n}|=2^{n}} E [ X n ] = 2 n p n {\displaystyle \operatorname {E} [X_{n}]=2^{n}\,p^{n}} E [ X n 2 ] = E [ v T n u T n 1 v K 1 u K ] = v T n u T n Pr ( v , u K ) . {\displaystyle \operatorname {E} \!\left[X_{n}^{2}\right]=\operatorname {E} \!\left[\sum _{v\in T_{n}}\sum _{u\in T_{n}}1_{v\in K}\,1_{u\in K}\right]=\sum _{v\in T_{n}}\sum _{u\in T_{n}}\Pr(v,u\in K).} Pr ( v , u K ) = p 2 n k ( v , u ) . {\displaystyle \Pr(v,u\in K)=p^{2n-k(v,u)}.} 2 s 2 n s 2 n s 1 = 2 2 n s 1 {\displaystyle 2^{s}\,2^{n-s}\,2^{n-s-1}=2^{2n-s-1}} s = 0 , 1 , , n 1 {\displaystyle s=0,1,\dots ,n-1} 2 n {\displaystyle 2^{n}} s = n {\displaystyle s=n} p > 1 2 {\displaystyle p>{\frac {1}{2}}} E [ X n 2 ] = ( 2 p ) n + s = 0 n 1 2 2 n s 1 p 2 n s = ( 2 p ) n + 1 2 ( 2 p ) n + ( 2 p ) 2 n + 1 4 p 2 , {\displaystyle \operatorname {E} [X_{n}^{2}]=(2p)^{n}+\sum _{s=0}^{n-1}2^{2n-s-1}p^{2n-s}={\frac {(2p)^{n+1}-2(2p)^{n}+(2p)^{2n+1}}{4p-2}},} ( E [ X n ] ) 2 E [ X n 2 ] = 4 p 2 ( 2 p ) 1 n 2 ( 2 p ) n + 2 p 2 1 p > 0 , {\displaystyle {\frac {(\operatorname {E} [X_{n}])^{2}}{\operatorname {E} [X_{n}^{2}]}}={\frac {4p-2}{(2p)^{1-n}-2(2p)^{-n}+2p}}\to 2-{\frac {1}{p}}>0,}

Discusión

  • La elección de las variables aleatorias X n fue bastante natural en esta configuración. En algunas aplicaciones más difíciles del método, puede que se requiera algo de ingenio para elegir las variables aleatorias X n para las que se pueda aplicar el argumento.
  • La desigualdad de Paley-Zygmund a veces se utiliza en lugar de la desigualdad de Cauchy-Schwarz y ocasionalmente puede dar resultados más refinados.
  • Bajo el supuesto (incorrecto) de que los eventos v , u en K son siempre independientes, se tiene , y el segundo momento es igual al primer momento al cuadrado. El método del segundo momento normalmente funciona en situaciones en las que los eventos o variables aleatorias correspondientes son "casi independientes". Pr ( v , u K ) = Pr ( v K ) Pr ( u K ) {\displaystyle \Pr(v,u\in K)=\Pr(v\in K)\,\Pr(u\in K)}
  • En esta aplicación, las variables aleatorias X n se dan como sumas. En otras aplicaciones, las variables aleatorias útiles correspondientes son integrales donde las funciones f n son aleatorias. En tal situación, se considera la medida del producto μ × μ y se calcula dónde se justifica típicamente el último paso utilizando el teorema de Fubini . X n = v T n 1 v K . {\displaystyle X_{n}=\sum _{v\in T_{n}}1_{v\in K}.} X n = f n ( t ) d μ ( t ) , {\displaystyle X_{n}=\int f_{n}(t)\,d\mu (t),} E [ X n 2 ] = E [ f n ( x ) f n ( y ) d μ ( x ) d μ ( y ) ] = E [ E [ f n ( x ) f n ( y ) ] d μ ( x ) d μ ( y ) ] , {\displaystyle {\begin{aligned}\operatorname {E} \left[X_{n}^{2}\right]&=\operatorname {E} \left[\iint f_{n}(x)\,f_{n}(y)\,d\mu (x)\,d\mu (y)\right]\\&=\operatorname {E} \left[\iint \operatorname {E} \left[f_{n}(x)\,f_{n}(y)\right]\,d\mu (x)\,d\mu (y)\right],\end{aligned}}}

Referencias

  1. ^ Terence Tao (18 de junio de 2008). "La ley fuerte de los grandes números". ¿Qué hay de nuevo? . Consultado el 10 de febrero de 2009 .
  • Burdzy, Krzysztof; Adelman, Omer; Pemantle, Robin (1998), "Conjuntos evitados por el movimiento browniano", Annals of Probability , 26 (2): 429–464, arXiv : math/9701225 , doi :10.1214/aop/1022855639, hdl :1773/2194, S2CID  7338064
  • Lyons, Russell (1992), "Caminata aleatoria, capacidad y percolación en árboles", Annals of Probability , 20 (4): 2043–2088, doi : 10.1214/aop/1176989540
  • Lyons, Russell; Peres, Yuval, Probabilidad en árboles y redes
Retrieved from "https://en.wikipedia.org/w/index.php?title=Second_moment_method&oldid=1250448879"