Distribución normal multivariante

Generalización de la distribución normal unidimensional a dimensiones superiores
Normal multivariante
Función de densidad de probabilidad
Muchos puntos de muestra de una distribución normal multivariada con y , que se muestran junto con la elipse de 3 sigma, las dos distribuciones marginales y los dos histogramas 1-d. micras = [ 0 0 ] {\displaystyle {\boldsymbol {\mu }}=\left[{\begin{smallmatrix}0\\0\end{smallmatrix}}\right]} Σ = [ 1 3 / 5 3 / 5 2 ] {\displaystyle {\boldsymbol {\Sigma }}=\left[{\begin{smallmatrix}1&3/5\\3/5&2\end{smallmatrix}}\right]}
Notación norte ( micras , Σ ) {\displaystyle {\mathcal {N}}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }})}
Parámetrosμ R k ubicación
Σ R k  ×  k covarianza ( matriz semidefinida positiva )
Apoyox μ + span( Σ ) ⊆ R k
PDF ( 2 π ) a / 2 det ( Σ ) 1 / 2 exp ( 1 2 ( incógnita micras ) yo Σ 1 ( incógnita micras ) ) , {\displaystyle (2\pi )^{-k/2}\det({\boldsymbol {\Sigma }})^{-1/2}\,\exp \left(-{\frac {1}{2}}(\mathbf {x} -{\boldsymbol {\mu }})^{\mathrm {T} }{\boldsymbol {\Sigma }}^{-1}(\mathbf {x} -{\boldsymbol {\mu }})\right),}
existe solo cuando Σ es definida positiva
Significarmicras
Modomicras
DiferenciaΣ
Entropía a 2 registro ( 2 π mi ) + 1 2 registro det ( Σ ) {\displaystyle {\frac {k}{2}}\log {\mathord {\left(2\pi \mathrm {e} \right)}}+{\frac {1}{2}}\log \det {\mathord {\left({\boldsymbol {\Sigma }}\right)}}}
MGF exp ( micras yo a + 1 2 a yo Σ a ) {\displaystyle \exp \!{\Big (}{\boldsymbol {\mu }}^{\mathrm {T} }\mathbf {t} +{\tfrac {1}{2}}\mathbf {t} ^{\mathrm {T} }{\boldsymbol {\Sigma }}\mathbf {t} {\Big )}}
CF exp ( i micras yo a 1 2 a yo Σ a ) {\displaystyle \exp \!{\Big (}i{\boldsymbol {\mu }}^{\mathrm {T} }\mathbf {t} -{\tfrac {1}{2}}\mathbf {t} ^{\mathrm {T} }{\boldsymbol {\Sigma }}\mathbf {t} {\Big )}}
Divergencia de Kullback-LeiblerVéase § Divergencia de Kullback–Leibler

En teoría de probabilidad y estadística , la distribución normal multivariada , distribución gaussiana multivariada o distribución normal conjunta es una generalización de la distribución normal unidimensional ( univariada ) a dimensiones superiores . Una definición es que se dice que un vector aleatorio tiene una distribución normal de k -variadas si cada combinación lineal de sus k componentes tiene una distribución normal univariante. Su importancia deriva principalmente del teorema del límite central multivariado . La distribución normal multivariada se utiliza a menudo para describir, al menos aproximadamente, cualquier conjunto de variables aleatorias de valor real (posiblemente) correlacionadas , cada una de las cuales se agrupa alrededor de un valor medio.

Definiciones

Notación y parametrización

La distribución normal multivariada de un vector aleatorio de dimensión k se puede escribir en la siguiente notación: incógnita = ( incógnita 1 , , incógnita a ) yo {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{\mathrm {T} }}

incógnita     norte ( micras , Σ ) , {\displaystyle \mathbf {X} \ \sim \ {\mathcal {N}}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }}),}

o para hacer saber explícitamente que X es k -dimensional,

incógnita     norte a ( micras , Σ ) , {\displaystyle \mathbf {X} \ \sim \ {\mathcal {N}}_{k}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }}),}

con vector medio de dimensión k

micras = mi [ incógnita ] = ( mi [ incógnita 1 ] , mi [ incógnita 2 ] , , mi [ incógnita a ] ) yo , {\displaystyle {\boldsymbol {\mu }}=\nombredeloperador {E} [\mathbf {X} ]=(\nombredeloperador {E} [X_{1}],\nombredeloperador {E} [X_{2}],\ldots ,\nombredeloperador {E} [X_{k}])^{\mathrm {T} },}

y matriz de covarianza a × a {\displaystyle k\veces k}

Σ i , yo = mi [ ( incógnita i micras i ) ( incógnita yo micras yo ) ] = Cov [ incógnita i , incógnita yo ] {\displaystyle \Sigma _{i,j}=\operatorname {E} [(X_{i}-\mu _{i})(X_{j}-\mu _{j})]=\operatorname {Cov } [X_ {i}, X_ {j}]}

tal que y . La inversa de la matriz de covarianza se llama matriz de precisión , denotada por . 1 i a {\displaystyle 1\leq i\leq k} 1 yo a {\displaystyle 1\leq j\leq k} Q = Σ 1 {\displaystyle {\boldsymbol {Q}}={\boldsymbol {\Sigma }}^{-1}}

Vector aleatorio normal estándar

Un vector aleatorio real se denomina vector aleatorio normal estándar si todos sus componentes son independientes y cada uno es una variable aleatoria distribuida normalmente con varianza unitaria de media cero, es decir, si para todos . [1] : p. 454  incógnita = ( incógnita 1 , , incógnita a ) yo {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{\mathrm {T} }} incógnita i Estilo de visualización X_{i}} incógnita i   norte ( 0 , 1 ) {\displaystyle X_{i}\sim \ {\mathcal {N}}(0,1)} i = 1 a {\displaystyle i=1\lpuntos k}

Vector aleatorio normal centrado

Un vector aleatorio real se denomina vector aleatorio normal centrado si existe una matriz determinista que tiene la misma distribución que donde es un vector aleatorio normal estándar con componentes. [1] : p. 454  incógnita = ( incógnita 1 , , incógnita a ) yo {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{\mathrm {T} }} a × {\displaystyle k\times \ell } A {\displaystyle {\boldsymbol {A}}} A O {\displaystyle {\boldsymbol {A}}\mathbf {Z} } X {\displaystyle \mathbf {X} } Z {\displaystyle \mathbf {Z} } {\displaystyle \ell }

Vector aleatorio normal

Un vector aleatorio real se denomina vector aleatorio normal si existe un -vector aleatorio , que es un vector aleatorio normal estándar, un -vector y una matriz , tales que . [2] : p. 454  [1] : p. 455  X = ( X 1 , , X k ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{\mathrm {T} }} {\displaystyle \ell } Z {\displaystyle \mathbf {Z} } k {\displaystyle k} μ {\displaystyle \mathbf {\mu } } k × {\displaystyle k\times \ell } A {\displaystyle {\boldsymbol {A}}} X = A Z + μ {\displaystyle \mathbf {X} ={\boldsymbol {A}}\mathbf {Z} +\mathbf {\mu } }

Formalmente:

X     N ( μ , Σ ) there exist  μ R k , A R k ×  such that  X = A Z + μ  and  n = 1 , , : Z n   N ( 0 , 1 ) , i.i.d. {\displaystyle \mathbf {X} \ \sim \ {\mathcal {N}}(\mathbf {\mu } ,{\boldsymbol {\Sigma }})\quad \iff \quad {\text{there exist }}\mathbf {\mu } \in \mathbb {R} ^{k},{\boldsymbol {A}}\in \mathbb {R} ^{k\times \ell }{\text{ such that }}\mathbf {X} ={\boldsymbol {A}}\mathbf {Z} +\mathbf {\mu } {\text{ and }}\forall n=1,\ldots ,\ell :Z_{n}\sim \ {\mathcal {N}}(0,1),{\text{i.i.d.}}}

Aquí la matriz de covarianza es . Σ = A A T {\displaystyle {\boldsymbol {\Sigma }}={\boldsymbol {A}}{\boldsymbol {A}}^{\mathrm {T} }}

En el caso degenerado en el que la matriz de covarianza es singular , la distribución correspondiente no tiene densidad; consulte la sección siguiente para obtener más detalles. Este caso surge con frecuencia en estadística ; por ejemplo, en la distribución del vector de residuos en la regresión de mínimos cuadrados ordinarios . En general , no son independientes; pueden verse como el resultado de aplicar la matriz a una colección de variables gaussianas independientes . X i {\displaystyle X_{i}} A {\displaystyle {\boldsymbol {A}}} Z {\displaystyle \mathbf {Z} }

Definiciones equivalentes

Las siguientes definiciones son equivalentes a la definición dada anteriormente. Un vector aleatorio tiene una distribución normal multivariada si satisface una de las siguientes condiciones equivalentes. X = ( X 1 , , X k ) T {\displaystyle \mathbf {X} =(X_{1},\ldots ,X_{k})^{\mathrm {T} }}

  • Toda combinación lineal de sus componentes se distribuye normalmente . Es decir, para cualquier vector constante , la variable aleatoria tiene una distribución normal univariante, donde una distribución normal univariante con varianza cero es una masa puntual sobre su media. Y = a 1 X 1 + + a k X k {\displaystyle Y=a_{1}X_{1}+\cdots +a_{k}X_{k}} a R k {\displaystyle \mathbf {a} \in \mathbb {R} ^{k}} Y = a T X {\displaystyle Y=\mathbf {a} ^{\mathrm {T} }\mathbf {X} }
  • Hay un vector k y una matriz semidefinida positiva simétrica , tal que la función característica de es μ {\displaystyle \mathbf {\mu } } k × k {\displaystyle k\times k} Σ {\displaystyle {\boldsymbol {\Sigma }}} X {\displaystyle \mathbf {X} } φ X ( u ) = exp ( i u T μ 1 2 u T Σ u ) . {\displaystyle \varphi _{\mathbf {X} }(\mathbf {u} )=\exp {\Big (}i\mathbf {u} ^{\mathrm {T} }{\boldsymbol {\mu }}-{\tfrac {1}{2}}\mathbf {u} ^{\mathrm {T} }{\boldsymbol {\Sigma }}\mathbf {u} {\Big )}.}

La distribución normal esférica se puede caracterizar como la única distribución donde los componentes son independientes en cualquier sistema de coordenadas ortogonales. [3] [4]

Función de densidad

Densidad articular normal bivariada

Caso no degenerado

Se dice que la distribución normal multivariante es "no degenerada" cuando la matriz de covarianza simétrica es definida positiva . En este caso, la distribución tiene densidad [5] Σ {\displaystyle {\boldsymbol {\Sigma }}}

f X ( x 1 , , x k ) = exp ( 1 2 ( x μ ) T Σ 1 ( x μ ) ) ( 2 π ) k | Σ | {\displaystyle f_{\mathbf {X} }(x_{1},\ldots ,x_{k})={\frac {\exp \left(-{\frac {1}{2}}\left({\mathbf {x} }-{\boldsymbol {\mu }}\right)^{\mathrm {T} }{\boldsymbol {\Sigma }}^{-1}\left({\mathbf {x} }-{\boldsymbol {\mu }}\right)\right)}{\sqrt {(2\pi )^{k}|{\boldsymbol {\Sigma }}|}}}}

donde es un vector columna real de dimensión k y es el determinante de , también conocido como varianza generalizada . La ecuación anterior se reduce a la de la distribución normal univariante si es una matriz (es decir, un solo número real). x {\displaystyle {\mathbf {x} }} | Σ | det Σ {\displaystyle |{\boldsymbol {\Sigma }}|\equiv \det {\boldsymbol {\Sigma }}} Σ {\displaystyle {\boldsymbol {\Sigma }}} Σ {\displaystyle {\boldsymbol {\Sigma }}} 1 × 1 {\displaystyle 1\times 1}

La versión circularmente simétrica de la distribución normal compleja tiene una forma ligeramente diferente.

Cada lugar geométrico de isodensidad (el lugar geométrico de los puntos en el espacio k -dimensional, cada uno de los cuales da el mismo valor particular de la densidad) es una elipse o su generalización de dimensión superior; por lo tanto, la normal multivariada es un caso especial de las distribuciones elípticas .

La cantidad se conoce como la distancia de Mahalanobis , que representa la distancia del punto de prueba desde la media . La distancia de Mahalanobis al cuadrado se descompone en una suma de k términos, siendo cada término un producto de tres componentes significativos. [6] Nótese que en el caso cuando , la distribución se reduce a una distribución normal univariante y la distancia de Mahalanobis se reduce al valor absoluto de la puntuación estándar . Véase también Intervalo a continuación. ( x μ ) T Σ 1 ( x μ ) {\displaystyle {\sqrt {({\mathbf {x} }-{\boldsymbol {\mu }})^{\mathrm {T} }{\boldsymbol {\Sigma }}^{-1}({\mathbf {x} }-{\boldsymbol {\mu }})}}} x {\displaystyle {\mathbf {x} }} μ {\displaystyle {\boldsymbol {\mu }}} ( x μ ) T Σ 1 ( x μ ) {\displaystyle ({\mathbf {x} }-{\boldsymbol {\mu }})^{\mathrm {T} }{\boldsymbol {\Sigma }}^{-1}({\mathbf {x} }-{\boldsymbol {\mu }})} k = 1 {\displaystyle k=1}

Caso bivariado

En el caso no singular bidimensional ( ), la función de densidad de probabilidad de un vector es: donde es la correlación entre y y donde y . En este caso, k = rank ( Σ ) = 2 {\displaystyle k=\operatorname {rank} \left(\Sigma \right)=2} [XY] {\displaystyle {\text{[XY]}}\prime } f ( x , y ) = 1 2 π σ X σ Y 1 ρ 2 exp ( 1 2 [ 1 ρ 2 ] [ ( x μ X σ X ) 2 2 ρ ( x μ X σ X ) ( y μ Y σ Y ) + ( y μ Y σ Y ) 2 ] ) {\displaystyle f(x,y)={\frac {1}{2\pi \sigma _{X}\sigma _{Y}{\sqrt {1-\rho ^{2}}}}}\exp \left(-{\frac {1}{2\left[1-\rho ^{2}\right]}}\left[\left({\frac {x-\mu _{X}}{\sigma _{X}}}\right)^{2}-2\rho \left({\frac {x-\mu _{X}}{\sigma _{X}}}\right)\left({\frac {y-\mu _{Y}}{\sigma _{Y}}}\right)+\left({\frac {y-\mu _{Y}}{\sigma _{Y}}}\right)^{2}\right]\right)} ρ {\displaystyle \rho } X {\displaystyle X} Y {\displaystyle Y} σ X > 0 {\displaystyle \sigma _{X}>0} σ Y > 0 {\displaystyle \sigma _{Y}>0}

μ = ( μ X μ Y ) , Σ = ( σ X 2 ρ σ X σ Y ρ σ X σ Y σ Y 2 ) . {\displaystyle {\boldsymbol {\mu }}={\begin{pmatrix}\mu _{X}\\\mu _{Y}\end{pmatrix}},\quad {\boldsymbol {\Sigma }}={\begin{pmatrix}\sigma _{X}^{2}&\rho \sigma _{X}\sigma _{Y}\\\rho \sigma _{X}\sigma _{Y}&\sigma _{Y}^{2}\end{pmatrix}}.}

En el caso bivariado, la primera condición equivalente para la reconstrucción multivariada de la normalidad puede hacerse menos restrictiva, ya que es suficiente verificar que un conjunto infinito numerable de combinaciones lineales distintas de y son normales para concluir que el vector de es normal bivariado. [7] X {\displaystyle X} Y {\displaystyle Y} [XY] {\displaystyle {\text{[XY]}}\prime }

Los lugares de isodensidad bivariados representados en el plano son elipses , cuyos ejes principales están definidos por los vectores propios de la matriz de covarianza (los semidiámetros mayor y menor de la elipse son iguales a la raíz cuadrada de los valores propios ordenados). x , y {\displaystyle x,y} Σ {\displaystyle {\boldsymbol {\Sigma }}}

Distribución normal bivariada centrada en con una desviación estándar de 3 en aproximadamente la dirección y de 1 en la dirección ortogonal. ( 1 , 3 ) {\displaystyle (1,3)} ( 0.878 , 0.478 ) {\displaystyle (0.878,0.478)}

A medida que aumenta el valor absoluto del parámetro de correlación , estos loci se comprimen hacia la siguiente línea: ρ {\displaystyle \rho }

y ( x ) = sgn ( ρ ) σ Y σ X ( x μ X ) + μ Y . {\displaystyle y(x)=\operatorname {sgn}(\rho ){\frac {\sigma _{Y}}{\sigma _{X}}}(x-\mu _{X})+\mu _{Y}.}

Esto se debe a que esta expresión, con (donde sgn es la función Signo ) reemplazada por , es la mejor predicción lineal imparcial de dado un valor de . [8] sgn ( ρ ) {\displaystyle \operatorname {sgn}(\rho )} ρ {\displaystyle \rho } Y {\displaystyle Y} X {\displaystyle X}

Caso degenerado

Si la matriz de covarianza no es de rango completo, entonces la distribución normal multivariante es degenerada y no tiene densidad. Más precisamente, no tiene densidad con respecto a la medida de Lebesgue de dimensión k (que es la medida habitual que se asume en los cursos de probabilidad a nivel de cálculo). Sólo los vectores aleatorios cuyas distribuciones son absolutamente continuas con respecto a una medida se dice que tienen densidades (con respecto a esa medida). Para hablar de densidades pero evitar lidiar con complicaciones de teoría de la medida, puede ser más simple restringir la atención a un subconjunto de las coordenadas de tal que la matriz de covarianza para este subconjunto sea definida positiva; entonces las otras coordenadas pueden considerarse como una función afín de estas coordenadas seleccionadas. [9] Σ {\displaystyle {\boldsymbol {\Sigma }}} rank ( Σ ) {\displaystyle \operatorname {rank} ({\boldsymbol {\Sigma }})} x {\displaystyle \mathbf {x} }

Para hablar de densidades de manera significativa en casos singulares, entonces, debemos seleccionar una medida base diferente. Usando el teorema de desintegración podemos definir una restricción de la medida de Lebesgue al subespacio afín de dimensión α de donde se sustenta la distribución gaussiana, es decir . Con respecto a esta medida, la distribución tiene la densidad del siguiente motivo: rank ( Σ ) {\displaystyle \operatorname {rank} ({\boldsymbol {\Sigma }})} R k {\displaystyle \mathbb {R} ^{k}} { μ + Σ 1 / 2 v : v R k } {\displaystyle \left\{{\boldsymbol {\mu }}+{\boldsymbol {\Sigma ^{1/2}}}\mathbf {v} :\mathbf {v} \in \mathbb {R} ^{k}\right\}}

f ( x ) = exp ( 1 2 ( x μ ) T Σ + ( x μ ) ) det ( 2 π Σ ) {\displaystyle f(\mathbf {x} )={\frac {\exp \left(-{\frac {1}{2}}\left(\mathbf {x} -{\boldsymbol {\mu }}\right)^{\mathrm {T} }{\boldsymbol {\Sigma }}^{+}\left(\mathbf {x} -{\boldsymbol {\mu }}\right)\right)}{\sqrt {\det \nolimits ^{*}(2\pi {\boldsymbol {\Sigma }})}}}}

donde es la inversa generalizada y es el pseudodeterminante . [10] Σ + {\displaystyle {\boldsymbol {\Sigma }}^{+}} det {\displaystyle \det \nolimits ^{*}}

Función de distribución acumulativa

La noción de función de distribución acumulativa (cdf) en dimensión 1 se puede extender de dos maneras al caso multidimensional, basado en regiones rectangulares y elipsoidales.

La primera forma es definir la función de distribución de un vector aleatorio como la probabilidad de que todos los componentes sean menores o iguales a los valores correspondientes en el vector : [11] F ( x ) {\displaystyle F(\mathbf {x} )} X {\displaystyle \mathbf {X} } X {\displaystyle \mathbf {X} } x {\displaystyle \mathbf {x} }

F ( x ) = P ( X x ) , where  X N ( μ , Σ ) . {\displaystyle F(\mathbf {x} )=\mathbb {P} (\mathbf {X} \leq \mathbf {x} ),\quad {\text{where }}\mathbf {X} \sim {\mathcal {N}}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }}).}

Aunque no existe una forma cerrada para , hay varios algoritmos que la estiman numéricamente. [11] [12] F ( x ) {\displaystyle F(\mathbf {x} )}

Otra forma es definir la cdf como la probabilidad de que una muestra se encuentre dentro del elipsoide determinado por su distancia de Mahalanobis desde la gaussiana, una generalización directa de la desviación estándar. [13] Para calcular los valores de esta función, existe una fórmula analítica cerrada, [13] como sigue. F ( r ) {\displaystyle F(r)} r {\displaystyle r}

Intervalo

El intervalo para la distribución normal multivariada produce una región que consiste en aquellos vectores x que satisfacen

( x μ ) T Σ 1 ( x μ ) χ k 2 ( p ) . {\displaystyle ({\mathbf {x} }-{\boldsymbol {\mu }})^{\mathrm {T} }{\boldsymbol {\Sigma }}^{-1}({\mathbf {x} }-{\boldsymbol {\mu }})\leq \chi _{k}^{2}(p).}

Aquí hay un vector -dimensional, es el vector medio -dimensional conocido , es la matriz de covarianza conocida y es la función cuantil para la probabilidad de la distribución de chi-cuadrado con grados de libertad. [14] Cuando la expresión define el interior de una elipse y la distribución de chi-cuadrado se simplifica a una distribución exponencial con media igual a dos (tasa igual a la mitad). x {\displaystyle {\mathbf {x} }} k {\displaystyle k} μ {\displaystyle {\boldsymbol {\mu }}} k {\displaystyle k} Σ {\displaystyle {\boldsymbol {\Sigma }}} χ k 2 ( p ) {\displaystyle \chi _{k}^{2}(p)} p {\displaystyle p} k {\displaystyle k} k = 2 , {\displaystyle k=2,}

Función de distribución acumulativa complementaria (distribución de cola)

La función de distribución acumulativa complementaria (ccdf) o distribución de cola se define como . Cuando , entonces la ccdf se puede escribir como una probabilidad máxima de las variables gaussianas dependientes: [15] F ¯ ( x ) = 1 P ( X x ) {\displaystyle {\overline {F}}(\mathbf {x} )=1-\mathbb {P} \left(\mathbf {X} \leq \mathbf {x} \right)} X N ( μ , Σ ) {\displaystyle \mathbf {X} \sim {\mathcal {N}}({\boldsymbol {\mu }},\,{\boldsymbol {\Sigma }})}

F ¯ ( x ) = P ( i { X i x i } ) = P ( max i Y i 0 ) , where  Y N ( μ x , Σ ) . {\displaystyle {\overline {F}}(\mathbf {x} )=\mathbb {P} \left(\bigcup _{i}\{X_{i}\geq x_{i}\}\right)=\mathbb {P} \left(\max _{i}Y_{i}\geq 0\right),\quad {\text{where }}\mathbf {Y} \sim {\mathcal {N}}\left({\boldsymbol {\mu }}-\mathbf {x} ,\,{\boldsymbol {\Sigma }}\right).}

Si bien no existe una fórmula cerrada simple para calcular la ccdf, el máximo de variables gaussianas dependientes se puede estimar con precisión a través del método de Monte Carlo . [15] [16]

Propiedades

Probabilidad en diferentes dominios

Arriba: probabilidad de una normal bivariada en el dominio (regiones azules). En el medio: probabilidad de una normal trivariada en un dominio toroidal. Abajo: integral de Monte Carlo convergente de la probabilidad de una normal de 4 variables en el dominio poliédrico regular 4d definido por . Todas estas se calculan mediante el método numérico de trazado de rayos. [17] x sin y y cos x > 1 {\displaystyle x\sin y-y\cos x>1} i = 1 4 | x i | < 1 {\displaystyle \sum _{i=1}^{4}\vert x_{i}\vert <1}

El contenido de probabilidad de la normal multivariada en un dominio cuadrático definido por (donde es una matriz, es un vector y es un escalar), que es relevante para la teoría de clasificación/decisión bayesiana utilizando el análisis discriminante gaussiano, está dado por la distribución chi-cuadrado generalizada . [17] El contenido de probabilidad dentro de cualquier dominio general definido por (donde es una función general) se puede calcular utilizando el método numérico de trazado de rayos [17] (código Matlab). q ( x ) = x Q 2 x + q 1 x + q 0 > 0 {\displaystyle q({\boldsymbol {x}})={\boldsymbol {x}}'\mathbf {Q_{2}} {\boldsymbol {x}}+{\boldsymbol {q_{1}}}'{\boldsymbol {x}}+q_{0}>0} Q 2 {\displaystyle \mathbf {Q_{2}} } q 1 {\displaystyle {\boldsymbol {q_{1}}}} q 0 {\displaystyle q_{0}} f ( x ) > 0 {\displaystyle f({\boldsymbol {x}})>0} f ( x ) {\displaystyle f({\boldsymbol {x}})}

Momentos más elevados

Los momentos de orden k de x están dados por

μ 1 , , N ( x ) = d e f μ r 1 , , r N ( x ) = d e f E [ j = 1 N X j r j ] {\displaystyle \mu _{1,\ldots ,N}(\mathbf {x} )\mathrel {\stackrel {\mathrm {def} }{=}} \mu _{r_{1},\ldots ,r_{N}}(\mathbf {x} )\mathrel {\stackrel {\mathrm {def} }{=}} \operatorname {E} \left[\prod _{j=1}^{N}X_{j}^{r_{j}}\right]}

donde r 1 + r 2 + ⋯ + r N = k .

Los momentos centrales de orden k son los siguientes

  1. Si k es impar, μ 1, ..., N ( xμ ) = 0 .
  2. Si k es par con k = 2 λ , entonces [ ambiguo ] μ 1 , , 2 λ ( x μ ) = ( σ i j σ k σ X Z ) {\displaystyle \mu _{1,\dots ,2\lambda }(\mathbf {x} -{\boldsymbol {\mu }})=\sum \left(\sigma _{ij}\sigma _{k\ell }\cdots \sigma _{XZ}\right)}

donde la suma se toma sobre todas las asignaciones del conjunto en pares λ (no ordenados). Es decir, para un momento central k (= 2 λ = 6) , se suman los productos de λ = 3 covarianzas (el valor esperado μ se toma como 0 en aras de la parsimonia): { 1 , , 2 λ } {\displaystyle \left\{1,\ldots ,2\lambda \right\}}

E [ X 1 X 2 X 3 X 4 X 5 X 6 ] = E [ X 1 X 2 ] E [ X 3 X 4 ] E [ X 5 X 6 ] + E [ X 1 X 2 ] E [ X 3 X 5 ] E [ X 4 X 6 ] + E [ X 1 X 2 ] E [ X 3 X 6 ] E [ X 4 X 5 ] + E [ X 1 X 3 ] E [ X 2 X 4 ] E [ X 5 X 6 ] + E [ X 1 X 3 ] E [ X 2 X 5 ] E [ X 4 X 6 ] + E [ X 1 X 3 ] E [ X 2 X 6 ] E [ X 4 X 5 ] + E [ X 1 X 4 ] E [ X 2 X 3 ] E [ X 5 X 6 ] + E [ X 1 X 4 ] E [ X 2 X 5 ] E [ X 3 X 6 ] + E [ X 1 X 4 ] E [ X 2 X 6 ] E [ X 3 X 5 ] + E [ X 1 X 5 ] E [ X 2 X 3 ] E [ X 4 X 6 ] + E [ X 1 X 5 ] E [ X 2 X 4 ] E [ X 3 X 6 ] + E [ X 1 X 5 ] E [ X 2 X 6 ] E [ X 3 X 4 ] + E [ X 1 X 6 ] E [ X 2 X 3 ] E [ X 4 X 5 ] + E [ X 1 X 6 ] E [ X 2 X 4 ] E [ X 3 X 5 ] + E [ X 1 X 6 ] E [ X 2 X 5 ] E [ X 3 X 4 ] . {\displaystyle {\begin{aligned}&\operatorname {E} [X_{1}X_{2}X_{3}X_{4}X_{5}X_{6}]\\[8pt]={}&\operatorname {E} [X_{1}X_{2}]\operatorname {E} [X_{3}X_{4}]\operatorname {E} [X_{5}X_{6}]+\operatorname {E} [X_{1}X_{2}]\operatorname {E} [X_{3}X_{5}]\operatorname {E} [X_{4}X_{6}]+\operatorname {E} [X_{1}X_{2}]\operatorname {E} [X_{3}X_{6}]\operatorname {E} [X_{4}X_{5}]\\[4pt]&{}+\operatorname {E} [X_{1}X_{3}]\operatorname {E} [X_{2}X_{4}]\operatorname {E} [X_{5}X_{6}]+\operatorname {E} [X_{1}X_{3}]\operatorname {E} [X_{2}X_{5}]\operatorname {E} [X_{4}X_{6}]+\operatorname {E} [X_{1}X_{3}]\operatorname {E} [X_{2}X_{6}]\operatorname {E} [X_{4}X_{5}]\\[4pt]&{}+\operatorname {E} [X_{1}X_{4}]\operatorname {E} [X_{2}X_{3}]\operatorname {E} [X_{5}X_{6}]+\operatorname {E} [X_{1}X_{4}]\operatorname {E} [X_{2}X_{5}]\operatorname {E} [X_{3}X_{6}]+\operatorname {E} [X_{1}X_{4}]\operatorname {E} [X_{2}X_{6}]\operatorname {E} [X_{3}X_{5}]\\[4pt]&{}+\operatorname {E} [X_{1}X_{5}]\operatorname {E} [X_{2}X_{3}]\operatorname {E} [X_{4}X_{6}]+\operatorname {E} [X_{1}X_{5}]\operatorname {E} [X_{2}X_{4}]\operatorname {E} [X_{3}X_{6}]+\operatorname {E} [X_{1}X_{5}]\operatorname {E} [X_{2}X_{6}]\operatorname {E} [X_{3}X_{4}]\\[4pt]&{}+\operatorname {E} [X_{1}X_{6}]\operatorname {E} [X_{2}X_{3}]\operatorname {E} [X_{4}X_{5}]+\operatorname {E} [X_{1}X_{6}]\operatorname {E} [X_{2}X_{4}]\operatorname {E} [X_{3}X_{5}]+\operatorname {E} [X_{1}X_{6}]\operatorname {E} [X_{2}X_{5}]\operatorname {E} [X_{3}X_{4}].\end{aligned}}}

Esto produce términos en la suma (15 en el caso anterior), cada uno de los cuales es el producto de λ (en este caso 3) covarianzas. Para los momentos de cuarto orden (cuatro variables) hay tres términos. Para los momentos de sexto orden hay 3 × 5 = 15 términos, y para los momentos de octavo orden hay 3 × 5 × 7 = 105 términos. ( 2 λ 1 ) ! 2 λ 1 ( λ 1 ) ! {\displaystyle {\tfrac {(2\lambda -1)!}{2^{\lambda -1}(\lambda -1)!}}}

Las covarianzas se determinan entonces reemplazando los términos de la lista por los términos correspondientes de la lista que consiste en r 1 unos, luego r 2 dos, etc. Para ilustrar esto, examine el siguiente caso de momento central de cuarto orden: [ 1 , , 2 λ ] {\displaystyle [1,\ldots ,2\lambda ]}

E [ X i 4 ] = 3 σ i i 2 E [ X i 3 X j ] = 3 σ i i σ i j E [ X i 2 X j 2 ] = σ i i σ j j + 2 σ i j 2 E [ X i 2 X j X k ] = σ i i σ j k + 2 σ i j σ i k E [ X i X j X k X n ] = σ i j σ k n + σ i k σ j n + σ i n σ j k . {\displaystyle {\begin{aligned}\operatorname {E} \left[X_{i}^{4}\right]&=3\sigma _{ii}^{2}\\[4pt]\operatorname {E} \left[X_{i}^{3}X_{j}\right]&=3\sigma _{ii}\sigma _{ij}\\[4pt]\operatorname {E} \left[X_{i}^{2}X_{j}^{2}\right]&=\sigma _{ii}\sigma _{jj}+2\sigma _{ij}^{2}\\[4pt]\operatorname {E} \left[X_{i}^{2}X_{j}X_{k}\right]&=\sigma _{ii}\sigma _{jk}+2\sigma _{ij}\sigma _{ik}\\[4pt]\operatorname {E} \left[X_{i}X_{j}X_{k}X_{n}\right]&=\sigma _{ij}\sigma _{kn}+\sigma _{ik}\sigma _{jn}+\sigma _{in}\sigma _{jk}.\end{aligned}}}

donde es la covarianza de X i y X j . Con el método anterior, primero se encuentra el caso general para un k- ésimo momento con k variables X diferentes , , y luego se simplifica en consecuencia. Por ejemplo, para , se deja X i = X j y se usa el hecho de que . σ i j {\displaystyle \sigma _{ij}} E [ X i X j X k X n ] {\displaystyle E\left[X_{i}X_{j}X_{k}X_{n}\right]} E [ X i 2 X k X n ] {\displaystyle \operatorname {E} [X_{i}^{2}X_{k}X_{n}]} σ i i = σ i 2 {\displaystyle \sigma _{ii}=\sigma _{i}^{2}}

Funciones de un vector normal

a: Densidad de probabilidad de una función de una única variable normal con y . b: Densidad de probabilidad de una función de un vector normal , con media , y covarianza . c: Mapa de calor de la densidad de probabilidad conjunta de dos funciones de un vector normal , con media , y covarianza . d: Densidad de probabilidad de una función de 4 variables normales estándar iid. Estas se calculan mediante el método numérico de trazado de rayos. [17] cos x 2 {\displaystyle \cos x^{2}} x {\displaystyle x} μ = 2 {\displaystyle \mu =-2} σ = 3 {\displaystyle \sigma =3} x y {\displaystyle x^{y}} ( x , y ) {\displaystyle (x,y)} μ = ( 1 , 2 ) {\displaystyle {\boldsymbol {\mu }}=(1,2)} Σ = [ .01 .016 .016 .04 ] {\displaystyle \mathbf {\Sigma } ={\begin{bmatrix}.01&.016\\.016&.04\end{bmatrix}}} ( x , y ) {\displaystyle (x,y)} μ = ( 2 , 5 ) {\displaystyle {\boldsymbol {\mu }}=(-2,5)} Σ = [ 10 7 7 10 ] {\displaystyle \mathbf {\Sigma } ={\begin{bmatrix}10&-7\\-7&10\end{bmatrix}}} i = 1 4 | x i | {\displaystyle \sum _{i=1}^{4}\vert x_{i}\vert }

Una forma cuadrática de un vector normal , (donde es una matriz, es un vector y es un escalar), es una variable chi-cuadrado generalizada . [17] La ​​dirección de un vector normal sigue una distribución normal proyectada . [18] x {\displaystyle {\boldsymbol {x}}} q ( x ) = x Q 2 x + q 1 x + q 0 {\displaystyle q({\boldsymbol {x}})={\boldsymbol {x}}'\mathbf {Q_{2}} {\boldsymbol {x}}+{\boldsymbol {q_{1}}}'{\boldsymbol {x}}+q_{0}} Q 2 {\displaystyle \mathbf {Q_{2}} } q 1 {\displaystyle {\boldsymbol {q_{1}}}} q 0 {\displaystyle q_{0}}

Si es una función escalar general de un vector normal, su función de densidad de probabilidad , su función de distribución acumulativa y su función de distribución acumulativa inversa se pueden calcular con el método numérico de trazado de rayos (código Matlab). [17] f ( x ) {\displaystyle f({\boldsymbol {x}})}

Función de verosimilitud

Si se conocen la media y la matriz de covarianza, la probabilidad logarítmica de un vector observado es simplemente el logaritmo de la función de densidad de probabilidad : x {\displaystyle {\boldsymbol {x}}}

ln L ( x ) = 1 2 [ ln ( | Σ | ) + ( x μ ) Σ 1 ( x μ ) + k ln ( 2 π ) ] {\displaystyle \ln L({\boldsymbol {x}})=-{\frac {1}{2}}\left[\ln(|{\boldsymbol {\Sigma }}|\,)+({\boldsymbol {x}}-{\boldsymbol {\mu }})'{\boldsymbol {\Sigma }}^{-1}({\boldsymbol {x}}-{\boldsymbol {\mu }})+k\ln(2\pi )\right]} ,

La versión circularmente simétrica del caso complejo no central, donde es un vector de números complejos, sería z {\displaystyle {\boldsymbol {z}}}

ln L ( z ) = ln ( | Σ | ) ( z μ ) Σ 1 ( z μ ) k ln ( π ) {\displaystyle \ln L({\boldsymbol {z}})=-\ln(|{\boldsymbol {\Sigma }}|\,)-({\boldsymbol {z}}-{\boldsymbol {\mu }})^{\dagger }{\boldsymbol {\Sigma }}^{-1}({\boldsymbol {z}}-{\boldsymbol {\mu }})-k\ln(\pi )}

es decir, con la transpuesta conjugada (indicada por ) reemplazando a la transpuesta normal (indicada por ). Esto es ligeramente diferente que en el caso real, porque la versión circularmente simétrica de la distribución normal compleja tiene una forma ligeramente diferente para la constante de normalización . {\displaystyle \dagger } {\displaystyle '}

Se utiliza una notación similar para la regresión lineal múltiple . [19]

Dado que la verosimilitud logarítmica de un vector normal es una forma cuadrática del vector normal, se distribuye como una variable chi-cuadrado generalizada . [17]

Entropía diferencial

La entropía diferencial de la distribución normal multivariada es [20]

h ( f ) = f ( x ) ln f ( x ) d x = 1 2 ln | 2 π e Σ | = k 2 + k 2 ln 2 π + 1 2 ln | Σ | {\displaystyle {\begin{aligned}h\left(f\right)&=-\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }f(\mathbf {x} )\ln f(\mathbf {x} )\,d\mathbf {x} \\&={\frac {1}{2}}\ln {}\left|2\pi e{\boldsymbol {\Sigma }}\right|={\frac {k}{2}}+{\frac {k}{2}}\ln {}2\pi +{\frac {1}{2}}\ln {}\left|{\boldsymbol {\Sigma }}\right|\\\end{aligned}}} ,

donde las barras denotan el determinante de la matriz , k es la dimensionalidad del espacio vectorial y el resultado tiene unidades de nats .

Divergencia de Kullback-Leibler

La divergencia de Kullback–Leibler de a , para matrices no singulares Σ 1 y Σ 0 , es: [21] N 1 ( μ 1 , Σ 1 ) {\displaystyle {\mathcal {N}}_{1}({\boldsymbol {\mu }}_{1},{\boldsymbol {\Sigma }}_{1})} N 0 ( μ 0 , Σ 0 ) {\displaystyle {\mathcal {N}}_{0}({\boldsymbol {\mu }}_{0},{\boldsymbol {\Sigma }}_{0})}

D KL ( N 0 N 1 ) = 1 2 { tr ( Σ 1 1 Σ 0 ) + ( μ 1 μ 0 ) T Σ 1 1 ( μ 1 μ 0 ) k + ln | Σ 1 | | Σ 0 | } , {\displaystyle D_{\text{KL}}({\mathcal {N}}_{0}\parallel {\mathcal {N}}_{1})={1 \over 2}\left\{\operatorname {tr} \left({\boldsymbol {\Sigma }}_{1}^{-1}{\boldsymbol {\Sigma }}_{0}\right)+\left({\boldsymbol {\mu }}_{1}-{\boldsymbol {\mu }}_{0}\right)^{\rm {T}}{\boldsymbol {\Sigma }}_{1}^{-1}({\boldsymbol {\mu }}_{1}-{\boldsymbol {\mu }}_{0})-k+\ln {|{\boldsymbol {\Sigma }}_{1}| \over |{\boldsymbol {\Sigma }}_{0}|}\right\},}

donde denota el determinante de la matriz , es la traza , es el logaritmo natural y es la dimensión del espacio vectorial. | | {\displaystyle |\cdot |} t r ( ) {\displaystyle tr(\cdot )} l n ( ) {\displaystyle ln(\cdot )} k {\displaystyle k}

El logaritmo debe tomarse en base e, ya que los dos términos que siguen al logaritmo son en sí mismos logaritmos en base e de expresiones que son factores de la función de densidad o surgen de manera natural. Por lo tanto, la ecuación da un resultado medido en nats . Dividiendo toda la expresión anterior por log e  2 se obtiene la divergencia en bits .

Cuando , μ 1 = μ 0 {\displaystyle {\boldsymbol {\mu }}_{1}={\boldsymbol {\mu }}_{0}}

D KL ( N 0 N 1 ) = 1 2 { tr ( Σ 1 1 Σ 0 ) k + ln | Σ 1 | | Σ 0 | } . {\displaystyle D_{\text{KL}}({\mathcal {N}}_{0}\parallel {\mathcal {N}}_{1})={1 \over 2}\left\{\operatorname {tr} \left({\boldsymbol {\Sigma }}_{1}^{-1}{\boldsymbol {\Sigma }}_{0}\right)-k+\ln {|{\boldsymbol {\Sigma }}_{1}| \over |{\boldsymbol {\Sigma }}_{0}|}\right\}.}

Información mutua

La información mutua de una distribución es un caso especial de la divergencia de Kullback-Leibler en la que es la distribución multivariante completa y es el producto de las distribuciones marginales unidimensionales. En la notación de la sección de divergencia de Kullback-Leibler de este artículo, es una matriz diagonal con las entradas diagonales de , y . La fórmula resultante para la información mutua es: P {\displaystyle P} Q {\displaystyle Q} Σ 1 {\displaystyle {\boldsymbol {\Sigma }}_{1}} Σ 0 {\displaystyle {\boldsymbol {\Sigma }}_{0}} μ 1 = μ 0 {\displaystyle {\boldsymbol {\mu }}_{1}={\boldsymbol {\mu }}_{0}}

I ( X ) = 1 2 ln | ρ 0 | , {\displaystyle I({\boldsymbol {X}})=-{1 \over 2}\ln |{\boldsymbol {\rho }}_{0}|,}

donde es la matriz de correlación construida a partir de . [22] ρ 0 {\displaystyle {\boldsymbol {\rho }}_{0}} Σ 0 {\displaystyle {\boldsymbol {\Sigma }}_{0}}

En el caso bivariado la expresión para la información mutua es:

I ( x ; y ) = 1 2 ln ( 1 ρ 2 ) . {\displaystyle I(x;y)=-{1 \over 2}\ln(1-\rho ^{2}).}

Normalidad articular

Distribuida normalmente e independiente

Si y se distribuyen normalmente y son independientes , esto implica que están "distribuidas normalmente de manera conjunta", es decir, el par debe tener una distribución normal multivariante. Sin embargo, un par de variables distribuidas normalmente de manera conjunta no necesita ser independiente (solo lo sería si no estuviera correlacionada, ). X {\displaystyle X} Y {\displaystyle Y} ( X , Y ) {\displaystyle (X,Y)} ρ = 0 {\displaystyle \rho =0}

Dos variables aleatorias distribuidas normalmente no necesitan ser conjuntamente normales bivariadas

El hecho de que dos variables aleatorias tengan una distribución normal no implica que el par tenga una distribución normal conjunta. Un ejemplo sencillo es aquel en el que X tiene una distribución normal con un valor esperado de 0 y una varianza de 1, y si y si , donde . Existen contraejemplos similares para más de dos variables aleatorias. En general, suman un modelo mixto . [ cita requerida ] X {\displaystyle X} Y {\displaystyle Y} ( X , Y ) {\displaystyle (X,Y)} Y = X {\displaystyle Y=X} | X | > c {\displaystyle |X|>c} Y = X {\displaystyle Y=-X} | X | < c {\displaystyle |X|<c} c > 0 {\displaystyle c>0}

Correlaciones e independencia

En general, las variables aleatorias pueden no estar correlacionadas pero ser estadísticamente dependientes. Pero si un vector aleatorio tiene una distribución normal multivariante, entonces dos o más de sus componentes que no están correlacionados son independientes . Esto implica que dos o más de sus componentes que son independientes por pares son independientes. Pero, como se señaló anteriormente, no es cierto que dos variables aleatorias que están ( por separado , marginalmente) distribuidas normalmente y no correlacionadas sean independientes.

Distribuciones condicionales

Si x N -dimensional se particiona de la siguiente manera

x = [ x 1 x 2 ]  with sizes  [ q × 1 ( N q ) × 1 ] {\displaystyle \mathbf {x} ={\begin{bmatrix}\mathbf {x} _{1}\\\mathbf {x} _{2}\end{bmatrix}}{\text{ with sizes }}{\begin{bmatrix}q\times 1\\(N-q)\times 1\end{bmatrix}}}

y en consecuencia μ y Σ se dividen de la siguiente manera

μ = [ μ 1 μ 2 ]  with sizes  [ q × 1 ( N q ) × 1 ] {\displaystyle {\boldsymbol {\mu }}={\begin{bmatrix}{\boldsymbol {\mu }}_{1}\\{\boldsymbol {\mu }}_{2}\end{bmatrix}}{\text{ with sizes }}{\begin{bmatrix}q\times 1\\(N-q)\times 1\end{bmatrix}}}
Σ = [ Σ 11 Σ 12 Σ 21 Σ 22 ]  with sizes  [ q × q q × ( N q ) ( N q ) × q ( N q ) × ( N q ) ] {\displaystyle {\boldsymbol {\Sigma }}={\begin{bmatrix}{\boldsymbol {\Sigma }}_{11}&{\boldsymbol {\Sigma }}_{12}\\{\boldsymbol {\Sigma }}_{21}&{\boldsymbol {\Sigma }}_{22}\end{bmatrix}}{\text{ with sizes }}{\begin{bmatrix}q\times q&q\times (N-q)\\(N-q)\times q&(N-q)\times (N-q)\end{bmatrix}}}

entonces la distribución de x 1 condicional a x 2 = a es normal multivariada [23] ( x 1  |  x 2 = a ) ~ N ( μ , Σ ) donde

μ ¯ = μ 1 + Σ 12 Σ 22 1 ( a μ 2 ) {\displaystyle {\bar {\boldsymbol {\mu }}}={\boldsymbol {\mu }}_{1}+{\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}\left(\mathbf {a} -{\boldsymbol {\mu }}_{2}\right)}

y matriz de covarianza

Σ ¯ = Σ 11 Σ 12 Σ 22 1 Σ 21 . {\displaystyle {\overline {\boldsymbol {\Sigma }}}={\boldsymbol {\Sigma }}_{11}-{\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}{\boldsymbol {\Sigma }}_{21}.} [24]

Aquí está la inversa generalizada de . La matriz es el complemento de Schur de Σ 22 en Σ . Es decir, la ecuación anterior es equivalente a invertir la matriz de covarianza general, eliminar las filas y columnas correspondientes a las variables que se condicionan y volver a invertir para obtener la matriz de covarianza condicional. Σ 22 1 {\displaystyle {\boldsymbol {\Sigma }}_{22}^{-1}} Σ 22 {\displaystyle {\boldsymbol {\Sigma }}_{22}} Σ ¯ {\displaystyle {\overline {\boldsymbol {\Sigma }}}}

Nótese que saber que x 2 = a altera la varianza, aunque la nueva varianza no depende del valor específico de a ; quizás más sorprendente aún, la media se desplaza en ; compare esto con la situación de no conocer el valor de a , en cuyo caso x 1 tendría una distribución . Σ 12 Σ 22 1 ( a μ 2 ) {\displaystyle {\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}\left(\mathbf {a} -{\boldsymbol {\mu }}_{2}\right)} N q ( μ 1 , Σ 11 ) {\displaystyle {\mathcal {N}}_{q}\left({\boldsymbol {\mu }}_{1},{\boldsymbol {\Sigma }}_{11}\right)}

Un hecho interesante derivado para probar este resultado es que los vectores aleatorios y son independientes. x 2 {\displaystyle \mathbf {x} _{2}} y 1 = x 1 Σ 12 Σ 22 1 x 2 {\displaystyle \mathbf {y} _{1}=\mathbf {x} _{1}-{\boldsymbol {\Sigma }}_{12}{\boldsymbol {\Sigma }}_{22}^{-1}\mathbf {x} _{2}}

La matriz Σ 12 Σ 22 −1 se conoce como la matriz de coeficientes de regresión .

Caso bivariado

En el caso bivariado donde x se divide en y , la distribución condicional de dado es [25] X 1 {\displaystyle X_{1}} X 2 {\displaystyle X_{2}} X 1 {\displaystyle X_{1}} X 2 {\displaystyle X_{2}}

X 1 X 2 = a     N ( μ 1 + σ 1 σ 2 ρ ( a μ 2 ) , ( 1 ρ 2 ) σ 1 2 ) {\displaystyle X_{1}\mid X_{2}=a\ \sim \ {\mathcal {N}}\left(\mu _{1}+{\frac {\sigma _{1}}{\sigma _{2}}}\rho (a-\mu _{2}),\,(1-\rho ^{2})\sigma _{1}^{2}\right)}

¿Dónde está el coeficiente de correlación entre y ? ρ {\displaystyle \rho } X 1 {\displaystyle X_{1}} X 2 {\displaystyle X_{2}}

Esperanza condicional bivariada

En el caso general
( X 1 X 2 ) N ( ( μ 1 μ 2 ) , ( σ 1 2 ρ σ 1 σ 2 ρ σ 1 σ 2 σ 2 2 ) ) {\displaystyle {\begin{pmatrix}X_{1}\\X_{2}\end{pmatrix}}\sim {\mathcal {N}}\left({\begin{pmatrix}\mu _{1}\\\mu _{2}\end{pmatrix}},{\begin{pmatrix}\sigma _{1}^{2}&\rho \sigma _{1}\sigma _{2}\\\rho \sigma _{1}\sigma _{2}&\sigma _{2}^{2}\end{pmatrix}}\right)}

La esperanza condicional de X 1 dado X 2 es:

E ( X 1 X 2 = x 2 ) = μ 1 + ρ σ 1 σ 2 ( x 2 μ 2 ) {\displaystyle \operatorname {E} (X_{1}\mid X_{2}=x_{2})=\mu _{1}+\rho {\frac {\sigma _{1}}{\sigma _{2}}}(x_{2}-\mu _{2})}

Demostración: el resultado se obtiene tomando la esperanza de la distribución condicional anterior. X 1 X 2 {\displaystyle X_{1}\mid X_{2}}

En el caso centrado con variaciones unitarias
( X 1 X 2 ) N ( ( 0 0 ) , ( 1 ρ ρ 1 ) ) {\displaystyle {\begin{pmatrix}X_{1}\\X_{2}\end{pmatrix}}\sim {\mathcal {N}}\left({\begin{pmatrix}0\\0\end{pmatrix}},{\begin{pmatrix}1&\rho \\\rho &1\end{pmatrix}}\right)}

La esperanza condicional de X 1 dado X 2 es

E ( X 1 X 2 = x 2 ) = ρ x 2 {\displaystyle \operatorname {E} (X_{1}\mid X_{2}=x_{2})=\rho x_{2}}

y la varianza condicional es

var ( X 1 X 2 = x 2 ) = 1 ρ 2 ; {\displaystyle \operatorname {var} (X_{1}\mid X_{2}=x_{2})=1-\rho ^{2};}

Por lo tanto, la varianza condicional no depende de x 2 .

La expectativa condicional de X 1 dado que X 2 es menor/mayor que z es: [26] : 367 

E ( X 1 X 2 < z ) = ρ φ ( z ) Φ ( z ) , {\displaystyle \operatorname {E} (X_{1}\mid X_{2}<z)=-\rho {\varphi (z) \over \Phi (z)},}
E ( X 1 X 2 > z ) = ρ φ ( z ) ( 1 Φ ( z ) ) , {\displaystyle \operatorname {E} (X_{1}\mid X_{2}>z)=\rho {\varphi (z) \over (1-\Phi (z))},}

donde la relación final aquí se llama relación de Mills inversa .

Demostración: los dos últimos resultados se obtienen utilizando el resultado , de modo que E ( X 1 X 2 = x 2 ) = ρ x 2 {\displaystyle \operatorname {E} (X_{1}\mid X_{2}=x_{2})=\rho x_{2}}

E ( X 1 X 2 < z ) = ρ E ( X 2 X 2 < z ) {\displaystyle \operatorname {E} (X_{1}\mid X_{2}<z)=\rho E(X_{2}\mid X_{2}<z)} y luego utilizando las propiedades de la expectativa de una distribución normal truncada .

Distribuciones marginales

Para obtener la distribución marginal sobre un subconjunto de variables aleatorias normales multivariadas, sólo es necesario eliminar las variables irrelevantes (las variables que se quieren marginar) del vector de medias y de la matriz de covarianza. La prueba de esto se desprende de las definiciones de distribuciones normales multivariadas y del álgebra lineal. [27]

Ejemplo

Sean X = [ X 1 , X 2 , X 3 ] variables aleatorias normales multivariadas con vector medio μ = [ μ 1 , μ 2 , μ 3 ] y matriz de covarianza Σ (parametrización estándar para distribuciones normales multivariadas). Entonces la distribución conjunta de X = [ X 1 , X 3 ] es normal multivariada con vector medio μ = [ μ 1 , μ 3 ] y matriz de covarianza . Σ = [ Σ 11 Σ 13 Σ 31 Σ 33 ] {\displaystyle {\boldsymbol {\Sigma }}'={\begin{bmatrix}{\boldsymbol {\Sigma }}_{11}&{\boldsymbol {\Sigma }}_{13}\\{\boldsymbol {\Sigma }}_{31}&{\boldsymbol {\Sigma }}_{33}\end{bmatrix}}}

Transformación afín

Si Y = c + BX es una transformación afín de donde c es un vector de constantes y B es una matriz constante , entonces Y tiene una distribución normal multivariada con valor esperado c + y varianza BΣB T es decir, . En particular, cualquier subconjunto de X i tiene una distribución marginal que también es normal multivariada. Para ver esto, considere el siguiente ejemplo: para extraer el subconjunto ( X 1 , X 2 , X 4 ) T , use X   N ( μ , Σ ) , {\displaystyle \mathbf {X} \ \sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }}),} M × 1 {\displaystyle M\times 1} M × N {\displaystyle M\times N} Y N ( c + B μ , B Σ B T ) {\displaystyle \mathbf {Y} \sim {\mathcal {N}}\left(\mathbf {c} +\mathbf {B} {\boldsymbol {\mu }},\mathbf {B} {\boldsymbol {\Sigma }}\mathbf {B} ^{\rm {T}}\right)}

B = [ 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 ] {\displaystyle \mathbf {B} ={\begin{bmatrix}1&0&0&0&0&\ldots &0\\0&1&0&0&0&\ldots &0\\0&0&0&1&0&\ldots &0\end{bmatrix}}}

que extrae directamente los elementos deseados.

Otro corolario es que la distribución de Z = b · X , donde b es un vector constante con el mismo número de elementos que X y el punto indica el producto escalar , es gaussiana univariante con . Este resultado se deduce utilizando Z N ( b μ , b T Σ b ) {\displaystyle Z\sim {\mathcal {N}}\left(\mathbf {b} \cdot {\boldsymbol {\mu }},\mathbf {b} ^{\rm {T}}{\boldsymbol {\Sigma }}\mathbf {b} \right)}

B = [ b 1 b 2 b n ] = b T . {\displaystyle \mathbf {B} ={\begin{bmatrix}b_{1}&b_{2}&\ldots &b_{n}\end{bmatrix}}=\mathbf {b} ^{\rm {T}}.}

Observe cómo la definición positiva de Σ implica que la varianza del producto escalar debe ser positiva.

Una transformación afín de X como 2 X no es lo mismo que la suma de dos realizaciones independientes de X.

Interpretación geométrica

Los contornos de equidensidad de una distribución normal multivariada no singular son elipsoides (es decir, transformaciones afines de hiperesferas ) centrados en la media. [28] Por lo tanto, la distribución normal multivariada es un ejemplo de la clase de distribuciones elípticas . Las direcciones de los ejes principales de los elipsoides están dadas por los vectores propios de la matriz de covarianza . Las longitudes relativas al cuadrado de los ejes principales están dadas por los valores propios correspondientes. Σ {\displaystyle {\boldsymbol {\Sigma }}}

Si Σ = UΛU T = 1/2 ( 1/2 ) T es una descomposición propia donde las columnas de U son vectores propios unitarios y Λ es una matriz diagonal de los valores propios, entonces tenemos

X   N ( μ , Σ ) X   μ + U Λ 1 / 2 N ( 0 , I ) X   μ + U N ( 0 , Λ ) . {\displaystyle \mathbf {X} \ \sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})\iff \mathbf {X} \ \sim {\boldsymbol {\mu }}+\mathbf {U} {\boldsymbol {\Lambda }}^{1/2}{\mathcal {N}}(0,\mathbf {I} )\iff \mathbf {X} \ \sim {\boldsymbol {\mu }}+\mathbf {U} {\mathcal {N}}(0,{\boldsymbol {\Lambda }}).}

Además, U puede elegirse como una matriz de rotación , ya que invertir un eje no tiene ningún efecto sobre N (0, Λ ), pero invertir una columna cambia el signo del determinante de U. La distribución N ( μ , Σ ) es en efecto N (0, I ) escalada por Λ 1/2 , rotada por U y trasladada por μ .

Por el contrario, cualquier elección de μ , matriz de rango completo U y entradas diagonales positivas Λ i produce una distribución normal multivariante no singular. Si cualquier Λ i es cero y U es cuadrado, la matriz de covarianza resultante UΛU T es singular . Geométricamente, esto significa que cada elipsoide de contorno es infinitamente delgado y tiene volumen cero en el espacio n -dimensional, ya que al menos uno de los ejes principales tiene una longitud de cero; este es el caso degenerado .

"El radio alrededor de la media verdadera en una variable aleatoria normal bivariada, reescrita en coordenadas polares (radio y ángulo), sigue una distribución de Hoyt ". [29]

En una dimensión, la probabilidad de encontrar una muestra de la distribución normal en el intervalo es aproximadamente 68,27%, pero en dimensiones superiores la probabilidad de encontrar una muestra en la región de la elipse de desviación estándar es menor. [30] μ ± σ {\displaystyle \mu \pm \sigma }

DimensionalidadProbabilidad
10,6827
20,3935
30,1987
40.0902
50,0374
60,0144
70,0052
80,0018
90,0006
100,0002

Inferencia estadística

Estimación de parámetros

La derivación del estimador de máxima verosimilitud de la matriz de covarianza de una distribución normal multivariada es sencilla.

En resumen, la función de densidad de probabilidad (pdf) de una normal multivariada es

f ( x ) = 1 ( 2 π ) k | Σ | exp ( 1 2 ( x μ ) T Σ 1 ( x μ ) ) {\displaystyle f(\mathbf {x} )={\frac {1}{\sqrt {(2\pi )^{k}|{\boldsymbol {\Sigma }}|}}}\exp \left(-{1 \over 2}(\mathbf {x} -{\boldsymbol {\mu }})^{\rm {T}}{\boldsymbol {\Sigma }}^{-1}({\mathbf {x} }-{\boldsymbol {\mu }})\right)}

y el estimador ML de la matriz de covarianza de una muestra de n observaciones es [31]

Σ ^ = 1 n i = 1 n ( x i x ¯ ) ( x i x ¯ ) T {\displaystyle {\widehat {\boldsymbol {\Sigma }}}={1 \over n}\sum _{i=1}^{n}({\mathbf {x} }_{i}-{\overline {\mathbf {x} }})({\mathbf {x} }_{i}-{\overline {\mathbf {x} }})^{\mathrm {T} }}

que es simplemente la matriz de covarianza de la muestra . Este es un estimador sesgado cuya expectativa es

E [ Σ ^ ] = n 1 n Σ . {\displaystyle E\left[{\widehat {\boldsymbol {\Sigma }}}\right]={\frac {n-1}{n}}{\boldsymbol {\Sigma }}.}

Una covarianza de muestra imparcial es

Σ ^ = 1 n 1 i = 1 n ( x i x ¯ ) ( x i x ¯ ) T = 1 n 1 [ X ( I 1 n J ) X ] {\displaystyle {\widehat {\boldsymbol {\Sigma }}}={\frac {1}{n-1}}\sum _{i=1}^{n}(\mathbf {x} _{i}-{\overline {\mathbf {x} }})(\mathbf {x} _{i}-{\overline {\mathbf {x} }})^{\rm {T}}={\frac {1}{n-1}}\left[X'\left(I-{\frac {1}{n}}\cdot J\right)X\right]} (forma matricial; es la matriz identidad, J es una matriz de unos; el término entre paréntesis es por tanto la matriz de centrado) I {\displaystyle I} K × K {\displaystyle K\times K} K × K {\displaystyle K\times K} K × K {\displaystyle K\times K}

La matriz de información de Fisher para estimar los parámetros de una distribución normal multivariante tiene una expresión en forma cerrada. Esta se puede utilizar, por ejemplo, para calcular el límite de Cramér-Rao para la estimación de parámetros en este contexto. Consulte la información de Fisher para obtener más detalles.

Inferencia bayesiana

En estadística bayesiana , la distribución conjugada a priori del vector de media es otra distribución normal multivariante, y la distribución conjugada a priori de la matriz de covarianza es una distribución Wishart inversa . Supongamos entonces que se han realizado n observaciones. W 1 {\displaystyle {\mathcal {W}}^{-1}}

X = { x 1 , , x n } N ( μ , Σ ) {\displaystyle \mathbf {X} =\{\mathbf {x} _{1},\dots ,\mathbf {x} _{n}\}\sim {\mathcal {N}}({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})}

y que se ha asignado un conjugado anterior, donde

p ( μ , Σ ) = p ( μ Σ )   p ( Σ ) , {\displaystyle p({\boldsymbol {\mu }},{\boldsymbol {\Sigma }})=p({\boldsymbol {\mu }}\mid {\boldsymbol {\Sigma }})\ p({\boldsymbol {\Sigma }}),}

dónde

p ( μ Σ ) N ( μ 0 , m 1 Σ ) , {\displaystyle p({\boldsymbol {\mu }}\mid {\boldsymbol {\Sigma }})\sim {\mathcal {N}}({\boldsymbol {\mu }}_{0},m^{-1}{\boldsymbol {\Sigma }}),}

y

p ( Σ ) W 1 ( Ψ , n 0 ) . {\displaystyle p({\boldsymbol {\Sigma }})\sim {\mathcal {W}}^{-1}({\boldsymbol {\Psi }},n_{0}).}

Entonces [31]

p ( μ Σ , X ) N ( n x ¯ + m μ 0 n + m , 1 n + m Σ ) , p ( Σ X ) W 1 ( Ψ + n S + n m n + m ( x ¯ μ 0 ) ( x ¯ μ 0 ) , n + n 0 ) , {\displaystyle {\begin{array}{rcl}p({\boldsymbol {\mu }}\mid {\boldsymbol {\Sigma }},\mathbf {X} )&\sim &{\mathcal {N}}\left({\frac {n{\bar {\mathbf {x} }}+m{\boldsymbol {\mu }}_{0}}{n+m}},{\frac {1}{n+m}}{\boldsymbol {\Sigma }}\right),\\p({\boldsymbol {\Sigma }}\mid \mathbf {X} )&\sim &{\mathcal {W}}^{-1}\left({\boldsymbol {\Psi }}+n\mathbf {S} +{\frac {nm}{n+m}}({\bar {\mathbf {x} }}-{\boldsymbol {\mu }}_{0})({\bar {\mathbf {x} }}-{\boldsymbol {\mu }}_{0})',n+n_{0}\right),\end{array}}}

dónde

x ¯ = 1 n i = 1 n x i , S = 1 n i = 1 n ( x i x ¯ ) ( x i x ¯ ) . {\displaystyle {\begin{aligned}{\bar {\mathbf {x} }}&={\frac {1}{n}}\sum _{i=1}^{n}\mathbf {x} _{i},\\\mathbf {S} &={\frac {1}{n}}\sum _{i=1}^{n}(\mathbf {x} _{i}-{\bar {\mathbf {x} }})(\mathbf {x} _{i}-{\bar {\mathbf {x} }})'.\end{aligned}}}

Pruebas de normalidad multivariante

Las pruebas de normalidad multivariante comprueban la similitud de un conjunto de datos con la distribución normal multivariante . La hipótesis nula es que el conjunto de datos es similar a la distribución normal, por lo tanto, un valor p suficientemente pequeño indica datos no normales. Las pruebas de normalidad multivariante incluyen la prueba de Cox-Small [32] y la adaptación de Smith y Jain [33] de la prueba de Friedman-Rafsky creada por Larry Rafsky y Jerome Friedman . [34]

La prueba de Mardia [35] se basa en extensiones multivariadas de medidas de asimetría y curtosis . Para una muestra { x 1 , ..., x n } de vectores k -dimensionales calculamos

Σ ^ = 1 n j = 1 n ( x j x ¯ ) ( x j x ¯ ) T A = 1 6 n i = 1 n j = 1 n [ ( x i x ¯ ) T Σ ^ 1 ( x j x ¯ ) ] 3 B = n 8 k ( k + 2 ) { 1 n i = 1 n [ ( x i x ¯ ) T Σ ^ 1 ( x i x ¯ ) ] 2 k ( k + 2 ) } {\displaystyle {\begin{aligned}&{\widehat {\boldsymbol {\Sigma }}}={1 \over n}\sum _{j=1}^{n}\left(\mathbf {x} _{j}-{\bar {\mathbf {x} }}\right)\left(\mathbf {x} _{j}-{\bar {\mathbf {x} }}\right)^{\mathrm {T} }\\&A={1 \over 6n}\sum _{i=1}^{n}\sum _{j=1}^{n}\left[(\mathbf {x} _{i}-{\bar {\mathbf {x} }})^{\mathrm {T} }\;{\widehat {\boldsymbol {\Sigma }}}^{-1}(\mathbf {x} _{j}-{\bar {\mathbf {x} }})\right]^{3}\\&B={\sqrt {\frac {n}{8k(k+2)}}}\left\{{1 \over n}\sum _{i=1}^{n}\left[(\mathbf {x} _{i}-{\bar {\mathbf {x} }})^{\mathrm {T} }\;{\widehat {\boldsymbol {\Sigma }}}^{-1}(\mathbf {x} _{i}-{\bar {\mathbf {x} }})\right]^{2}-k(k+2)\right\}\end{aligned}}}

Bajo la hipótesis nula de normalidad multivariada, el estadístico A tendrá aproximadamente una distribución de chi-cuadrado con 1/6k ( k + 1)( k + 2) grados de libertad, y B será aproximadamente la normal estándar N (0,1).

La estadística de curtosis de Mardia está sesgada y converge muy lentamente a la distribución normal límite. Para muestras de tamaño medio , se modifican los parámetros de la distribución asintótica de la estadística de curtosis [36] . Para pruebas de muestras pequeñas ( ) se utilizan valores críticos empíricos. Rencher [37] proporciona tablas de valores críticos para ambas estadísticas para k  = 2, 3, 4. ( 50 n < 400 ) {\displaystyle (50\leq n<400)} n < 50 {\displaystyle n<50}

Las pruebas de Mardia son invariantes afines pero no consistentes. Por ejemplo, la prueba de asimetría multivariante no es consistente frente a alternativas no normales simétricas. [38]

La prueba BHEP [39] calcula la norma de la diferencia entre la función característica empírica y la función característica teórica de la distribución normal. El cálculo de la norma se realiza en el espacio L 2 ( μ ) de funciones integrables al cuadrado con respecto a la función de ponderación gaussiana . La estadística de prueba es μ β ( t ) = ( 2 π β 2 ) k / 2 e | t | 2 / ( 2 β 2 ) {\displaystyle \mu _{\beta }(\mathbf {t} )=(2\pi \beta ^{2})^{-k/2}e^{-|\mathbf {t} |^{2}/(2\beta ^{2})}}

T β = R k | 1 n j = 1 n e i t T Σ ^ 1 / 2 ( x j x ) ¯ e | t | 2 / 2 | 2 μ β ( t ) d t = 1 n 2 i , j = 1 n e β 2 2 ( x i x j ) T Σ ^ 1 ( x i x j ) 2 n ( 1 + β 2 ) k / 2 i = 1 n e β 2 2 ( 1 + β 2 ) ( x i x ¯ ) T Σ ^ 1 ( x i x ¯ ) + 1 ( 1 + 2 β 2 ) k / 2 {\displaystyle {\begin{aligned}T_{\beta }&=\int _{\mathbb {R} ^{k}}\left|{1 \over n}\sum _{j=1}^{n}e^{i\mathbf {t} ^{\mathrm {T} }{\widehat {\boldsymbol {\Sigma }}}^{-1/2}(\mathbf {x} _{j}-{\bar {\mathbf {x} )}}}-e^{-|\mathbf {t} |^{2}/2}\right|^{2}\;{\boldsymbol {\mu }}_{\beta }(\mathbf {t} )\,d\mathbf {t} \\&={1 \over n^{2}}\sum _{i,j=1}^{n}e^{-{\beta ^{2} \over 2}(\mathbf {x} _{i}-\mathbf {x} _{j})^{\mathrm {T} }{\widehat {\boldsymbol {\Sigma }}}^{-1}(\mathbf {x} _{i}-\mathbf {x} _{j})}-{\frac {2}{n(1+\beta ^{2})^{k/2}}}\sum _{i=1}^{n}e^{-{\frac {\beta ^{2}}{2(1+\beta ^{2})}}(\mathbf {x} _{i}-{\bar {\mathbf {x} }})^{\mathrm {T} }{\widehat {\boldsymbol {\Sigma }}}^{-1}(\mathbf {x} _{i}-{\bar {\mathbf {x} }})}+{\frac {1}{(1+2\beta ^{2})^{k/2}}}\end{aligned}}}

La distribución límite de esta estadística de prueba es una suma ponderada de variables aleatorias de chi-cuadrado. [39]

Está disponible un estudio detallado de estos y otros procedimientos de prueba. [40]

Clasificación en clases normales multivariadas

Izquierda: Clasificación de siete clases normales multivariadas. Las elipses coloreadas son elipses de error de 1 desviación estándar. El negro marca los límites entre las regiones de clasificación. es la probabilidad de error de clasificación total. Derecha: la matriz de error. es la probabilidad de clasificar una muestra de normal como . Estos se calculan mediante el método numérico de trazado de rayos [17] (código Matlab). p e {\displaystyle p_{e}} p i j {\displaystyle p_{ij}} i {\displaystyle i} j {\displaystyle j}

Análisis discriminante gaussiano

Supongamos que se supone que las observaciones (que son vectores) provienen de una de varias distribuciones normales multivariadas, con medias y covarianzas conocidas. Entonces, cualquier observación dada puede asignarse a la distribución de la que tiene la mayor probabilidad de surgir. Este procedimiento de clasificación se denomina análisis discriminante gaussiano. El rendimiento de la clasificación, es decir, las probabilidades de los diferentes resultados de la clasificación y el error de clasificación general, se pueden calcular mediante el método numérico de trazado de rayos [17] (código Matlab).

Métodos computacionales

Extraer valores de la distribución

Un método ampliamente utilizado para extraer (muestrear) un vector aleatorio x de la distribución normal multivariada N -dimensional con vector medio μ y matriz de covarianza Σ funciona de la siguiente manera: [41]

  1. Encuentre cualquier matriz real A tal que AA T = Σ . Cuando Σ es positiva-definida, la descomposición de Cholesky se usa típicamente, y la forma extendida de esta descomposición siempre se puede usar (ya que la matriz de covarianza puede ser solo semi-definida positiva) en ambos casos se obtiene una matriz A adecuada . Una alternativa es usar la matriz A = 1/2 obtenida a partir de una descomposición espectral Σ = UΛU −1 de Σ . El primer enfoque es computacionalmente más sencillo pero las matrices A cambian para diferentes ordenamientos de los elementos del vector aleatorio, mientras que el último enfoque da matrices que están relacionadas por reordenamientos simples. En teoría, ambos enfoques dan formas igualmente buenas de determinar una matriz A adecuada , pero hay diferencias en el tiempo de cálculo.
  2. Sea z = ( z 1 , ..., z N ) T un vector cuyos componentes son N variables normales estándar independientes (que pueden generarse, por ejemplo, utilizando la transformada de Box-Muller ).
  3. Sea x μ + Az . Esta tiene la distribución deseada debido a la propiedad de transformación afín .

Véase también

Referencias

  1. ^ abc Lapidoth, Amos (2009). Una base para la comunicación digital . Cambridge University Press. ISBN 978-0-521-19395-5.
  2. ^ Gut, Allan (2009). Un curso intermedio de probabilidad . Springer. ISBN 978-1-441-90161-3.
  3. ^ Kac, M. (1939). "Sobre una caracterización de la distribución normal". American Journal of Mathematics . 61 (3): 726–728. doi :10.2307/2371328. JSTOR  2371328.
  4. ^ Sinz, Fabian; Gerwinn, Sebastian; Bethge, Matthias (2009). "Caracterización de la distribución normal p-generalizada". Journal of Multivariate Analysis . 100 (5): 817–820. doi : 10.1016/j.jmva.2008.07.006 .
  5. ^ Simon JD Prince (junio de 2012). Visión artificial: modelos, aprendizaje e inferencia Archivado el 28 de octubre de 2020 en Wayback Machine . Cambridge University Press. 3.7: "Distribución normal multivariante".
  6. ^ Kim, M. G. (2000). "Valores atípicos multivariados y descomposiciones de la distancia de Mahalanobis". Comunicaciones en Estadística – Teoría y Métodos . 29 (7): 1511–1526. doi :10.1080/03610920008832559.
  7. ^ Hamedani, GG; Tata, MN (1975). "Sobre la determinación de la distribución normal bivariada a partir de distribuciones de combinaciones lineales de las variables". The American Mathematical Monthly . 82 (9): 913–915. doi :10.2307/2318494. JSTOR  2318494.
  8. ^ Wyatt, John (26 de noviembre de 2008). "Estimación de error cuadrático medio mínimo lineal" (PDF) . Apuntes del curso de probabilidad aplicada . Archivado desde el original (PDF) el 10 de octubre de 2015. Consultado el 23 de enero de 2012 .
  9. ^ "Álgebra lineal - Mapeo entre funciones de coordenadas afines". Intercambio de pila de matemáticas . Consultado el 24 de junio de 2022 .
  10. ^ Rao, CR (1973). Inferencia estadística lineal y sus aplicaciones . Nueva York: Wiley. pp. 527–528. ISBN 0-471-70823-2.
  11. ^ ab Botev, ZI (2016). "La ley normal bajo restricciones lineales: simulación y estimación mediante inclinación minimax". Revista de la Royal Statistical Society, Serie B. 79 : 125–148. arXiv : 1603.04166 . Código Bibliográfico :2016arXiv160304166B. doi :10.1111/rssb.12162. S2CID  : 88515228.
  12. ^ Genz, Alan (2009). Cálculo de probabilidades normales y t multivariadas. Springer. ISBN 978-3-642-01689-9.
  13. ^ de Bensimhoun Michael, Función acumulativa de dimensión N y otros datos útiles sobre gaussianas y densidades normales (2006)
  14. ^ Siotani, Minoru (1964). "Regiones de tolerancia para una población normal multivariante" (PDF) . Anales del Instituto de Matemática Estadística . 16 (1): 135–153. doi :10.1007/BF02868568. S2CID  123269490.
  15. ^ ab Botev, ZI; Mandjes, M.; Ridder, A. (6–9 de diciembre de 2015). "Distribución de cola del máximo de variables aleatorias gaussianas correlacionadas". Conferencia de simulación de invierno de 2015 (WSC) . Huntington Beach, California, EE. UU.: IEEE. págs. 633–642. doi :10.1109/WSC.2015.7408202. hdl : 10419/130486 . ISBN . 978-1-4673-9743-8.
  16. ^ Adler, RJ; Blanchet, J.; Liu, J. (7–10 de diciembre de 2008). "Simulación eficiente para probabilidades de cola de campos aleatorios gaussianos". Conferencia de simulación de invierno de 2008 (WSC) . Miami, Florida, EE. UU.: IEEE. págs. 328–336. doi :10.1109/WSC.2008.4736085. ISBN . 978-1-4244-2707-9.{{cite conference}}: CS1 maint: date and year (link)
  17. ^ abcdefghi Das, Abhranil; Wilson S Geisler (2020). "Métodos para integrar multinormales y calcular medidas de clasificación". arXiv : 2012.14331 [stat.ML].
  18. ^ Hernandez-Stumpfhauser, Daniel; Breidt, F. Jay; van der Woerd, Mark J. (2017). "La distribución normal proyectada general de dimensión arbitraria: modelado e inferencia bayesiana". Análisis bayesiano . 12 (1): 113–133. doi : 10.1214/15-BA989 .
  19. ^ Tong, T. (2010) Regresión lineal múltiple: MLE y sus resultados distributivos Archivado el 16 de junio de 2013 en WebCite , Notas de la conferencia
  20. ^ Gokhale, DV; Ahmed, NA; Res, BC; Piscataway, NJ (mayo de 1989). "Expresiones de entropía y sus estimadores para distribuciones multivariadas". IEEE Transactions on Information Theory . 35 (3): 688–692. doi :10.1109/18.30996.
  21. ^ Duchi, J. "Derivaciones para álgebra lineal y optimización" (PDF) : 13. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  22. ^ MacKay, David JC (6 de octubre de 2003). Teoría de la información, inferencia y algoritmos de aprendizaje (edición ilustrada). Cambridge: Cambridge University Press. ISBN 978-0-521-64298-9.
  23. ^ Holt, W.; Nguyen, D. (2023). "Aspectos esenciales de la imputación de datos bayesianos". SSRN  4494314. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  24. ^ Eaton, Morris L. (1983). Estadística multivariante: un enfoque de espacio vectorial . John Wiley and Sons. págs. 116-117. ISBN 978-0-471-02776-8.
  25. ^ Jensen, J (2000). Estadísticas para ingenieros petroleros y geocientíficos . Ámsterdam: Elsevier. p. 207. ISBN 0-444-50552-0.
  26. ^ Maddala, GS (1983). Variables dependientes y cualitativas limitadas en econometría . Cambridge University Press. ISBN 0-521-33825-5.
  27. ^ Se muestra un cálculo algebraico de la distribución marginal aquí http://fourier.eng.hmc.edu/e161/lectures/gaussianprocess/node7.html Archivado el 17 de enero de 2010 en Wayback Machine . Se describe una prueba mucho más breve aquí https://math.stackexchange.com/a/3832137
  28. ^ Nikolaus Hansen (2016). "La estrategia de evolución de CMA: un tutorial" (PDF) . arXiv : 1604.00772 . Código Bibliográfico :2016arXiv160400772H. Archivado desde el original (PDF) el 2010-03-31 . Consultado el 2012-01-07 .
  29. ^ Daniel Wollschlaeger. "La distribución Hoyt (Documentación para el paquete R 'shotGroups' versión 0.6.2)".[ enlace muerto permanente ]
  30. ^ Wang, Bin; Shi, Wenzhong; Miao, Zelang (13 de marzo de 2015). Rocchini, Duccio (ed.). "Análisis de confianza de la elipse de desviación estándar y su extensión al espacio euclidiano de mayor dimensión". PLOS ONE . ​​10 (3): e0118537. Bibcode :2015PLoSO..1018537W. doi : 10.1371/journal.pone.0118537 . ISSN  1932-6203. PMC 4358977 . PMID  25769048. 
  31. ^ ab Holt, W.; Nguyen, D. (2023). "Introducción a la imputación de datos bayesianos". SSRN  4494314. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  32. ^ Cox, DR; Small, NJH (1978). "Prueba de normalidad multivariante". Biometrika . 65 (2): 263. doi :10.1093/biomet/65.2.263.
  33. ^ Smith, SP; Jain, AK (1988). "Una prueba para determinar la normalidad multivariada de un conjunto de datos". IEEE Transactions on Pattern Analysis and Machine Intelligence . 10 (5): 757. doi :10.1109/34.6789.
  34. ^ Friedman, JH; Rafsky, LC (1979). "Generalizaciones multivariadas de las pruebas de dos muestras de Wald-Wolfowitz y Smirnov". Anales de estadística . 7 (4): 697. doi : 10.1214/aos/1176344722 .
  35. ^ Mardia, KV (1970). "Medidas de asimetría y curtosis multivariadas con aplicaciones". Biometrika . 57 (3): 519–530. doi :10.1093/biomet/57.3.519.
  36. ^ Rencher (1995), páginas 112–113.
  37. ^ Rencher (1995), páginas 493–495.
  38. ^ Baringhaus, L.; Henze, N. (1991). "Distribuciones límite para medidas de asimetría y curtosis multivariadas basadas en proyecciones". Journal of Multivariate Analysis . 38 : 51–69. doi : 10.1016/0047-259X(91)90031-V .
  39. ^ ab Baringhaus, L.; Henze, N. (1988). "Una prueba consistente para normalidad multivariante basada en la función característica empírica". Metrika . 35 (1): 339–348. doi :10.1007/BF02613322. S2CID  122362448.
  40. ^ Henze, Norbert (2002). "Pruebas invariantes para normalidad multivariante: una revisión crítica". Documentos estadísticos . 43 (4): 467–506. doi :10.1007/s00362-002-0119-6. S2CID  122934510.
  41. ^ Gentle, JE (2009). Estadística computacional. Estadística y computación. Nueva York: Springer. pp. 315–316. doi :10.1007/978-0-387-98144-4. ISBN 978-0-387-98143-7.

Literatura

  • Rencher, AC (1995). Métodos de análisis multivariante . Nueva York: Wiley.
  • Tong, YL (1990). La distribución normal multivariante . Springer Series in Statistics. Nueva York: Springer-Verlag. doi :10.1007/978-1-4613-9655-0. ISBN . 978-1-4613-9657-4.S2CID120348131  .
Retrieved from "https://en.wikipedia.org/w/index.php?title=Multivariate_normal_distribution&oldid=1249210472"