Momento (matemáticas)

En matemáticas, una medida cuantitativa de la forma de un conjunto de puntos.

En matemáticas , los momentos de una función son ciertas medidas cuantitativas relacionadas con la forma del gráfico de la función . Si la función representa la densidad de masa, entonces el momento cero es la masa total, el primer momento (normalizado por la masa total) es el centro de masa y el segundo momento es el momento de inercia . Si la función es una distribución de probabilidad , entonces el primer momento es el valor esperado , el segundo momento central es la varianza , el tercer momento estandarizado es la asimetría y el cuarto momento estandarizado es la curtosis .

En el caso de una distribución de masa o probabilidad en un intervalo acotado , la colección de todos los momentos (de todos los órdenes, de 0 a ) determina de forma única la distribución ( problema del momento de Hausdorff ). No ocurre lo mismo en intervalos no acotados ( problema del momento de Hamburger ).

A mediados del siglo XIX, Pafnuty Chebyshev se convirtió en la primera persona en pensar sistemáticamente en términos de los momentos de variables aleatorias . [1]

Significado de los momentos

El momento bruto n -ésimo (es decir, el momento alrededor de cero) de una variable aleatoria con función de densidad se define por [2] El momento n -ésimo de una variable aleatoria continua de valor real con función de densidad alrededor de un valor es la integral incógnita {\estilo de visualización X} F ( incógnita ) {\estilo de visualización f(x)} micras norte " = incógnita norte   = d mi F   { i incógnita i norte F ( incógnita i ) , distribución discreta incógnita norte F ( incógnita ) d incógnita , distribución continua {\displaystyle \mu '_{n}=\langle X^{n}\rangle ~{\overset {\mathrm {def} }{=}}~{\begin{cases}\sum _{i}x_{i}^{n}f(x_{i}),&{\text{discrete distribution}}\\[1.2ex]\int x^{n}f(x)\,dx,&{\text{continuous distribution}}\end{cases}}} f ( x ) {\displaystyle f(x)} c {\displaystyle c} μ n = ( x c ) n f ( x ) d x . {\displaystyle \mu _{n}=\int _{-\infty }^{\infty }(x-c)^{n}\,f(x)\,\mathrm {d} x.}

Es posible definir momentos para variables aleatorias de una manera más general que los momentos para funciones de valores reales (consulte momentos en espacios métricos). El momento de una función, sin mayor explicación, generalmente se refiere a la expresión anterior con . Para los momentos de segundo orden y superiores, generalmente se utiliza el momento central (momentos respecto de la media, donde c es la media) en lugar de los momentos respecto de cero, porque proporcionan información más clara sobre la forma de la distribución. c = 0 {\displaystyle c=0}

También se pueden definir otros momentos. Por ejemplo, el n -ésimo momento inverso respecto a cero es y el n -ésimo momento logarítmico respecto a cero es E [ X n ] {\displaystyle \operatorname {E} \left[X^{-n}\right]} E [ ln n ( X ) ] . {\displaystyle \operatorname {E} \left[\ln ^{n}(X)\right].}

El momento n -ésimo respecto a cero de una función de densidad de probabilidad es el valor esperado de y se denomina momento bruto o momento crudo . [3] Los momentos respecto a su media se denominan momentos centrales ; estos describen la forma de la función, independientemente de la traslación . f ( x ) {\displaystyle f(x)} X n {\displaystyle X^{n}} μ {\displaystyle \mu }

Si es una función de densidad de probabilidad , entonces el valor de la integral anterior se denomina momento n -ésimo de la distribución de probabilidad . De manera más general, si F es una función de distribución de probabilidad acumulativa de cualquier distribución de probabilidad, que puede no tener una función de densidad, entonces el momento n -ésimo de la distribución de probabilidad viene dado por la integral de Riemann-Stieltjes donde X es una variable aleatoria que tiene esta distribución acumulativa F , y E es el operador de expectativa o media. Cuando se dice que el momento no existe. Si existe el momento n -ésimo respecto de cualquier punto, también existe el momento ( n − 1) -ésimo (y, por lo tanto, todos los momentos de orden inferior) respecto de cada punto. El momento cero de cualquier función de densidad de probabilidad es 1, ya que el área bajo cualquier función de densidad de probabilidad debe ser igual a uno. f {\displaystyle f} μ n = E [ X n ] = x n d F ( x ) {\displaystyle \mu '_{n}=\operatorname {E} \left[X^{n}\right]=\int _{-\infty }^{\infty }x^{n}\,\mathrm {d} F(x)} E [ | X n | ] = | x n | d F ( x ) = {\displaystyle \operatorname {E} \left[\left|X^{n}\right|\right]=\int _{-\infty }^{\infty }\left|x^{n}\right|\,\mathrm {d} F(x)=\infty }

Significado de los momentos (brutos, centrales, estandarizados) y cumulantes (brutos, normalizados), en relación con las propiedades nombradas de las distribuciones

Ordinal del momento
MomentoCumulante
CrudoCentralEstandarizadoCrudoNormalizado
1Significar00Significar
2Diferencia1Diferencia1
3OblicuidadOblicuidad
4Curtosis (no excesiva o histórica)Exceso de curtosis
5Hipersesgo
6Hipercolabilidad
7+

Momentos estandarizados

El momento central n -ésimo normalizado o momento estandarizado es el momento central n- ésimo dividido por σ n ; el momento central n -ésimo normalizado de la variable aleatoria X es μ n σ n = E [ ( X μ ) n ] σ n = E [ ( X μ ) n ] E [ ( X μ ) 2 ] n 2 . {\displaystyle {\frac {\mu _{n}}{\sigma ^{n}}}={\frac {\operatorname {E} \left[(X-\mu )^{n}\right]}{\sigma ^{n}}}={\frac {\operatorname {E} \left[(X-\mu )^{n}\right]}{\operatorname {E} \left[(X-\mu )^{2}\right]^{\frac {n}{2}}}}.}

Estos momentos centrales normalizados son cantidades adimensionales , que representan la distribución independientemente de cualquier cambio lineal de escala.

Momentos destacados

Significar

El primer momento bruto es la media , generalmente denotada μ E [ X ] . {\displaystyle \mu \equiv \operatorname {E} [X].}

Diferencia

El segundo momento central es la varianza . La raíz cuadrada positiva de la varianza es la desviación estándar. σ ( E [ ( x μ ) 2 ] ) 1 2 . {\displaystyle \sigma \equiv \left(\operatorname {E} \left[(x-\mu )^{2}\right]\right)^{\frac {1}{2}}.}

Oblicuidad

El tercer momento central es la medida de la asimetría de la distribución; cualquier distribución simétrica tendrá un tercer momento central, si se define, de cero. El tercer momento central normalizado se denomina asimetría , a menudo γ . Una distribución sesgada hacia la izquierda (la cola de la distribución es más larga a la izquierda) tendrá una asimetría negativa. Una distribución sesgada hacia la derecha (la cola de la distribución es más larga a la derecha), tendrá una asimetría positiva.

Para distribuciones que no son demasiado diferentes de la distribución normal , la mediana estará cerca de μγσ /6 ; la moda alrededor de μγσ /2 .

Curtosis

El cuarto momento central es una medida de la pesadez de la cola de la distribución. Dado que es la esperanza de una cuarta potencia, el cuarto momento central, cuando se define, siempre es no negativo; y, a excepción de una distribución puntual , siempre es estrictamente positivo. El cuarto momento central de una distribución normal es 3 σ 4 .

La curtosis κ se define como el cuarto momento central estandarizado. (De manera equivalente, como en la siguiente sección, el exceso de curtosis es el cuarto cumulante dividido por el cuadrado del segundo cumulante ). [4] [5] Si una distribución tiene colas pesadas, la curtosis será alta (a veces llamada leptocúrtica); por el contrario, las distribuciones de colas ligeras (por ejemplo, distribuciones acotadas como la uniforme) tienen una curtosis baja (a veces llamada platicúrtica).

La curtosis puede ser positiva sin límite, pero κ debe ser mayor o igual que γ 2 + 1 ; la igualdad solo se cumple para distribuciones binarias . Para distribuciones asimétricas ilimitadas no muy alejadas de la normal, κ tiende a estar en algún lugar en el área de γ 2 y 2 γ 2 .

La desigualdad se puede demostrar considerando donde T = ( Xμ )/ σ . Esta es la esperanza de un cuadrado, por lo que no es negativa para todo a ; sin embargo, también es un polinomio cuadrático en a . Su discriminante debe ser no positivo, lo que da la relación requerida. E [ ( T 2 a T 1 ) 2 ] {\displaystyle \operatorname {E} \left[\left(T^{2}-aT-1\right)^{2}\right]}

Momentos más elevados

Los momentos de orden superior son momentos más allá de los momentos de cuarto orden.

Al igual que con la varianza, la asimetría y la curtosis, estas son estadísticas de orden superior , que implican combinaciones no lineales de los datos, y se pueden utilizar para la descripción o estimación de otros parámetros de forma . Cuanto mayor sea el momento, más difícil es estimarlo, en el sentido de que se requieren muestras más grandes para obtener estimaciones de calidad similar. Esto se debe al exceso de grados de libertad consumidos por los órdenes superiores. Además, pueden ser sutiles de interpretar, y a menudo se entienden más fácilmente en términos de momentos de orden inferior: compare las derivadas de orden superior de jerk y jounce en física . Por ejemplo, así como el momento de cuarto orden (curtosis) puede interpretarse como "importancia relativa de las colas en comparación con los hombros en la contribución a la dispersión" (para una cantidad dada de dispersión, una curtosis más alta corresponde a colas más gruesas, mientras que una curtosis más baja corresponde a hombros más anchos), el momento de quinto orden puede interpretarse como la medición de la "importancia relativa de las colas en comparación con el centro ( moda y hombros) en la contribución a la asimetría" (para una cantidad dada de asimetría, un momento de quinto orden más alto corresponde a una asimetría más alta en las porciones de cola y poca asimetría de la moda, mientras que un momento de quinto orden más bajo corresponde a una mayor asimetría en los hombros).

Momentos mixtos

Los momentos mixtos son momentos que involucran múltiples variables.

El valor se denomina momento de orden (los momentos también se definen para los no integrales ). Los momentos de la distribución conjunta de variables aleatorias se definen de manera similar. Para cualquier entero , la esperanza matemática se denomina momento mixto de orden (donde ), y se denomina momento mixto central de orden . El momento mixto se denomina covarianza y es una de las características básicas de la dependencia entre variables aleatorias. E [ X k ] {\displaystyle E[X^{k}]} k {\displaystyle k} k {\displaystyle k} X 1 . . . X n {\displaystyle X_{1}...X_{n}} k i 0 {\displaystyle k_{i}\geq 0} E [ X 1 k 1 X n k n ] {\displaystyle E[{X_{1}}^{k_{1}}\cdots {X_{n}}^{k_{n}}]} k {\displaystyle k} k = k 1 + . . . + k n {\displaystyle k=k_{1}+...+k_{n}} E [ ( X 1 E [ X 1 ] ) k 1 ( X n E [ X n ] ) k n ] {\displaystyle E[(X_{1}-E[X_{1}])^{k_{1}}\cdots (X_{n}-E[X_{n}])^{k_{n}}]} k {\displaystyle k} E [ ( X 1 E [ X 1 ] ) ( X 2 E [ X 2 ] ) ] {\displaystyle E[(X_{1}-E[X_{1}])(X_{2}-E[X_{2}])]}

Algunos ejemplos son la covarianza , la cosesigualdad y la cocurtosis . Si bien existe una única covarianza, existen múltiples cosesigualdades y cocurtosis.

Propiedades de los momentos

Transformación del centro

Como donde es el coeficiente binomial , se deduce que los momentos respecto de b se pueden calcular a partir de los momentos respecto de a mediante: ( x b ) n = ( x a + a b ) n = i = 0 n ( n i ) ( x a ) i ( a b ) n i {\displaystyle (x-b)^{n}=(x-a+a-b)^{n}=\sum _{i=0}^{n}{n \choose i}(x-a)^{i}(a-b)^{n-i}} ( n i ) {\textstyle {\binom {n}{i}}} E [ ( x b ) n ] = i = 0 n ( n i ) E [ ( x a ) i ] ( a b ) n i . {\displaystyle E\left[(x-b)^{n}\right]=\sum _{i=0}^{n}{n \choose i}E\left[(x-a)^{i}\right](a-b)^{n-i}.}

El momento de una convolución de una función

El momento bruto de una convolución se lee donde denota el momento -ésimo de la función dada entre paréntesis. Esta identidad se deduce del teorema de convolución para la función generadora de momentos y la aplicación de la regla de la cadena para derivar un producto. h ( t ) = ( f g ) ( t ) = f ( τ ) g ( t τ ) d τ {\textstyle h(t)=(f*g)(t)=\int _{-\infty }^{\infty }f(\tau )g(t-\tau )\,d\tau } μ n [ h ] = i = 0 n ( n i ) μ i [ f ] μ n i [ g ] {\displaystyle \mu _{n}[h]=\sum _{i=0}^{n}{n \choose i}\mu _{i}[f]\mu _{n-i}[g]} μ n [ ] {\displaystyle \mu _{n}[\,\cdot \,]} n {\displaystyle n}

Cumulantes

El primer momento bruto y el segundo y tercer momento central no normalizado son aditivos en el sentido de que si X e Y son variables aleatorias independientes , entonces m 1 ( X + Y ) = m 1 ( X ) + m 1 ( Y ) Var ( X + Y ) = Var ( X ) + Var ( Y ) μ 3 ( X + Y ) = μ 3 ( X ) + μ 3 ( Y ) {\displaystyle {\begin{aligned}m_{1}(X+Y)&=m_{1}(X)+m_{1}(Y)\\\operatorname {Var} (X+Y)&=\operatorname {Var} (X)+\operatorname {Var} (Y)\\\mu _{3}(X+Y)&=\mu _{3}(X)+\mu _{3}(Y)\end{aligned}}}

(Esto también puede ser válido para variables que satisfacen condiciones más débiles que la independencia. El primero siempre se cumple; si se cumple el segundo, las variables se denominan no correlacionadas ).

De hecho, estos son los tres primeros cumulantes y todos los cumulantes comparten esta propiedad de aditividad.

Momentos de muestra

Para todos los k , el k -ésimo momento bruto de una población se puede estimar utilizando el k -ésimo momento bruto de la muestra aplicado a una muestra X 1 , ..., X n extraída de la población. 1 n i = 1 n X i k {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}X_{i}^{k}}

Se puede demostrar que el valor esperado del momento muestral bruto es igual al k -ésimo momento bruto de la población, si ese momento existe, para cualquier tamaño de muestra n . Por lo tanto, es un estimador insesgado. Esto contrasta con la situación de los momentos centrales, cuyo cálculo utiliza un grado de libertad al utilizar la media de la muestra. Así, por ejemplo, una estimación insesgada de la varianza de la población (el segundo momento central) viene dada por en la que el denominador anterior n ha sido reemplazado por los grados de libertad n − 1 , y en la que se refiere a la media de la muestra. Esta estimación del momento de la población es mayor que el momento muestral observado no ajustado por un factor de y se denomina "varianza de la muestra ajustada" o, a veces, simplemente "varianza de la muestra". 1 n 1 i = 1 n ( X i X ¯ ) 2 {\displaystyle {\frac {1}{n-1}}\sum _{i=1}^{n}\left(X_{i}-{\bar {X}}\right)^{2}} X ¯ {\displaystyle {\bar {X}}} n n 1 , {\displaystyle {\tfrac {n}{n-1}},}

Problema de momentos

Los problemas de determinación de una distribución de probabilidad a partir de su secuencia de momentos se denominan problema de momentos . Tales problemas fueron discutidos por primera vez por PL Chebyshev (1874) [6] en relación con la investigación sobre teoremas de límites. Para que la distribución de probabilidad de una variable aleatoria se defina de forma única por sus momentos , es suficiente, por ejemplo, que se satisfaga la condición de Carleman: Un resultado similar se cumple incluso para los momentos de vectores aleatorios. El problema de los momentos busca caracterizaciones de secuencias que sean secuencias de momentos de alguna función f, todos los momentos de las cuales son finitos, y para cada entero sea donde es finito. Entonces hay una secuencia que converge débilmente a una función de distribución que tiene como sus momentos. Si los momentos se determinan de forma única, entonces la secuencia converge débilmente a . X {\displaystyle X} α k = E [ X k ] {\displaystyle \alpha _{k}=E\left[X^{k}\right]} k = 1 1 α 2 k 1 / 2 k = {\displaystyle \sum _{k=1}^{\infty }{\frac {1}{\alpha _{2k}^{1/2k}}}=\infty } μ n : n = 1 , 2 , 3 , {\displaystyle {{\mu _{n}}':n=1,2,3,\dots }} α k ( n ) {\displaystyle \alpha _{k}(n)} k 1 {\displaystyle k\geq 1} α k ( n ) α k , n , {\displaystyle \alpha _{k}(n)\rightarrow \alpha _{k},n\rightarrow \infty ,} α k {\displaystyle \alpha _{k}} μ n {\displaystyle {\mu _{n}}'} μ {\displaystyle \mu } α k {\displaystyle \alpha _{k}} μ {\displaystyle \mu } μ n {\displaystyle {\mu _{n}}'} μ {\displaystyle \mu }

Momentos parciales

A los momentos parciales a veces se los denomina "momentos unilaterales". Los momentos parciales inferior y superior de orden n con respecto a un punto de referencia r pueden expresarse como

μ n ( r ) = r ( r x ) n f ( x ) d x , {\displaystyle \mu _{n}^{-}(r)=\int _{-\infty }^{r}(r-x)^{n}\,f(x)\,\mathrm {d} x,} μ n + ( r ) = r ( x r ) n f ( x ) d x . {\displaystyle \mu _{n}^{+}(r)=\int _{r}^{\infty }(x-r)^{n}\,f(x)\,\mathrm {d} x.}

Si la función integral no converge, el momento parcial no existe.

Los momentos parciales se normalizan elevándolos a la potencia 1/ n . La relación de potencial ascendente se puede expresar como una relación entre un momento parcial superior de primer orden y un momento parcial inferior normalizado de segundo orden.

Momentos centrales en espacios métricos

Sea ( M , d ) un espacio métrico , y sea B( M ) la σ -álgebra de Borel sobre M , la σ -álgebra generada por los d - subconjuntos abiertos de M . (Por razones técnicas, también es conveniente suponer que M es un espacio separable con respecto a la métrica d .) Sea 1 ≤ p ≤ ∞ .

El momento central p -ésimo de una medida μ en el espacio medible ( M , B( M )) alrededor de un punto dado x 0M se define como M d ( x , x 0 ) p d μ ( x ) . {\displaystyle \int _{M}d\left(x,x_{0}\right)^{p}\,\mathrm {d} \mu (x).}

Se dice que μ tiene un momento central p -ésimo finito si el momento central p -ésimo de μ alrededor de x 0 es finito para algún x 0M .

Esta terminología para medidas se traslada a las variables aleatorias de la forma habitual: si (Ω, Σ, P ) es un espacio de probabilidad y X  : Ω → M es una variable aleatoria, entonces el p -ésimo momento central de X alrededor de x 0M se define como y X tiene un p -ésimo momento central finito si el p -ésimo momento central de X alrededor de x 0 es finito para algún x 0M . M d ( x , x 0 ) p d ( X ( P ) ) ( x ) = Ω d ( X ( ω ) , x 0 ) p d P ( ω ) = E [ d ( X , x 0 ) p ] , {\displaystyle \int _{M}d\left(x,x_{0}\right)^{p}\,\mathrm {d} \left(X_{*}\left(\mathbf {P} \right)\right)(x)=\int _{\Omega }d\left(X(\omega ),x_{0}\right)^{p}\,\mathrm {d} \mathbf {P} (\omega )=\operatorname {\mathbf {E} } [d(X,x_{0})^{p}],}

Véase también

Referencias

  • El texto fue copiado de Moment en la Enciclopedia de Matemáticas, que se publica bajo una licencia Creative Commons Atribución-Compartir Igual 3.0 (Unported) (CC-BY-SA 3.0) y la Licencia de Documentación Libre de GNU .
  1. ^ George Mackey (julio de 1980). "EL ANÁLISIS ARMÓNICO COMO EXPLOTACIÓN DE LA SIMETRÍA - UN ESTUDIO HISTÓRICO". Boletín de la American Mathematical Society . Nueva serie. 3 (1): 549.
  2. ^ Papoulis, A. (1984). Probabilidad, variables aleatorias y procesos estocásticos, 2.ª ed . Nueva York: McGraw Hill . págs. 145–149.
  3. ^ "Raw Moment -- de Wolfram MathWorld". Archivado desde el original el 28 de mayo de 2009. Consultado el 24 de junio de 2009 .Momentos crudos en Math-world
  4. ^ Casella, George ; Berger, Roger L. (2002). Inferencia estadística (2.ª ed.). Pacific Grove: Duxbury. ISBN 0-534-24312-6.
  5. ^ Ballanda, Kevin P.; MacGillivray, HL (1988). "Kurtosis: una revisión crítica". The American Statistician . 42 (2). Asociación Estadounidense de Estadística: 111–119. doi :10.2307/2684482. JSTOR  2684482.
  6. ^ Feller, W. (1957-1971). Introducción a la teoría de la probabilidad y sus aplicaciones. Nueva York: John Wiley & Sons. 419 pág.

Lectura adicional

  • Spanos, Aris (1999). Teoría de la probabilidad e inferencia estadística . Nueva York: Cambridge University Press. pp. 109–130. ISBN 0-521-42408-9.
  • Walker, Helen M. (1929). Estudios sobre la historia del método estadístico, con especial referencia a ciertos problemas educativos. Baltimore, Williams & Wilkins Co., pág. 71.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Moment_(mathematics)&oldid=1229572079"