Conjunto de cantidades en la teoría de la probabilidad
En teoría de probabilidad y estadística , los cumulantes κ n de una distribución de probabilidad son un conjunto de cantidades que proporcionan una alternativa a los momentos de la distribución. Dos distribuciones de probabilidad cualesquiera cuyos momentos sean idénticos tendrán también cumulantes idénticos, y viceversa.
El primer cumulante es la media , el segundo cumulante es la varianza y el tercer cumulante es el mismo que el tercer momento central . Pero los cumulantes de cuarto orden y de orden superior no son iguales a los momentos centrales. En algunos casos, los tratamientos teóricos de los problemas en términos de cumulantes son más simples que los que utilizan momentos. En particular, cuando dos o más variables aleatorias son estadísticamente independientes , el cumulante de orden n de su suma es igual a la suma de sus cumulantes de orden n . Además, los cumulantes de tercer orden y de orden superior de una distribución normal son cero, y es la única distribución con esta propiedad.
Al igual que para los momentos, donde se utilizan momentos conjuntos para colecciones de variables aleatorias, es posible definir cumulantes conjuntos .
Los cumulantes κ n se obtienen a partir de una expansión en serie de potencias de la función generadora de cumulantes:
Esta expansión es una serie de Maclaurin , por lo que el n -ésimo cumulante se puede obtener diferenciando la expansión anterior n veces y evaluando el resultado en cero: [1]
Si la función generadora de momentos no existe, los cumulantes se pueden definir en términos de la relación entre cumulantes y momentos que se analiza más adelante.
Definición alternativa de la función generadora de cumulantes
Algunos autores [2] [3] prefieren definir la función generadora de cumulantes como el logaritmo natural de la función característica , que a veces también se denomina segunda función característica , [4] [5]
Una ventaja de H ( t ) —en cierto sentido la función K ( t ) evaluada para argumentos puramente imaginarios— es que E[ e itX ] está bien definida para todos los valores reales de t incluso cuando E[ e tX ] no está bien definida para todos los valores reales de t , como puede ocurrir cuando hay "demasiada" probabilidad de que X tenga una magnitud grande. Aunque la función H ( t ) estará bien definida, no obstante imitará a K ( t ) en términos de la longitud de su serie de Maclaurin , que puede no extenderse más allá (o, raramente, incluso hasta) el orden lineal en el argumento t , y en particular el número de cumulantes que están bien definidos no cambiará. Sin embargo, incluso cuando H ( t ) no tiene una serie de Maclaurin larga, se puede utilizar directamente para analizar y, en particular, agregar variables aleatorias. Tanto la distribución de Cauchy (también llamada lorentziana) como, de manera más general, las distribuciones estables (relacionadas con la distribución de Lévy) son ejemplos de distribuciones para las cuales las expansiones en series de potencias de las funciones generadoras tienen solo un número finito de términos bien definidos.
Algunas propiedades básicas
El cumulante número 1 de (la distribución de) una variable aleatoria disfruta de las siguientes propiedades:
Si y es constante (es decir, no aleatorio), entonces , es decir, el cumulante es invariante en la traducción . (Si entonces tenemos
Si es constante (es decir, no aleatorio), entonces el cumulante n es homogéneo de grado .
Si las variables aleatorias son independientes, entonces Es decir, el cumulante es acumulativo, de ahí el nombre.
La propiedad acumulativa se deduce rápidamente al considerar la función generadora de cumulantes:
de modo que cada cumulante de una suma de variables aleatorias independientes es la suma de los cumulantes correspondientes de los sumandos . Es decir, cuando los sumandos son estadísticamente independientes, la media de la suma es la suma de las medias, la varianza de la suma es la suma de las varianzas, el tercer cumulante (que resulta ser el tercer momento central) de la suma es la suma de los terceros cumulantes, y así sucesivamente para cada orden de cumulante.
Una distribución con cumulantes dados κ n se puede aproximar a través de una serie de Edgeworth .
Primeros cumulantes como funciones de los momentos
Todos los cumulantes superiores son funciones polinómicas de los momentos centrales, con coeficientes enteros, pero sólo en los grados 2 y 3 los cumulantes son realmente momentos centrales.
significar
la varianza, o segundo momento central.
El tercer momento central.
el cuarto momento central menos tres veces el cuadrado del segundo momento central. Por lo tanto, este es el primer caso en el que los cumulantes no son simplemente momentos o momentos centrales. Los momentos centrales de grado superior a 3 carecen de la propiedad acumulativa.
Cumulantes de algunas distribuciones de probabilidad discretas
Las variables aleatorias constantes X = μ . La función generadora acumulativa es K ( t ) = μt . El primer acumulante es κ 1 = K ′(0) = μ y los demás acumulantes son cero, κ 2 = κ 3 = κ 4 = ⋅⋅⋅ = 0 .
Distribuciones de Bernoulli (número de éxitos en un ensayo con probabilidad p de éxito). La función generadora de cumulantes es K ( t ) = log(1 − p + p e t ) . Los primeros cumulantes son κ 1 = K '(0) = p y κ 2 = K′′ (0) = p ·(1 − p ) . Los cumulantes satisfacen una fórmula de recursión
Las distribuciones geométricas , (número de fallos antes de un éxito con probabilidad p de éxito en cada ensayo). La función generadora de cumulantes es K ( t ) = log( p / (1 + ( p − 1)e t )) . Los primeros cumulantes son κ 1 = K′ (0) = p −1 − 1 , y κ 2 = K′′ (0) = κ 1 p −1 . Sustituyendo p = ( μ + 1) −1 se obtiene K ( t ) = −log(1 + μ (1−e t )) y κ 1 = μ .
Las distribuciones de Poisson . La función generadora acumulativa es K ( t ) = μ (e t − 1) . Todos los acumulantes son iguales al parámetro: κ 1 = κ 2 = κ 3 = ... = μ .
Las distribuciones binomiales , (número de éxitos en n ensayos independientes con probabilidad p de éxito en cada ensayo). El caso especial n = 1 es una distribución de Bernoulli. Cada cumulante es simplemente n veces el cumulante correspondiente de la distribución de Bernoulli correspondiente. La función generadora de cumulantes es K ( t ) = n log(1 − p + p e t ) . Los primeros cumulantes son κ 1 = K′ (0) = np y κ 2 = K′′ (0) = κ 1 (1 − p ) . Sustituyendo p = μ· n −1 da K '( t ) = ((μ −1 − n −1 )·e − t + n −1 ) −1 y κ 1 = μ . El caso límite n −1 = 0 es una distribución de Poisson.
Las distribuciones binomiales negativas (número de fallos antes de r éxitos con probabilidad p de éxito en cada ensayo). El caso especial r = 1 es una distribución geométrica. Cada cumulante es simplemente r veces el cumulante correspondiente de la distribución geométrica correspondiente. La derivada de la función generadora de cumulantes es K ′( t ) = r ·((1 − p ) −1 ·e − t −1) −1 . Los primeros cumulantes son κ 1 = K ′(0) = r ·( p −1 −1) , y κ 2 = K ′′(0) = κ 1 · p −1 . Sustituyendo p = (μ· r −1 +1) −1 se obtiene K ′( t ) = (( μ −1 + r −1 ) e − t − r −1 ) −1 y κ 1 = μ . La comparación de estas fórmulas con las de las distribuciones binomiales explica el nombre de "distribución binomial negativa". El caso límite r −1 = 0 es una distribución de Poisson.
Al introducir la relación entre la varianza y la media,
las distribuciones de probabilidad anteriores obtienen una fórmula unificada para la derivada de la función generadora de cumulantes: [ cita requerida ]
La segunda derivada
confirma que el primer cumulante es κ 1 = K′ (0) = μ y el segundo cumulante es κ 2 = K′′ (0) = με .
Las variables aleatorias constantes X = μ tienen ε = 0 .
Las distribuciones binomiales tienen ε = 1 − p de modo que 0 < ε < 1 .
Las distribuciones de Poisson tienen ε = 1 .
Las distribuciones binomiales negativas tienen ε = p −1 de modo que ε > 1 .
Nótese la analogía con la clasificación de secciones cónicas por excentricidad : círculos ε = 0 , elipses 0 < ε < 1 , parábolas ε = 1 , hipérbolas ε > 1 .
Cumulantes de algunas distribuciones de probabilidad continua
Para la distribución normal con valor esperado μ y varianza σ 2 , la función generadora de cumulantes es K ( t ) = μt + σ 2 t 2 /2 . Las derivadas primera y segunda de la función generadora de cumulantes son K ′( t ) = μ + σ 2 · t y K ′′( t ) = σ 2 . Los cumulantes son κ 1 = μ , κ 2 = σ 2 y κ 3 = κ 4 = ⋅⋅⋅ = 0 . El caso especial σ 2 = 0 es una variable aleatoria constante X = μ .
Los cumulantes de la distribución exponencial con parámetro de velocidad λ son κ n = λ − n ( n − 1)! .
Algunas propiedades de la función generadora de cumulantes
La función generadora de cumulantes K ( t ) , si existe, es infinitamente diferenciable y convexa , y pasa por el origen. Su primera derivada varía monótonamente en el intervalo abierto desde el ínfimo hasta el supremo del soporte de la distribución de probabilidad, y su segunda derivada es estrictamente positiva en todos los lugares en los que está definida, excepto en la distribución degenerada de una sola masa puntual. La función generadora de cumulantes existe si y solo si las colas de la distribución están mayoradas por un decaimiento exponencial , es decir, ( véase la notación Big O )
donde es la función de distribución acumulativa . La función generadora de cumulantes tendrá asíntotas verticales en el supremo negativo de tal c , si tal supremo existe, y en el supremo de tal d , si tal supremo existe, de lo contrario estará definida para todos los números reales.
Si el soporte de una variable aleatoria X tiene límites superiores o inferiores finitos, entonces su función generadora de cumulantes y = K ( t ) , si existe, tiende a la(s) asíntota (s) cuya pendiente es igual al supremo o ínfimo del soporte,
respectivamente, y se encuentra por encima de ambas líneas en todas partes. (Las integrales
dan como resultado las intersecciones con el eje y de estas asíntotas, ya que K (0) = 0 .)
Para un desplazamiento de la distribución en c , para una masa puntual degenerada en c , la función generadora cumulante es la línea recta , y más generalmente, si y sólo si X e Y son independientes y existen sus funciones generadoras cumulantes; ( la subindependencia y la existencia de segundos momentos son suficientes para implicar independencia. [6] )
La familia exponencial natural de una distribución se puede realizar desplazando o trasladando K ( t ) y ajustándola verticalmente de modo que siempre pase por el origen: si f es la función de densidad de probabilidad con función generadora de cumulantes y es su familia exponencial natural, entonces y
Si K ( t ) es finito para un intervalo t 1 < Re( t ) < t 2 , entonces si t 1 < 0 < t 2 , entonces K ( t ) es analítico e infinitamente diferenciable para t 1 < Re( t ) < t 2 . Además, para t real y t 1 < t < t 2 , K ( t ) es estrictamente convexo y K ′( t ) es estrictamente creciente. [ cita requerida ]
Otras propiedades de los cumulantes
Un resultado negativo
Dados los resultados para los cumulantes de la distribución normal , se podría esperar encontrar familias de distribuciones para las cuales κ m = κ m +1 = ⋯ = 0 para algún m > 3 , con los cumulantes de orden inferior (órdenes 3 a m − 1 ) siendo distintos de cero. No existen tales distribuciones. [7] El resultado subyacente aquí es que la función generadora de cumulantes no puede ser un polinomio de orden finito de grado mayor que 2.
Por lo tanto, la función generadora cumulante es el logaritmo de la función generadora de momentos.
El primer cumulante es el valor esperado ; el segundo y tercer cumulantes son respectivamente el segundo y tercer momento central (el segundo momento central es la varianza ); pero los cumulantes superiores no son momentos ni momentos centrales, sino funciones polinomiales más complicadas de los momentos.
Los momentos se pueden recuperar en términos de cumulantes evaluando la derivada n- ésima de en ,
De la misma manera, los cumulantes se pueden recuperar en términos de momentos evaluando la derivada n -ésima de en ,
La expresión explícita para el momento n en términos de los primeros n cumulantes, y viceversa, se puede obtener utilizando la fórmula de Faà di Bruno para derivadas superiores de funciones compuestas. En general, tenemos
donde son polinomios de Bell incompletos (o parciales) .
De la misma manera, si la media está dada por , la función generadora del momento central está dada por
y el n- ésimo momento central se obtiene en términos de cumulantes como
Además, para n > 1 , el n -ésimo cumulante en términos de los momentos centrales es
El momento n μ ′ n es un polinomio de grado n en los primeros n cumulantes . Las primeras expresiones son:
El "primo" distingue los momentos μ ′ n de los momentos centrales μ n . Para expresar los momentos centrales como funciones de los cumulantes, basta con quitar de estos polinomios todos los términos en los que κ 1 aparece como factor:
De manera similar, el n -ésimo cumulante κ n es un polinomio de grado n en los primeros n momentos no centrales. Las primeras expresiones son:
En general, [8] el cumulante es el determinante de una matriz:
Para expresar los cumulantes κ n para n > 1 como funciones de los momentos centrales, elimine de estos polinomios todos los términos en los que μ' 1 aparece como factor:
Los cumulantes se pueden relacionar con los momentos diferenciando la relación log M ( t ) = K ( t ) con respecto a t , dando M′ ( t ) = K′ ( t ) M ( t ) , que convenientemente no contiene exponenciales ni logaritmos. Igualando el coeficiente de t n −1 / ( n −1)! en los lados izquierdo y derecho y usando μ′ 0 = 1 se obtienen las siguientes fórmulas para n ≥ 1 : [9]
Estas permiten calcular o a partir del otro usando el conocimiento de los cumulantes y momentos de orden inferior. Las fórmulas correspondientes para los momentos centrales para se forman a partir de estas fórmulas estableciendo y reemplazando cada una con para :
Cumulantes y particiones de conjuntos
Estos polinomios tienen una interpretación combinatoria notable : los coeficientes cuentan ciertas particiones de conjuntos . Una forma general de estos polinomios es
donde
π recorre la lista de todas las particiones de un conjunto de tamaño n ;
" B ∈ π " significa que B es uno de los "bloques" en los que se divide el conjunto; y
| B | es el tamaño del conjunto B .
Así, cada monomio es una constante por un producto de cumulantes en el que la suma de los índices es n (p. ej., en el término κ 3 κ 2 2 κ 1 , la suma de los índices es 3 + 2 + 2 + 1 = 8; esto aparece en el polinomio que expresa el octavo momento como función de los primeros ocho cumulantes). A cada término le corresponde una partición del entero n . El coeficiente de cada término es el número de particiones de un conjunto de n miembros que colapsan a esa partición del entero n cuando los miembros del conjunto se vuelven indistinguibles.
El cumulante conjunto κ de varias variables aleatorias X 1 , ..., X n se define como el coeficiente κ 1,...,1 ( X 1 , ..., X n ) en la serie de Maclaurin de la función generadora de cumulante multivariante, véase la Sección 3.1 en, [11]
Nótese que
y, en particular
Como con una sola variable, la función generadora y el cumulante pueden definirse en cambio mediante
en cuyo caso
y
Variables aleatorias repetidas y relación entre los coeficienteskk 1 , ..., k n
Observe que también se puede escribir como
de lo cual concluimos que
Por ejemplo
y
En particular, la última igualdad muestra que los cumulantes de una sola variable aleatoria son los cumulantes conjuntos de múltiples copias de esa variable aleatoria.
Relación con momentos mixtos
Las variables aleatorias o cumulantes conjuntas se pueden expresar como una suma alternativa de productos de sus momentos mixtos , véase la ecuación (3.2.7) en [11]
donde π recorre la lista de todas las particiones de {1, ..., n } ; donde B recorre la lista de todos los bloques de la partición π ; y donde | π | es el número de partes en la partición.
Por ejemplo,
es el valor esperado de ,
es la covarianza de y , y
Para variables aleatorias de media cero , cualquier momento mixto de la forma se anula si es una partición de la cual contiene un singleton . Por lo tanto, la expresión de su cumulante conjunto en términos de momentos mixtos se simplifica. Por ejemplo, si X, Y, Z, W son variables aleatorias de media cero, tenemos
En términos más generales, cualquier coeficiente de la serie de Maclaurin también se puede expresar en términos de momentos mixtos, aunque no existen fórmulas concisas. De hecho, como se señaló anteriormente, se puede escribir como un cumulante conjunto repitiendo las variables aleatorias de manera apropiada y luego aplicar la fórmula anterior para expresarlo en términos de momentos mixtos. Por ejemplo
Si algunas de las variables aleatorias son independientes de todas las demás, entonces cualquier cumulante que involucre dos (o más) variables aleatorias independientes es cero. [ cita requerida ]
El significado combinatorio de la expresión de momentos mixtos en términos de cumulantes es más fácil de entender que el de cumulantes en términos de momentos mixtos, véase la ecuación (3.2.6) en: [11]
Por ejemplo:
Otras propiedades
Otra propiedad importante de los cumulantes conjuntos es la multilinealidad:
Así como el segundo cumulante es la varianza, el cumulante conjunto de sólo dos variables aleatorias es la covarianza . La identidad familiar
se generaliza a los cumulantes:
Cumulantes condicionales y la ley de la cumulancia total
la suma es sobre todas las particiones π del conjunto {1, ..., n } de índices, y
π 1 , ..., π b son todos los "bloques" de la partición π ; la expresión κ ( X π m ) indica que el cumulante conjunto de las variables aleatorias cuyos índices están en ese bloque de la partición.
Cumulantes condicionales y expectativa condicional
Para ciertas situaciones, se puede establecer una identidad derivada entre el cumulante condicional y la esperanza condicional. Por ejemplo, supongamos que Y = X + Z donde Z es la normal estándar independiente de X , entonces para cualquier X se cumple que [13]
Los resultados también se pueden extender a la familia exponencial. [14]
Relación con la física estadística
En física estadística, muchas magnitudes extensivas (es decir, magnitudes que son proporcionales al volumen o tamaño de un sistema dado) están relacionadas con cumulantes de variables aleatorias. La conexión profunda es que, en un sistema grande, una magnitud extensiva como la energía o el número de partículas puede considerarse como la suma (por ejemplo) de la energía asociada con una serie de regiones casi independientes. El hecho de que los cumulantes de estas variables aleatorias casi independientes se sumen (casi) hace que sea razonable esperar que las magnitudes extensivas estén relacionadas con los cumulantes.
Un sistema en equilibrio con un baño térmico a temperatura T tiene una energía interna fluctuante E , que puede considerarse una variable aleatoria extraída de una distribución . La función de partición del sistema es
donde β = 1/( kT ) y k es la constante de Boltzmann y se ha utilizado la notación en lugar de para el valor esperado para evitar confusiones con la energía, E . Por lo tanto, el primer y el segundo cumulante para la energía E dan la energía promedio y la capacidad calorífica.
La energía libre de Helmholtz expresada en términos de
conecta además magnitudes termodinámicas con la función generadora de cumulantes para la energía. Las propiedades termodinámicas que son derivadas de la energía libre, como su energía interna , entropía y capacidad calorífica específica , pueden expresarse fácilmente en términos de estos cumulantes. Otra energía libre puede ser una función de otras variables como el campo magnético o el potencial químico , por ejemplo,
donde N es el número de partículas y es el potencial general. Nuevamente, la estrecha relación entre la definición de la energía libre y la función generadora de cumulantes implica que varias derivadas de esta energía libre pueden escribirse en términos de cumulantes conjuntos de E y N.
Historia
Anders Hald analiza la historia de los cumulantes . [15] [16]
Los cumulantes fueron introducidos por primera vez por Thorvald N. Thiele , en 1889, quien los llamó semiinvariantes . [17] Fueron llamados cumulantes por primera vez en un artículo de 1932 de Ronald Fisher y John Wishart . [18] Fisher fue recordado públicamente por Neyman, quien también señala citas publicadas previamente de Thiele que llamaron la atención de Fisher. [19] Stephen Stigler ha dicho [ cita requerida ] que el nombre cumulante fue sugerido a Fisher en una carta de Harold Hotelling . En un artículo publicado en 1929, Fisher las había llamado funciones de momento acumulativo . [20]
En términos más generales, los cumulantes de una secuencia { m n : n = 1, 2, 3, ... } , no necesariamente los momentos de cualquier distribución de probabilidad, son, por definición,
donde los valores de κ n para n = 1, 2, 3, ... se encuentran formalmente, es decir, solo por álgebra, sin tener en cuenta las cuestiones de si alguna serie converge. Todas las dificultades del "problema de los cumulantes" están ausentes cuando se trabaja formalmente. El ejemplo más simple es que el segundo cumulante de una distribución de probabilidad siempre debe ser no negativo, y es cero solo si todos los cumulantes superiores son cero. Los cumulantes formales no están sujetos a tales restricciones.
Cumulantes de una secuencia polinómica de tipo binomial
Para cualquier secuencia { κ n : n = 1, 2, 3, ... } de escalares en un cuerpo de característica cero, siendo considerados cumulantes formales, hay una secuencia correspondiente { μ ′ : n = 1, 2, 3, ... } de momentos formales, dada por los polinomios anteriores. [ aclaración necesaria ] [ cita necesaria ] Para esos polinomios, construya una secuencia polinómica de la siguiente manera. A partir del polinomio
haga un nuevo polinomio en estos más una variable adicional x :
y luego generalice el patrón. El patrón es que los números de bloques en las particiones mencionadas anteriormente son los exponentes en x . Cada coeficiente es un polinomio en los cumulantes; estos son los polinomios de Bell , llamados así por Eric Temple Bell . [ cita necesaria ]
Esta secuencia de polinomios es de tipo binomial . De hecho, no existen otras secuencias de tipo binomial; cada secuencia de polinomios de tipo binomial está completamente determinada por su secuencia de cumulantes formales. [ cita requerida ]
Acumulantes libres
En la fórmula de momentos-cumulantes anterior
para cumulantes conjuntos, se suma sobre todas las particiones del conjunto { 1, ..., n } . Si en cambio, se suma solo sobre las particiones que no se cruzan , entonces, al resolver estas fórmulas para los en términos de los momentos, se obtienen cumulantes libres en lugar de los cumulantes convencionales tratados anteriormente. Estos cumulantes libres fueron introducidos por Roland Speicher y juegan un papel central en la teoría de probabilidad libre . [21] [22] En esa teoría, en lugar de considerar la independencia de las variables aleatorias , definidas en términos de productos tensoriales de álgebras de variables aleatorias, se considera en cambio la independencia libre de las variables aleatorias, definida en términos de productos libres de álgebras. [22]
Los cumulantes ordinarios de grado superior a 2 de la distribución normal son cero. Los cumulantes libres de grado superior a 2 de la distribución de semicírculo de Wigner son cero. [22] Este es un aspecto en el que el papel de la distribución de Wigner en la teoría de probabilidad libre es análogo al de la distribución normal en la teoría de probabilidad convencional.
^ Aapo Hyvarinen, Juha Karhunen y Erkki Oja (2001) Análisis de componentes independientes , John Wiley & Sons . (Sección 2.7.2)
^ Hamedani, GG; Volkmer, Hans; Behboodian, J. (1 de marzo de 2012). "Una nota sobre variables aleatorias subindependientes y una clase de mezclas bivariadas". Studia Scientiarum Mathematicarum Hungarica . 49 (1): 19–25. doi :10.1556/SScMath.2011.1183.
^ Bazant, Martin (4 de febrero de 2005). "MIT 18.366 | Otoño de 2006 | Posgrado | Paseos aleatorios y difusión, lección 2: momentos, cumulantes y escalamiento". MIT OpenCourseWare . Archivado desde el original el 2022-10-07 . Consultado el 2023-09-03 .
^ Smith, Peter J. (mayo de 1995). "Una formulación recursiva del antiguo problema de obtención de momentos a partir de cumulantes y viceversa". The American Statistician . 49 (2): 217–218. doi :10.2307/2684642. JSTOR 2684642.
^ Rota, G.-C.; Shen, J. (2000). "Sobre la combinatoria de cumulantes". Journal of Combinatorial Theory, Serie A . 91 (1–2): 283–304. doi : 10.1006/jcta.1999.3017 .
^ abc Peccati, Giovanni; Taqqu, Murad S. (2011). "Caos de Wiener: momentos, cumulantes y diagramas". Serie Bocconi & Springer . 1 . doi :10.1007/978-88-470-1679-8. ISBN978-88-470-1678-1. ISSN 2039-1471.
^ Brillinger, DR (1969). "El cálculo de cumulantes mediante condicionamiento". Anales del Instituto de Matemática Estadística . 21 : 215–218. doi :10.1007/bf02532246. S2CID 122673823.
^ Dytso, Alex; Poor, H. Vincent; Shamai Shitz, Shlomo (2023). "Estimación de media condicional en ruido gaussiano: una identidad metaderivada con aplicaciones". IEEE Transactions on Information Theory . 69 (3): 1883–1898. doi :10.1109/TIT.2022.3216012. S2CID 253308274.
^ Dytso, Alex; Cardone, Martina; Zieder, Ian (2023). "Identidad metaderivada para la expectativa condicional". IEEE Transactions on Information Theory . 69 (7): 4284–4302. doi :10.1109/TIT.2023.3249163. S2CID 257247930.
^ H. Cramér (1946) Métodos matemáticos de estadística, Princeton University Press, Sección 15.10, pág. 186.
^ Fisher, RA , John Wishart, J. (1932) La derivación de las fórmulas de patrones de particiones de dos vías a partir de las de patrones más simples, Actas de la London Mathematical Society , Serie 2, v. 33, págs. 195–208 doi :10.1112/plms/s2-33.1.195
^ Neyman, J. (1956): 'Nota sobre un artículo de Sir Ronald Fisher', Journal of the Royal Statistical Society , Serie B (Metodológica), 18, págs. 288–94.
^ Fisher, RA (1929). "Momentos y momentos producto de distribuciones de muestreo" (PDF) . Actas de la London Mathematical Society . 30 : 199–238. doi :10.1112/plms/s2-30.1.199. hdl : 2440/15200 .
^ Speicher, Roland (1994). "Funciones multiplicativas en la red de particiones no cruzadas y convolución libre". Mathematische Annalen . 298 (4): 611–628. doi :10.1007/BF01459754. S2CID 123022311.