Limitación de la densidad de puntos discretos

Noción en la teoría de la información

En la teoría de la información , la densidad límite de puntos discretos es un ajuste a la fórmula de Claude Shannon para la entropía diferencial .

Fue formulado por Edwin Thompson Jaynes para abordar defectos en la definición inicial de entropía diferencial.

Definición

Shannon escribió originalmente la siguiente fórmula para la entropía de una distribución continua, conocida como entropía diferencial :

yo ( incógnita ) = pag ( incógnita ) registro pag ( incógnita ) d incógnita . {\displaystyle h(X)=-\int p(x)\log p(x)\,dx.}

Sin embargo, a diferencia de la fórmula de Shannon para la entropía discreta, esta no es el resultado de ninguna derivación (Shannon simplemente reemplazó el símbolo de suma en la versión discreta con una integral), y carece de muchas de las propiedades que hacen de la entropía discreta una medida útil de incertidumbre. En particular, no es invariante bajo un cambio de variables y puede volverse negativa. Además, ni siquiera es dimensionalmente correcta. Dado que sería adimensional, debe tener unidades de , lo que significa que el argumento del logaritmo no es adimensional como se requiere. yo ( incógnita ) {\estilo de visualización h(X)} pag ( incógnita ) {\estilo de visualización p(x)} 1 d incógnita {\displaystyle {\frac {1}{dx}}}

Jaynes argumentó que la fórmula para la entropía continua debería derivarse tomando el límite de distribuciones discretas cada vez más densas. [1] [2] Supongamos que tenemos un conjunto de puntos discretos , tales que en el límite su densidad se aproxima a una función llamada "medida invariante": norte {\estilo de visualización N} { incógnita i } {\displaystyle \{x_{i}\}} norte {\displaystyle N\to \infty} metro ( incógnita ) {\estilo de visualización m(x)}

límite norte 1 norte ( número de puntos en  a < incógnita < b ) = a b metro ( incógnita ) d incógnita . {\displaystyle \lim _{N\to \infty }{\frac {1}{N}}\,({\mbox{número de puntos en }}a<x<b)=\int _{a}^{b}m(x)\,dx.}

Jaynes derivó de esto la siguiente fórmula para la entropía continua, que según él debería tomarse como la fórmula correcta:

límite norte yo norte ( incógnita ) = registro ( norte ) pag ( incógnita ) registro pag ( incógnita ) metro ( incógnita ) d incógnita . {\displaystyle \lim_{N\rightarrow \infty}H_{N}(X)=\log(N)-\int p(x)\log {\frac {p(x)}{m(x)}}\,dx.}

Normalmente, cuando se escribe así, se omite el término, ya que normalmente no sería finito. Por lo tanto, la definición común real es registro ( norte ) {\displaystyle \log(N)}

yo ( incógnita ) = pag ( incógnita ) registro pag ( incógnita ) metro ( incógnita ) d incógnita . {\displaystyle H(X)=-\int p(x)\log {\frac {p(x)}{m(x)}}\,dx.}

Cuando no esté claro si se debe omitir o no el término, se podría escribir registro ( norte ) {\displaystyle \log(N)}

yo norte ( incógnita ) registro ( norte ) + yo ( incógnita ) . {\displaystyle H_{N}(X)\sim \log(N)+H(X).}

Obsérvese que en la fórmula de Jaynes, es una densidad de probabilidad. Para cualquier número finito que [ se necesita más explicación ] es una densidad uniforme sobre la cuantificación del espacio continuo que se utiliza en la suma de Riemann. En el límite, es la densidad límite continua de puntos en la cuantificación utilizada para representar la variable continua . metro ( incógnita ) {\estilo de visualización m(x)} norte {\estilo de visualización N} metro ( incógnita ) {\estilo de visualización m(x)} metro ( incógnita ) {\estilo de visualización m(x)} incógnita {\estilo de visualización x}

Supongamos que uno tuviera un formato de número que tomara valores posibles, distribuidos como . Entonces (si es lo suficientemente grande como para que la aproximación continua sea válida) es la entropía discreta de la variable en esta codificación. Esto es igual al número promedio de bits requeridos para transmitir esta información, y no es más que . Por lo tanto, puede considerarse como la cantidad de información obtenida al saber que la variable sigue la distribución , y no está distribuida uniformemente sobre los posibles valores cuantificados, como sería el caso si siguiera . es en realidad la divergencia de Kullback-Leibler (negativa) de a , que se considera como la información obtenida al saber que una variable que previamente se pensó que estaba distribuida como en realidad está distribuida como . norte {\estilo de visualización N} metro ( incógnita ) {\estilo de visualización m(x)} yo norte ( incógnita ) Estilo de visualización H_{N}(X)} norte {\estilo de visualización N} incógnita {\estilo de visualización x} registro ( norte ) {\displaystyle \log(N)} yo ( incógnita ) {\estilo de visualización H(X)} incógnita {\estilo de visualización x} pag ( incógnita ) {\estilo de visualización p(x)} metro ( incógnita ) {\estilo de visualización m(x)} yo ( incógnita ) {\estilo de visualización H(X)} metro ( incógnita ) {\estilo de visualización m(x)} pag ( incógnita ) {\estilo de visualización p(x)} metro ( incógnita ) {\estilo de visualización m(x)} pag ( incógnita ) {\estilo de visualización p(x)}

La fórmula de entropía continua de Jaynes tiene la propiedad de ser invariante ante un cambio de variables, siempre que y se transformen de la misma manera. (Esto motiva el nombre de "medida invariante" para m .) Esto resuelve muchas de las dificultades que surgen de la aplicación de la fórmula de entropía continua de Shannon. El propio Jaynes eliminó el término porque no era relevante para su trabajo (distribuciones de entropía máxima), y es algo extraño tener un término infinito en el cálculo. Desafortunadamente, esto no se puede evitar si la cuantificación se hace arbitrariamente fina, como sería el caso en el límite continuo. Tenga en cuenta que, como se define aquí (sin el término), siempre sería no positivo, porque una divergencia KL siempre sería no negativa. metro ( incógnita ) {\estilo de visualización m(x)} pag ( incógnita ) {\estilo de visualización p(x)} registro ( norte ) {\displaystyle \log(N)} yo ( incógnita ) {\estilo de visualización H(X)} registro ( norte ) {\displaystyle \log(N)}

Si es el caso que es constante en algún intervalo de tamaño , y es esencialmente cero fuera de ese intervalo, entonces la densidad límite de puntos discretos (LDDP) está estrechamente relacionada con la entropía diferencial : metro ( incógnita ) {\estilo de visualización m(x)} a {\estilo de visualización r} pag ( incógnita ) {\estilo de visualización p(x)} yo ( incógnita ) {\estilo de visualización h(X)}

yo norte ( incógnita ) registro ( norte ) registro ( a ) + yo ( incógnita ) . {\displaystyle H_{N}(X)\approx \log(N)-\log(r)+h(X).}

Referencias

  1. ^ Jaynes, ET (1963). "Teoría de la información y mecánica estadística". En K. Ford (ed.). Física estadística (PDF) . Benjamin, Nueva York. pág. 181.
  2. ^ Jaynes, ET (1968). "Probabilidades previas" (PDF) . IEEE Transactions on Systems Science and Cybernetics . SSC-4 (3): 227–241. doi :10.1109/TSSC.1968.300117.

Lectura adicional

  • Jaynes, ET (2003). Teoría de la probabilidad: la lógica de la ciencia . Cambridge University Press. ISBN 978-0521592710.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Limiting_density_of_discrete_points&oldid=1223924556"