Unidades de información |
Teórica de la información |
---|
Almacenamiento de datos |
Información cuántica |
El hartley (símbolo Hart ), también llamado ban , o dit (abreviatura de "dígito decimal"), [1] [2] [3] es una unidad logarítmica que mide la información o entropía , basada en logaritmos de base 10 y potencias de 10. Un hartley es el contenido de información de un evento si la probabilidad de que ese evento ocurra es 1 ⁄ 10 . [4] Por lo tanto, es igual a la información contenida en un dígito decimal (o dit), asumiendo a priori la equiprobabilidad de cada valor posible. Recibe su nombre en honor a Ralph Hartley .
Si se utilizan en cambio logaritmos de base 2 y potencias de 2, entonces la unidad de información es el shannon o bit , que es el contenido de información de un evento si la probabilidad de que ese evento ocurra es 1 ⁄ 2. Los logaritmos naturales y las potencias de e definen el nat .
Un ban corresponde a ln(10) nat = log 2 (10) Sh , o aproximadamente 2,303 nat , o 3,322 bit (3,322 Sh). [a] Un deciban es una décima parte de un ban (o aproximadamente 0,332 Sh); el nombre se forma a partir de ban con el prefijo SI deci- .
Aunque no existe una unidad SI asociada , la entropía de información es parte del Sistema Internacional de Cantidades , definido por la Norma Internacional IEC 80000-13 de la Comisión Electrotécnica Internacional .
El término hartley recibe su nombre de Ralph Hartley , quien sugirió en 1928 medir la información utilizando una base logarítmica igual al número de estados distinguibles en su representación, que sería la base 10 para un dígito decimal. [5] [6]
El ban y el deciban fueron inventados por Alan Turing junto con Irving John "Jack" Good en 1940 para medir la cantidad de información que podían deducir los descifradores de códigos de Bletchley Park utilizando el procedimiento Banburismus , con el fin de determinar la configuración desconocida de cada día de la máquina de cifrado naval alemana Enigma . El nombre se inspiró en las enormes hojas de cartón, impresas en la ciudad de Banbury, a unos 50 kilómetros de distancia, que se utilizaban en el proceso. [7]
Good argumentó que la suma secuencial de decibanes para construir una medida del peso de la evidencia a favor de una hipótesis es esencialmente una inferencia bayesiana . [7] Donald A. Gillies , sin embargo, argumentó que la prohibición es, en efecto, lo mismo que la medida de Karl Popper de la severidad de una prueba. [8]
El deciban es una unidad particularmente útil para log-odds , en particular como medida de información en factores de Bayes , odds ratios (razón de probabilidades, por lo que log es la diferencia de log-odds) o pesos de evidencia. 10 decibans corresponden a probabilidades de 10:1; 20 decibans a probabilidades de 100:1, etc. Según Good, un cambio en un peso de evidencia de 1 deciban (es decir, un cambio en las probabilidades de pares a aproximadamente 5:4) es aproximadamente lo más fino con lo que se puede esperar razonablemente que los humanos cuantifiquen su grado de creencia en una hipótesis. [9]
Las probabilidades correspondientes a los decibanos enteros a menudo se pueden aproximar bien mediante razones de números enteros simples; estas se recopilan a continuación. Valor con dos decimales, aproximación simple (con un margen de error de aproximadamente el 5 %), con una aproximación más precisa (con un margen de error del 1 %) si la simple es inexacta:
decibanos | valor exacto | valor aproximado | proporción aproximada | proporción precisa | probabilidad |
---|---|---|---|---|---|
0 | 10 0/10 | 1 | 1:1 | 50% | |
1 | 10 1/10 | 1.26 | 5:4 | 56% | |
2 | 10 2/10 | 1.58 | 3:2 | 8:5 | 61% |
3 | 10 3/10 | 2.00 | 2:1 | 67% | |
4 | 10 4/10 | 2.51 | 5:2 | 71,5% | |
5 | 10 5/10 | 3.16 | 3:1 | 19:6, 16:5 | 76% |
6 | 10 6/10 | 3,98 | 4:1 | 80% | |
7 | 10 7/10 | 5.01 | 5:1 | 83% | |
8 | 10 8/10 | 6.31 | 6:1 | 19:3, 25:4 | 86% |
9 | 10 9/10 | 7,94 | 8:1 | 89% | |
10 | 10 10/10 | 10 | 10:1 | 91% |