Hartley (unidad)

Unidad de información

El hartley (símbolo Hart ), también llamado ban , o dit (abreviatura de "dígito decimal"), [1] [2] [3] es una unidad logarítmica que mide la información o entropía , basada en logaritmos de base 10 y potencias de 10. Un hartley es el contenido de información de un evento si la probabilidad de que ese evento ocurra es 110 . [4] Por lo tanto, es igual a la información contenida en un dígito decimal (o dit), asumiendo a priori la equiprobabilidad de cada valor posible. Recibe su nombre en honor a Ralph Hartley .

Si se utilizan en cambio logaritmos de base 2 y potencias de 2, entonces la unidad de información es el shannon o bit , que es el contenido de información de un evento si la probabilidad de que ese evento ocurra es 12. Los logaritmos naturales y las potencias de e definen el nat .

Un ban corresponde a ln(10) nat = log 2 (10) Sh , o aproximadamente 2,303 nat , o 3,322 bit (3,322 Sh). [a] Un deciban es una décima parte de un ban (o aproximadamente 0,332 Sh); el nombre se forma a partir de ban con el prefijo SI deci- .

Aunque no existe una unidad SI asociada , la entropía de información es parte del Sistema Internacional de Cantidades , definido por la Norma Internacional IEC 80000-13 de la Comisión Electrotécnica Internacional .

Historia

El término hartley recibe su nombre de Ralph Hartley , quien sugirió en 1928 medir la información utilizando una base logarítmica igual al número de estados distinguibles en su representación, que sería la base 10 para un dígito decimal. [5] [6]

El ban y el deciban fueron inventados por Alan Turing junto con Irving John "Jack" Good en 1940 para medir la cantidad de información que podían deducir los descifradores de códigos de Bletchley Park utilizando el procedimiento Banburismus , con el fin de determinar la configuración desconocida de cada día de la máquina de cifrado naval alemana Enigma . El nombre se inspiró en las enormes hojas de cartón, impresas en la ciudad de Banbury, a unos 50 kilómetros de distancia, que se utilizaban en el proceso. [7]

Good argumentó que la suma secuencial de decibanes para construir una medida del peso de la evidencia a favor de una hipótesis es esencialmente una inferencia bayesiana . [7] Donald A. Gillies , sin embargo, argumentó que la prohibición es, en efecto, lo mismo que la medida de Karl Popper de la severidad de una prueba. [8]

Uso como unidad de probabilidades

El deciban es una unidad particularmente útil para log-odds , en particular como medida de información en factores de Bayes , odds ratios (razón de probabilidades, por lo que log es la diferencia de log-odds) o pesos de evidencia. 10 decibans corresponden a probabilidades de 10:1; 20 decibans a probabilidades de 100:1, etc. Según Good, un cambio en un peso de evidencia de 1 deciban (es decir, un cambio en las probabilidades de pares a aproximadamente 5:4) es aproximadamente lo más fino con lo que se puede esperar razonablemente que los humanos cuantifiquen su grado de creencia en una hipótesis. [9]

Las probabilidades correspondientes a los decibanos enteros a menudo se pueden aproximar bien mediante razones de números enteros simples; estas se recopilan a continuación. Valor con dos decimales, aproximación simple (con un margen de error de aproximadamente el 5 %), con una aproximación más precisa (con un margen de error del 1 %) si la simple es inexacta:

decibanos
valor exacto

valor aproximado

proporción aproximada

proporción precisa
probabilidad
010 0/1011:150%
110 1/101.265:456%
210 2/101.583:28:561%
310 3/102.002:167%
410 4/102.515:271,5%
510 5/103.163:119:6, 16:576%
610 6/103,984:180%
710 7/105.015:183%
810 8/106.316:119:3, 25:486%
910 9/107,948:189%
1010 10/101010:191%

Véase también

Notas

  1. ^ Este valor, aproximadamente 103 , pero ligeramente menor, se puede entender simplemente porque : 3 dígitos decimales son ligeramente menos información que 10 dígitos binarios, por lo que 1 dígito decimal es ligeramente menor que 103 dígitos binarios. 10 3 = 1 , 000 1 , 024 = 2 10 {\displaystyle 10^{3}=1,000\lessim 1,024=2^{10}}

Referencias

  1. ^ Klar, Rainer (1 de febrero de 1970). "1.8.1 Begriffe aus der Informationstheorie" [1.8.1 Términos utilizados en teoría de la información]. Digitale Rechenautomaten – Eine Einführung [ Computadoras digitales – Introducción ]. Sammlung Göschen (en alemán). vol. 1241/1241a (1 ed.). Berlín, Alemania: Walter de Gruyter & Co. / GJ Göschen'sche Verlagsbuchhandlung  [de] . pag. 35.ISBN 3-11-083160-0. ISBN 978-3-11-083160-3 . Archiv-Nr. 7990709. Archivado desde el original el 18 de abril de 2020 . Consultado el 13 de abril de 2020 . (205 páginas) (NB. Una reimpresión de 2019 de la primera edición está disponible bajo el ISBN 3-11002793-3 , 978-3-11002793-8 . También existe una cuarta edición reelaborada y ampliada). 
  2. ^ Klar, Rainer (1989) [1 de octubre de 1988]. "1.9.1 Begriffe aus der Informationstheorie" [1.9.1 Términos utilizados en teoría de la información]. Digitale Rechenautomaten – Eine Einführung in die Struktur von Computerhardware [ Computadoras digitales: una introducción a la estructura del hardware de una computadora ]. Sammlung Göschen (en alemán). vol. 2050 (cuarta edición reelaborada). Berlín, Alemania: Walter de Gruyter & Co. p. 57.ISBN 3-11011700-2. ISBN 978-3-11011700-4 . (320 páginas)
  3. ^ Lukoff, Herman (1979). From Dits to Bits: A personal history of the electronic computer [De Dits a Bits: Una historia personal de la computadora electrónica ]. Portland, Oregón, EE. UU.: Robotics Press. ISBN 0-89661-002-0. Número de LCCN  79-90567.
  4. ^ "IEC 80000-13:2008". Organización Internacional de Normalización (ISO) . Consultado el 21 de julio de 2013 .
  5. ^ Hartley, Ralph Vinton Lyon (julio de 1928). "Transmisión de información" (PDF) . Bell System Technical Journal . VII (3): 535–563 . Consultado el 27 de marzo de 2008 .
  6. ^ Reza, Fazlollah M. (1994). Introducción a la teoría de la información . Nueva York: Dover Publications . ISBN 0-486-68210-2.
  7. ^ ab Good, Irving John (1979). "Estudios en la historia de la probabilidad y la estadística. XXXVII AM El trabajo estadístico de Turing en la Segunda Guerra Mundial". Biometrika . 66 (2): 393–396. doi :10.1093/biomet/66.2.393. MR  0548210.
  8. ^ Gillies, Donald A. (1990). "La función de ponderación de la evidencia de Turing-Good y la medida de Popper de la severidad de una prueba". British Journal for the Philosophy of Science . 41 (1): 143–146. doi :10.1093/bjps/41.1.143. JSTOR  688010. MR  0055678.
  9. ^ Good, Irving John (1985). "Peso de la evidencia: una breve encuesta" (PDF) . Bayesian Statistics . 2 : 253. Consultado el 13 de diciembre de 2012 .
Obtenido de "https://es.wikipedia.org/w/index.php?title=Hartley_(unidad)&oldid=1180350458"