Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático , ingeniero eléctrico , informático , criptógrafo e inventor estadounidense conocido como el «padre de la teoría de la información » y como el «padre de la era de la información ». [1] Shannon fue el primero en describir las puertas booleanas (circuitos electrónicos) que son esenciales para todos los circuitos electrónicos digitales, y fue uno de los padres fundadores de la inteligencia artificial . [2] [3] [4] [1] A Shannon se le atribuye haber sentado las bases de la era de la información . [5] [6] [7]
En la Universidad de Michigan , Shannon obtuvo una doble titulación , graduándose con una Licenciatura en Ciencias tanto en ingeniería eléctrica como en matemáticas en 1936. A los 21 años, era un estudiante de maestría en el Instituto Tecnológico de Massachusetts (MIT) en ingeniería eléctrica, su tesis se centró en la teoría de circuitos de conmutación , demostrando que las aplicaciones eléctricas del álgebra de Boole podían construir cualquier relación numérica lógica, [8] estableciendo así la teoría detrás de la computación digital y los circuitos digitales . [9] Se ha afirmado que la tesis es la tesis de maestría más importante de todos los tiempos, [8] ya que en 1985, Howard Gardner la describió como "posiblemente la tesis de maestría más importante, y también la más famosa, del siglo", [10] mientras que Herman Goldstine la describió como "seguramente ... una de las tesis de maestría más importantes jamás escritas ... Ayudó a cambiar el diseño de circuitos digitales de un arte a una ciencia". [11] También se le ha llamado el "certificado de nacimiento de la revolución digital ", [12] y ganó el Premio Alfred Noble en 1939. [ 13] Shannon luego se graduó con un doctorado en matemáticas del MIT en 1940, [14] con su tesis centrada en la genética , con la que derivó resultados importantes, pero no se publicó. [15]
Shannon contribuyó al campo del criptoanálisis para la defensa nacional de los Estados Unidos durante la Segunda Guerra Mundial , incluido su trabajo fundamental sobre descifrado de códigos y telecomunicaciones seguras , escribiendo un artículo que se considera una de las piezas fundamentales de la criptografía moderna, [16] con su trabajo descrito como "un punto de inflexión, y marcó el cierre de la criptografía clásica y el comienzo de la criptografía moderna". [17] El trabajo de Shannon es la base de la criptografía de clave secreta , incluido el trabajo de Horst Feistel , el Estándar de cifrado de datos (DES) , el Estándar de cifrado avanzado (AES) y más. [17] Como resultado, Shannon ha sido llamado el "padre fundador de la criptografía moderna". [18]
Su teoría matemática de la comunicación sentó las bases para el campo de la teoría de la información, [19] [14] con su famoso artículo llamado la " Carta Magna de la Era de la Información" por Scientific American , [6] [20] junto con su trabajo descrito como "el corazón de la tecnología de la información digital actual ". [21] Robert G. Gallager se refirió al artículo como un "plan para la era digital". [22] Con respecto a la influencia que Shannon tuvo en la era digital, Solomon W. Golomb comentó "Es como decir cuánta influencia ha tenido el inventor del alfabeto en la literatura". [19] La teoría de Shannon es ampliamente utilizada y ha sido fundamental para el éxito de muchos esfuerzos científicos, como la invención del disco compacto , el desarrollo de Internet , la viabilidad de los teléfonos móviles, la comprensión de los agujeros negros y más, y está en la intersección de numerosos campos importantes. [23] [24] Shannon también introdujo formalmente el término " bit ". [25] [7]
Shannon hizo numerosas contribuciones al campo de la inteligencia artificial, [2] escribiendo artículos sobre la programación de una computadora para ajedrez, que han sido inmensamente influyentes. [26] [27] Su máquina de Teseo fue el primer dispositivo eléctrico que aprendió por ensayo y error, siendo uno de los primeros ejemplos de inteligencia artificial. [28] [29] También coorganizó y participó en el taller de Dartmouth de 1956, considerado el evento fundador del campo de la inteligencia artificial. [30] [31]
Rodney Brooks declaró que Shannon fue el ingeniero del siglo XX que más contribuyó a las tecnologías del siglo XXI, [28] y Solomon W. Golomb describió el logro intelectual de Shannon como "uno de los más grandes del siglo XX". [32] Sus logros se consideran a la par con los de Albert Einstein , Sir Isaac Newton y Charles Darwin . [5] [19] [4] [33]
La familia Shannon vivía en Gaylord, Michigan , y Claude nació en un hospital en las cercanías de Petoskey . [3] Su padre, Claude Sr. (1862-1934), era un hombre de negocios y, durante un tiempo, juez de sucesiones en Gaylord. Su madre, Mabel Wolf Shannon (1880-1945), era profesora de idiomas, que también se desempeñó como directora de la escuela secundaria de Gaylord . [34] Claude Sr. era descendiente de colonos de Nueva Jersey , mientras que Mabel era hija de inmigrantes alemanes. [3] La familia de Shannon fue activa en su Iglesia Metodista durante su juventud. [35]
La mayor parte de los primeros 16 años de su vida transcurrieron en Gaylord, donde asistió a la escuela pública y se graduó de la Gaylord High School en 1932. Shannon mostró una inclinación hacia las cosas mecánicas y eléctricas. Sus mejores materias eran ciencias y matemáticas. En casa, construyó dispositivos como modelos de aviones, un modelo de barco controlado por radio y un sistema de telégrafo con alambre de púas para la casa de un amigo a media milla de distancia. [36] Mientras crecía, también trabajó como mensajero para la compañía Western Union .
El héroe de la infancia de Shannon fue Thomas Edison , de quien más tarde se enteró que era un primo lejano. Tanto Shannon como Edison eran descendientes de John Ogden (1609-1682), un líder colonial y antepasado de muchas personas distinguidas. [37] [38]
En 1932, Shannon ingresó en la Universidad de Michigan , donde conoció el trabajo de George Boole . Se graduó en 1936 con dos títulos de licenciatura : uno en ingeniería eléctrica y otro en matemáticas.
En 1936, Shannon comenzó sus estudios de posgrado en ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT), donde trabajó en el analizador diferencial de Vannevar Bush , que era una computadora analógica temprana que estaba compuesta de partes electromecánicas y podía resolver ecuaciones diferenciales . [39] Mientras estudiaba los complicados circuitos ad hoc de este analizador, Shannon diseñó circuitos de conmutación basados en los conceptos de Boole . En 1937, escribió su tesis de maestría , Un análisis simbólico de relés y circuitos de conmutación , [40] con un artículo de esta tesis publicado en 1938. [41] Un trabajo revolucionario para la teoría de circuitos de conmutación , Shannon diagramó circuitos de conmutación que podían implementar los operadores esenciales del álgebra de Boole . Luego demostró que sus circuitos de conmutación podían usarse para simplificar la disposición de los relés electromecánicos que se usaban durante ese tiempo en los conmutadores de enrutamiento de llamadas telefónicas . A continuación, amplió este concepto, demostrando que estos circuitos podían resolver todos los problemas que el álgebra de Boole podía resolver. En el último capítulo, presentó diagramas de varios circuitos, incluido un sumador completo digital de 4 bits. [40] Su trabajo difería significativamente del trabajo de ingenieros anteriores como Akira Nakashima , que todavía confiaba en la teoría de circuitos existente de la época y adoptó un enfoque fundamentado. [42] La idea de Shannon era más abstracta y se basaba en las matemáticas, abriendo así nuevos caminos con su trabajo, con su enfoque dominando la ingeniería eléctrica moderna. [42]
El uso de interruptores eléctricos para implementar la lógica es el concepto fundamental que subyace a todas las computadoras digitales electrónicas . El trabajo de Shannon se convirtió en la base del diseño de circuitos digitales , ya que se hizo ampliamente conocido en la comunidad de ingeniería eléctrica durante y después de la Segunda Guerra Mundial . El rigor teórico del trabajo de Shannon reemplazó los métodos ad hoc que habían prevalecido anteriormente. Howard Gardner elogió la tesis de Shannon como "posiblemente la tesis de maestría más importante y también la más destacada del siglo". [43] Uno de los revisores de su trabajo comentó que "hasta donde yo sé, esta es la primera aplicación de los métodos de lógica simbólica a un problema de ingeniería tan práctico. Desde el punto de vista de la originalidad, califico el artículo como sobresaliente". [44] La tesis de maestría de Shannon ganó el Premio Alfred Noble de 1939 .
Shannon recibió su doctorado en matemáticas del MIT en 1940. [37] Vannevar Bush había sugerido que Shannon debería trabajar en su disertación en el Laboratorio Cold Spring Harbor , con el fin de desarrollar una formulación matemática para la genética mendeliana . Esta investigación dio como resultado la tesis doctoral de Shannon, llamada Un álgebra para la genética teórica . [45] Sin embargo, la tesis no se publicó después de que Shannon perdiera el interés, pero contenía resultados importantes. [15] Cabe destacar que fue uno de los primeros en aplicar un marco algebraico para estudiar la genética de poblaciones teórica. [46] Además, Shannon ideó una expresión general para la distribución de varios rasgos vinculados en una población después de múltiples generaciones bajo un sistema de apareamiento aleatorio, que era original en ese momento, [47] con el nuevo teorema sin resolver por otros genetistas de poblaciones de la época. [48]
En 1940, Shannon se convirtió en investigador nacional en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey . En Princeton, Shannon tuvo la oportunidad de discutir sus ideas con científicos y matemáticos influyentes como Hermann Weyl y John von Neumann , y también tuvo encuentros ocasionales con Albert Einstein y Kurt Gödel . Shannon trabajó libremente en distintas disciplinas, y esta capacidad puede haber contribuido a su posterior desarrollo de la teoría de la información matemática. [49]
Shannon había trabajado en Bell Labs durante unos meses en el verano de 1937, [50] y regresó allí para trabajar en sistemas de control de fuego y criptografía durante la Segunda Guerra Mundial , bajo un contrato con la sección D-2 (sección de Sistemas de Control) del Comité Nacional de Investigación de Defensa (NDRC).
A Shannon se le atribuye la invención de los gráficos de flujo de señales , en 1942. Descubrió la fórmula de ganancia topológica mientras investigaba el funcionamiento de una computadora analógica. [51]
Durante dos meses a principios de 1943, Shannon entró en contacto con el destacado matemático británico Alan Turing . Turing había sido destinado a Washington para compartir con el servicio criptoanalítico de la Armada de los Estados Unidos los métodos utilizados por la Escuela de Códigos y Cifras del Gobierno británico en Bletchley Park para descifrar los códigos utilizados por los submarinos de la Kriegsmarine en el océano Atlántico norte . [52] También estaba interesado en el cifrado del habla y con este fin pasó un tiempo en Bell Labs. Shannon y Turing se conocieron a la hora del té en la cafetería. [52] Turing le mostró a Shannon su artículo de 1936 que definía lo que ahora se conoce como la " máquina universal de Turing ". [53] [54] Esto impresionó a Shannon, ya que muchas de sus ideas complementaban las suyas.
En 1945, cuando la guerra estaba llegando a su fin, la NDRC estaba publicando un resumen de informes técnicos como último paso antes de su eventual cierre. Dentro del volumen sobre control de fuego, un ensayo especial titulado Data Smoothing and Prediction in Fire-Control Systems , coescrito por Shannon, Ralph Beebe Blackman y Hendrik Wade Bode , trató formalmente el problema de suavizar los datos en el control de fuego por analogía con "el problema de separar una señal del ruido interferente en los sistemas de comunicaciones". [55] En otras palabras, modeló el problema en términos de procesamiento de datos y señales y, por lo tanto, anunció la llegada de la Era de la Información .
El trabajo de Shannon sobre criptografía estaba aún más relacionado con sus publicaciones posteriores sobre teoría de la comunicación . [56] Al final de la guerra, preparó un memorando clasificado para Bell Telephone Labs titulado "Una teoría matemática de la criptografía", fechado en septiembre de 1945. Una versión desclasificada de este documento se publicó en 1949 como " Teoría de la comunicación de los sistemas secretos " en el Bell System Technical Journal . Este documento incorporaba muchos de los conceptos y formulaciones matemáticas que también aparecieron en su Una teoría matemática de la comunicación . Shannon dijo que sus ideas de guerra sobre la teoría de la comunicación y la criptografía se desarrollaron simultáneamente, y que "estaban tan juntas que no se podían separar". [57] En una nota al pie cerca del comienzo del informe clasificado, Shannon anunció su intención de "desarrollar estos resultados... en un próximo memorando sobre la transmisión de información". [58]
Mientras estaba en Bell Labs, Shannon demostró que el block criptográfico de un solo uso es irrompible en su investigación clasificada que fue publicada más tarde en 1949. El mismo artículo también demostró que cualquier sistema irrompible debe tener esencialmente las mismas características que el block criptográfico de un solo uso: la clave debe ser verdaderamente aleatoria, tan grande como el texto sin formato, nunca reutilizada en su totalidad o en parte, y mantenida en secreto. [59]
En 1948, el memorándum prometido apareció como "Una teoría matemática de la comunicación", un artículo en dos partes en los números de julio y octubre del Bell System Technical Journal . Este trabajo se centra en el problema de cómo codificar mejor el mensaje que un emisor quiere transmitir. Shannon desarrolló la entropía de la información como una medida del contenido de información en un mensaje, que es una medida de la incertidumbre reducida por el mensaje. Al hacerlo, inventó esencialmente el campo de la teoría de la información .
El libro The Mathematical Theory of Communication [60] reimprime el artículo de Shannon de 1948 y la popularización que hizo Warren Weaver de él, que es accesible para los no especialistas. Weaver señaló que la palabra "información" en la teoría de la comunicación no está relacionada con lo que uno dice, sino con lo que podría decir. Es decir, la información es una medida de la libertad de elección de uno cuando selecciona un mensaje. Los conceptos de Shannon también se popularizaron, sujetos a su propia corrección, en Symbols, Signals, and Noise de John Robinson Pierce .
La contribución fundamental de la teoría de la información al procesamiento del lenguaje natural y a la lingüística computacional se estableció aún más en 1951, en su artículo "Predicción y entropía del inglés impreso", que muestra los límites superior e inferior de la entropía en las estadísticas del inglés, lo que proporciona una base estadística para el análisis del lenguaje. Además, demostró que tratar el espacio como la 27.ª letra del alfabeto en realidad reduce la incertidumbre en el lenguaje escrito, lo que proporciona un vínculo cuantificable claro entre la práctica cultural y la cognición probabilística.
Otro artículo notable publicado en 1949 es " Teoría de la comunicación de los sistemas secretos ", una versión desclasificada de su trabajo de guerra sobre la teoría matemática de la criptografía, en la que demostró que todos los cifrados teóricamente irrompibles deben tener los mismos requisitos que el bloc de un solo uso. Se le atribuye la introducción del teorema de muestreo , que había derivado ya en 1940, [61] y que se ocupa de la representación de una señal de tiempo continuo a partir de un conjunto discreto (uniforme) de muestras. Esta teoría fue esencial para permitir que las telecomunicaciones pasaran de los sistemas de transmisión analógicos a los digitales en la década de 1960 y posteriormente. Además, escribió un artículo en 1956 sobre la codificación de un canal ruidoso, que también se convirtió en un artículo clásico en el campo de la teoría de la información. [62]
La influencia de Claude Shannon ha sido inmensa en este campo; por ejemplo, en una recopilación de artículos clave en el campo de la teoría de la información publicada en 1973, fue autor o coautor de 12 de los 49 artículos citados, mientras que nadie más apareció más de tres veces. [63] Incluso más allá de su artículo original de 1948, todavía se le considera el contribuyente más importante a la teoría posterior a 1948. [63]
En mayo de 1951, Mervin Kelly recibió una solicitud del director de la CIA , el general Walter Bedell Smith , en relación con Shannon y la necesidad de contar con él, ya que Shannon era considerado, basándose en "la mejor autoridad", el "científico más eminentemente calificado en el campo particular en cuestión". [64] Como resultado de la solicitud, Shannon pasó a formar parte del Grupo Asesor Criptológico Especial de la CIA o SCAG. [64]
En 1950, Shannon diseñó y construyó con la ayuda de su esposa una máquina de aprendizaje llamada Theseus. Consistía en un laberinto sobre una superficie, a través del cual podía moverse un ratón mecánico. Debajo de la superficie había sensores que seguían la trayectoria de un ratón mecánico a través del laberinto. Después de mucho ensayo y error, este dispositivo aprendería el camino más corto a través del laberinto y dirigiría al ratón mecánico a través del laberinto. El patrón del laberinto podía cambiarse a voluntad. [29]
Mazin Gilbert afirmó que Teseo “inspiró todo el campo de la IA. Este ensayo y error aleatorios son la base de la inteligencia artificial”. [29]
Shannon escribió varios artículos influyentes sobre inteligencia artificial, como su artículo de 1950 titulado "Programación de una computadora para jugar ajedrez" y su artículo de 1953 titulado "Computadoras y autómatas". [65] Junto con John McCarthy , coeditó un libro titulado Automata Studies , que se publicó en 1956. [62] Las categorías en los artículos dentro del volumen fueron influenciadas por los propios encabezados de temas de Shannon en su artículo de 1953. [62] Shannon compartía el objetivo de McCarthy de crear una ciencia de máquinas inteligentes, pero también tenía una visión más amplia de los enfoques viables en los estudios de autómatas, como las redes neuronales, las máquinas de Turing, los mecanismos cibernéticos y el procesamiento simbólico por computadora. [62]
Shannon coorganizó y participó en el taller de Dartmouth de 1956, junto a John McCarthy, Marvin Minsky y Nathaniel Rochester , y que se considera el evento fundador del campo de la inteligencia artificial. [66] [67]
En 1956, Shannon se incorporó al cuerpo docente del MIT, donde ocupó una cátedra. Trabajó en el Laboratorio de Investigación en Electrónica (RLE, por sus siglas en inglés) y continuó trabajando en el cuerpo docente del MIT hasta 1978.
Shannon desarrolló la enfermedad de Alzheimer y pasó los últimos años de su vida en un asilo de ancianos ; murió en 2001, sobreviviendo su esposa, un hijo y una hija, y dos nietas. [68] [69]
Además de sus actividades académicas, Shannon se interesó por el malabarismo , el monociclo y el ajedrez . También inventó muchos dispositivos, entre ellos una computadora de números romanos llamada THROBAC y máquinas de malabarismo . [70] [71] Construyó un dispositivo que podía resolver el rompecabezas del cubo de Rubik . [37]
Shannon también inventó las trompetas lanzallamas , los frisbees propulsados por cohetes y los zapatos de espuma plástica para navegar en un lago, y que para un observador, parecerían como si Shannon estuviera caminando sobre el agua. [72]
Shannon diseñó el Minivac 601 , un entrenador informático digital para enseñar a los empresarios cómo funcionaban las computadoras. Fue comercializado por la Scientific Development Corp a partir de 1961. [73]
También se le considera el co-inventor de la primera computadora portátil junto con Edward O. Thorp . [74] El dispositivo se utilizó para mejorar las probabilidades al jugar a la ruleta .
Shannon se casó con Norma Levor , una intelectual judía de izquierdas y adinerada, en enero de 1940. El matrimonio terminó en divorcio después de aproximadamente un año. Levor se casó más tarde con Ben Barzman . [75]
Shannon conoció a su segunda esposa, Mary Elizabeth Moore (Betty), cuando ella era analista numérica en Bell Labs. Se casaron en 1949. [68] Betty ayudó a Claude a construir algunos de sus inventos más famosos. [76] Tuvieron tres hijos. [77]
Shannon se presentó como apolítico y ateo . [78]
Hay seis estatuas de Shannon esculpidas por Eugene Daub : una en la Universidad de Michigan ; una en el MIT en el Laboratorio de Sistemas de Información y Decisión ; una en Gaylord, Michigan; una en la Universidad de California, San Diego ; una en Bell Labs; y otra en AT&T Shannon Labs . [79] La estatua en Gaylord está ubicada en el Claude Shannon Memorial Park. [80] Después de la desintegración del Bell System , la parte de Bell Labs que permaneció con AT&T Corporation se llamó Shannon Labs en su honor.
En junio de 1954, Shannon fue incluido en la lista de los 20 científicos más importantes de Estados Unidos por Fortune . [81] En 2013, la teoría de la información fue incluida en la lista de las 10 teorías científicas más revolucionarias por Science News . [82]
Según Neil Sloane , un miembro de AT&T que coeditó la gran colección de artículos de Shannon en 1993, la perspectiva introducida por la teoría de la comunicación de Shannon (ahora llamada "teoría de la información") es la base de la revolución digital , y cada dispositivo que contiene un microprocesador o microcontrolador es un descendiente conceptual de la publicación de Shannon en 1948: [83] "Es uno de los grandes hombres del siglo. Sin él, ninguna de las cosas que conocemos hoy existiría. Toda la revolución digital comenzó con él". [84] La unidad de criptomoneda shannon (un sinónimo de gwei) lleva su nombre. [85]
Muchos consideran que Shannon fue el único que creó la teoría de la información y sentó las bases para la era digital . [86] [87] [15] [21] [88] [7]
La gran familia de modelos de lenguaje de inteligencia artificial Claude (modelo de lenguaje) recibió su nombre en honor a Shannon.
A Mind at Play , una biografía de Shannon escrita por Jimmy Soni y Rob Goodman, se publicó en 2017. [89] Describieron a Shannon como "el genio más importante del que nunca has oído hablar, un hombre cuyo intelecto estaba a la par con Albert Einstein e Isaac Newton ". [90] El consultor y escritor Tom Rutledge, escribiendo para Boston Review , afirmó que "De los pioneros de la informática que impulsaron la revolución de la tecnología de la información de mediados del siglo XX (un club de hombres de élite de ingenieros académicos que también ayudaron a descifrar códigos nazis y señalar trayectorias de misiles), Shannon puede haber sido el más brillante de todos ellos". [33] El ingeniero eléctrico Robert Gallager afirmó sobre Shannon que "Tenía esta asombrosa claridad de visión. Einstein también la tenía: esta capacidad de asumir un problema complicado y encontrar la forma correcta de mirarlo, de modo que las cosas se vuelvan muy simples". [22] En un obituario de Neil Sloane y Robert Calderbank , afirmaron que "Shannon debe estar cerca de la cima de la lista de las principales figuras de la ciencia del siglo XX". [91] Debido a su trabajo en múltiples campos, Shannon también es considerado un polímata . [92] [93]
El historiador James Gleick destacó la importancia de Shannon, afirmando que "Einstein ocupa un lugar destacado, y con razón. Pero no vivimos en la era de la relatividad, vivimos en la era de la información. Es Shannon cuyas huellas están en cada dispositivo electrónico que poseemos, en cada pantalla de ordenador que miramos, en cada medio de comunicación digital. Es una de esas personas que transforman tanto el mundo que, después de la transformación, el viejo mundo cae en el olvido". [1] Gleick señaló además que "creó todo un campo desde cero, desde la frente de Zeus ". [1]
El 30 de abril de 2016, Shannon fue homenajeado con un Doodle de Google para celebrar su vida en lo que habría sido su cumpleaños número 100. [94] [95] [96] [97] [98] [99]
The Bit Player , un largometraje sobre Shannon dirigido por Mark Levinson, se estrenó en el Festival Mundial de Ciencia en 2019. [100] Basada en entrevistas realizadas a Shannon en su casa en la década de 1980, la película se estrenó en Amazon Prime en agosto de 2020.
La teoría matemática de la comunicación de Shannon [60] comienza con una interpretación de su propio trabajo por parte de Warren Weaver . Aunque toda la obra de Shannon trata sobre la comunicación en sí, Warren Weaver comunicó sus ideas de tal manera que aquellos que no estaban acostumbrados a la teoría y las matemáticas complejas pudieran comprender las leyes fundamentales que él propuso. La combinación de sus habilidades comunicativas únicas y sus ideas generó el modelo de Shannon-Weaver , aunque los fundamentos matemáticos y teóricos emanan completamente del trabajo de Shannon después de la introducción de Weaver. Para el profano, la introducción de Weaver comunica mejor la teoría matemática de la comunicación [60] , pero la lógica, las matemáticas y la precisión expresiva posteriores de Shannon fueron responsables de definir el problema en sí.
"Teseo", creado en 1950, era un ratón mecánico controlado por un circuito de relé electromecánico que le permitía moverse por un laberinto de 25 casillas. [101] La configuración del laberinto era flexible y podía modificarse arbitrariamente reorganizando las particiones móviles. [101] El ratón estaba diseñado para buscar por los pasillos hasta encontrar el objetivo. Una vez que había recorrido el laberinto, el ratón podía ser colocado en cualquier lugar en el que hubiera estado antes y, debido a su experiencia previa, podía ir directamente al objetivo. Si se lo colocaba en un territorio desconocido, estaba programado para buscar hasta llegar a una ubicación conocida y luego procedería al objetivo, añadiendo el nuevo conocimiento a su memoria y aprendiendo un nuevo comportamiento. [101] El ratón de Shannon parece haber sido el primer dispositivo de aprendizaje artificial de su tipo. [101]
En 1949, Shannon completó un artículo (publicado en marzo de 1950) que estima la complejidad del árbol de juego del ajedrez , que es aproximadamente 10 120. Este número se conoce ahora a menudo como el " número de Shannon ", y todavía hoy se considera una estimación precisa de la complejidad del juego. El número se cita a menudo como una de las barreras para resolver el juego de ajedrez utilizando un análisis exhaustivo (es decir, análisis de fuerza bruta ). [102] [103]
El 9 de marzo de 1949, Shannon presentó un artículo titulado "Programación de una computadora para jugar ajedrez". El artículo fue presentado en la Convención del Instituto Nacional de Ingenieros de Radio en Nueva York. Describió cómo programar una computadora para jugar ajedrez basándose en la puntuación de la posición y la selección de movimientos. Propuso estrategias básicas para restringir el número de posibilidades a considerar en una partida de ajedrez. En marzo de 1950 se publicó en Philosophical Magazine y se considera uno de los primeros artículos publicados sobre el tema de la programación de una computadora para jugar ajedrez y el uso de una computadora para resolver el juego. [102] [104] En 1950, Shannon escribió un artículo titulado "Una máquina para jugar ajedrez", [105] que fue publicado en Scientific American . Ambos artículos han tenido una inmensa influencia y sentaron las bases para futuros programas de ajedrez. [26] [27]
Su proceso para que la computadora decidiera qué movimiento hacer era un procedimiento minimax , basado en una función de evaluación de una posición de ajedrez dada. Shannon dio un ejemplo aproximado de una función de evaluación en la que el valor de la posición negra se restaba del de la posición blanca. El material se contaba de acuerdo con el valor relativo habitual de las piezas de ajedrez (1 punto para un peón, 3 puntos para un caballo o alfil, 5 puntos para una torre y 9 puntos para una reina). [106] Consideró algunos factores posicionales, restando ½ punto por cada peón doblado , peón atrasado y peón aislado ; se incorporó la movilidad agregando 0,1 punto por cada movimiento legal disponible.
Shannon formuló una versión del principio de Kerckhoffs como "El enemigo conoce el sistema". En esta forma se lo conoce como "máxima de Shannon".
Shannon también contribuyó a la combinatoria y la teoría de detección . [107] Su artículo de 1948 introdujo muchas herramientas utilizadas en combinatoria. Trabajó en la teoría de detección en 1944, y su trabajo fue una de las primeras exposiciones del principio del "filtro adaptado". [107]
Era conocido como un inversor exitoso que daba conferencias sobre inversión. Un informe de Barron's del 11 de agosto de 1986 detallaba el rendimiento reciente de 1.026 fondos de inversión, y Shannon logró un rendimiento superior al de 1.025 de ellos. Comparando la cartera de Shannon desde finales de los años 1950 hasta 1986, con la de Warren Buffett de 1965 a 1995, Shannon tuvo un rendimiento de alrededor del 28% por ciento, en comparación con el 27% de Buffett. [108] Uno de esos métodos de Shannon fue etiquetado como el demonio de Shannon , que consistía en formar una cartera de partes iguales de efectivo y una acción, y reequilibrarla periódicamente para aprovechar los movimientos aleatorios de los precios de las acciones. [109] Se dice que Shannon pensó durante mucho tiempo en publicar sobre inversiones, pero finalmente no lo hizo, a pesar de dar múltiples conferencias. [109] Fue uno de los primeros inversores en descargar los precios de las acciones, y una instantánea de su cartera en 1981 resultó ser de 582.717,50 dólares, lo que se traduce en 1,5 millones de dólares en 2015, excluyendo otra de sus acciones. [109]
Esta sección necesita ser actualizada . ( Abril de 2016 ) |
El centenario de Shannon, 2016, marcó la vida e influencia de Claude Elwood Shannon en el centenario de su nacimiento el 30 de abril de 1916. Se inspiró en parte en el Año de Alan Turing . Un comité ad hoc de la IEEE Information Theory Society, que incluía a Christina Fragouli , Rüdiger Urbanke, Michelle Effros , Lav Varshney y Sergio Verdú , [110] coordinó eventos mundiales. La iniciativa se anunció en el Panel de Historia en el Taller de Teoría de la Información IEEE de 2015 en Jerusalén [111] [112] y en el boletín de la IEEE Information Theory Society. [113]
Una lista detallada de eventos confirmados estaba disponible en el sitio web de la IEEE Information Theory Society. [114]
Algunas de las actividades incluyeron:
El premio Claude E. Shannon se estableció en su honor; él también fue su primer destinatario, en 1973. [122] [123]
se describía a sí mismo como ateo y era abiertamente apolítico.
Gaylord, Michigan, alberga un pequeño parque en honor a Claude Shannon…