Comunicación |
---|
Aspectos generales |
Campos |
Disciplinas |
Categories |
La información es un concepto abstracto que se refiere a algo que tiene el poder de informar . En el nivel más fundamental, se refiere a la interpretación (quizás formal ) de lo que se puede percibir , o sus abstracciones . Se puede decir que cualquier proceso natural que no sea completamente aleatorio y cualquier patrón observable en cualquier medio transmiten cierta cantidad de información. Mientras que las señales digitales y otros datos utilizan signos discretos para transmitir información, otros fenómenos y artefactos como las señales analógicas , los poemas , las imágenes , la música u otros sonidos y corrientes transmiten información de forma más continua. [1] La información no es conocimiento en sí, sino el significado que se puede derivar de una representación a través de la interpretación. [2]
El concepto de información es relevante o está conectado a varios conceptos, [3] incluyendo restricción , comunicación , control , datos , forma , educación , conocimiento , significado , comprensión , estímulos mentales , patrón , percepción , proposición , representación y entropía .
La información se procesa a menudo de forma iterativa: los datos disponibles en un paso se procesan para obtener información que se interpretará y procesará en el siguiente paso. Por ejemplo, en un texto escrito, cada símbolo o letra transmite información relevante para la palabra de la que forma parte, cada palabra transmite información relevante para la frase de la que forma parte, cada frase transmite información relevante para la oración de la que forma parte, y así sucesivamente hasta que en el paso final la información se interpreta y se convierte en conocimiento en un dominio determinado . En una señal digital , los bits pueden interpretarse en símbolos, letras, números o estructuras que transmiten la información disponible en el siguiente nivel superior. La característica clave de la información es que está sujeta a interpretación y procesamiento.
La derivación de información a partir de una señal o mensaje puede considerarse como la resolución de la ambigüedad o incertidumbre que surge durante la interpretación de patrones dentro de la señal o mensaje. [4]
La información puede estructurarse como datos . Los datos redundantes pueden comprimirse hasta un tamaño óptimo, que es el límite teórico de la compresión.
La información disponible a través de una recopilación de datos puede obtenerse mediante análisis. Por ejemplo, un restaurante recopila datos de cada pedido de un cliente. Esa información puede analizarse para generar conocimiento que se utiliza cuando la empresa posteriormente desea identificar el plato más popular o menos popular. [ cita requerida ]
La información puede transmitirse en el tiempo, mediante el almacenamiento de datos , y en el espacio, mediante la comunicación y la telecomunicación . [5] La información se expresa ya sea como contenido de un mensaje o mediante la observación directa o indirecta . Lo que se percibe puede interpretarse como un mensaje en sí mismo y, en ese sentido, toda información siempre se transmite como contenido de un mensaje.
La información se puede codificar en diversas formas para su transmisión e interpretación (por ejemplo, la información se puede codificar en una secuencia de signos o transmitir mediante una señal ). También se puede cifrar para su almacenamiento y comunicación seguros.
La incertidumbre de un evento se mide por su probabilidad de ocurrencia. La incertidumbre es inversamente proporcional a la probabilidad de ocurrencia. La teoría de la información aprovecha esto al concluir que los eventos más inciertos requieren más información para resolver su incertidumbre. El bit es una unidad típica de información . Es "lo que reduce la incertidumbre a la mitad". [6] Se pueden utilizar otras unidades como el nat . Por ejemplo, la información codificada en un lanzamiento de moneda "justo" es log 2 (2/1) = 1 bit, y en dos lanzamientos de moneda justos es log 2 (4/1) = 2 bits. Un artículo de Science de 2011 estima que el 97% de la información almacenada tecnológicamente ya estaba en bits digitales en 2007 y que el año 2002 fue el comienzo de la era digital para el almacenamiento de información (con la capacidad de almacenamiento digital superando a la analógica por primera vez). [7]
La información se puede definir exactamente mediante la teoría de conjuntos:
"La información es una selección del dominio de la información".
El "dominio de información" es un conjunto que el emisor y el receptor de información deben conocer antes de intercambiar información. La información digital, por ejemplo, consta de bloques de construcción que son todos secuencias numéricas. Cada secuencia numérica representa una selección de su dominio. El emisor y el receptor de información digital (secuencias numéricas) deben conocer el dominio y el formato binario de cada secuencia numérica antes de intercambiar información. Al definir secuencias numéricas en línea, esto sería sistemática y universalmente utilizable. Antes de la secuencia numérica digital intercambiada, se puede establecer un enlace único y eficiente a su definición en línea. Esta información digital definida en línea (secuencia numérica) sería comparable y buscable globalmente. [8]
La palabra inglesa "información" proviene del francés medio enformacion/informacion/information 'una investigación criminal' y su étimo, el latín informatiō(n) 'concepción, enseñanza, creación'. [9]
En inglés, "información" es un sustantivo masivo incontable .
La teoría de la información es el estudio científico de la cuantificación , el almacenamiento y la comunicación de la información. El campo se estableció fundamentalmente con los trabajos de Harry Nyquist y Ralph Hartley en la década de 1920, y Claude Shannon en la década de 1940. El campo se encuentra en la intersección de la teoría de la probabilidad , la estadística , la informática, la mecánica estadística , la ingeniería de la información y la ingeniería eléctrica .
Una medida clave en la teoría de la información es la entropía . La entropía cuantifica la cantidad de incertidumbre involucrada en el valor de una variable aleatoria o el resultado de un proceso aleatorio . Por ejemplo, identificar el resultado de un lanzamiento de moneda justo (con dos resultados igualmente probables) proporciona menos información (menor entropía) que especificar el resultado de un lanzamiento de dado (con seis resultados igualmente probables). Algunas otras medidas importantes en la teoría de la información son la información mutua , la capacidad del canal, los exponentes de error y la entropía relativa . Los subcampos importantes de la teoría de la información incluyen la codificación de fuentes , la teoría de la complejidad algorítmica , la teoría de la información algorítmica y la seguridad de la teoría de la información .
Las aplicaciones de temas fundamentales de la teoría de la información incluyen la codificación de fuentes/ compresión de datos (por ejemplo, para archivos ZIP ) y la codificación de canales/ detección y corrección de errores (por ejemplo, para DSL ). Su impacto ha sido crucial para el éxito de las misiones Voyager al espacio profundo, la invención del disco compacto , la viabilidad de los teléfonos móviles y el desarrollo de Internet. La teoría también ha encontrado aplicaciones en otras áreas, incluida la inferencia estadística , [10] la criptografía , la neurobiología , [11] la percepción , [12] la lingüística, la evolución [13] y la función [14] de los códigos moleculares ( bioinformática ), la física térmica , [15] la computación cuántica , los agujeros negros , la recuperación de información , la recopilación de inteligencia , la detección de plagio , [16] el reconocimiento de patrones , la detección de anomalías [17] e incluso la creación de arte.
A menudo, la información puede considerarse como un tipo de entrada a un organismo o sistema . Las entradas son de dos tipos; algunas entradas son importantes para el funcionamiento del organismo (por ejemplo, los alimentos) o del sistema ( energía ) por sí mismas. En su libro Sensory Ecology [18], el biofísico David B. Dusenbery las llamó entradas causales. Otras entradas (información) son importantes solo porque están asociadas con entradas causales y pueden usarse para predecir la ocurrencia de una entrada causal en un momento posterior (y quizás en otro lugar). Alguna información es importante debido a la asociación con otra información, pero eventualmente debe haber una conexión con una entrada causal.
En la práctica, la información suele transmitirse mediante estímulos débiles que deben ser detectados por sistemas sensoriales especializados y amplificados por entradas de energía antes de que puedan ser funcionales para el organismo o sistema. Por ejemplo, la luz es principalmente (pero no solo, p. ej. las plantas pueden crecer en la dirección de la fuente de luz) una entrada causal para las plantas, pero para los animales solo proporciona información. La luz coloreada reflejada por una flor es demasiado débil para la fotosíntesis, pero el sistema visual de la abeja la detecta y el sistema nervioso de la abeja utiliza la información para guiar a la abeja a la flor, donde la abeja a menudo encuentra néctar o polen, que son entradas causales, una función nutricional.
El científico cognitivo y matemático aplicado Ronaldo Vigo sostiene que la información es un concepto que requiere al menos dos entidades relacionadas para tener sentido cuantitativo. Estas son, cualquier categoría dimensionalmente definida de objetos S, y cualquiera de sus subconjuntos R. R, en esencia, es una representación de S, o, en otras palabras, transmite información representacional (y por lo tanto, conceptual) sobre S. Vigo luego define la cantidad de información que R transmite sobre S como la tasa de cambio en la complejidad de S siempre que los objetos en R se eliminan de S. Bajo la "información de Vigo", patrón, invariancia, complejidad, representación e información -cinco constructos fundamentales de la ciencia universal- se unifican bajo un nuevo marco matemático. [19] [20] [21] Entre otras cosas, el marco apunta a superar las limitaciones de la información de Shannon-Weaver al intentar caracterizar y medir la información subjetiva.
La información es cualquier tipo de patrón que influye en la formación o transformación de otros patrones. [22] [23] En este sentido, no hay necesidad de una mente consciente para percibir, y mucho menos apreciar, el patrón. Consideremos, por ejemplo, el ADN . La secuencia de nucleótidos es un patrón que influye en la formación y desarrollo de un organismo sin necesidad de una mente consciente. Sin embargo, se podría argumentar que para que un humano defina conscientemente un patrón, por ejemplo un nucleótido, implica naturalmente un procesamiento consciente de la información. Sin embargo, la existencia de organismos unicelulares y multicelulares , con la bioquímica compleja que conduce, entre otros eventos, a la existencia de enzimas y polinucleótidos que interactúan manteniendo el orden biológico y participando en el desarrollo de los organismos multicelulares, precede por millones de años al surgimiento de la conciencia humana y la creación de la cultura científica que produjo la nomenclatura química.
La teoría de sistemas a veces parece referirse a la información en este sentido, asumiendo que la información no necesariamente involucra a ninguna mente consciente, y los patrones que circulan (debido a la retroalimentación ) en el sistema pueden llamarse información. En otras palabras, se puede decir que la información en este sentido es algo potencialmente percibido como representación, aunque no creado o presentado para ese propósito. Por ejemplo, Gregory Bateson define "información" como una "diferencia que hace una diferencia". [24]
Sin embargo, si la premisa de "influencia" implica que la información ha sido percibida por una mente consciente y también interpretada por ella, el contexto específico asociado con esta interpretación puede causar la transformación de la información en conocimiento . Las definiciones complejas tanto de "información" como de "conocimiento" dificultan dicho análisis semántico y lógico, pero la condición de "transformación" es un punto importante en el estudio de la información en relación con el conocimiento, especialmente en la disciplina empresarial de la gestión del conocimiento . En esta práctica, se utilizan herramientas y procesos para ayudar a un trabajador del conocimiento a realizar investigaciones y tomar decisiones, incluidos pasos como:
Stewart (2001) sostiene que la transformación de la información en conocimiento es fundamental y se encuentra en el núcleo de la creación de valor y la ventaja competitiva de la empresa moderna.
En un marco biológico, Mizraji [25] ha descrito la información como una entidad que surge de la interacción de patrones con sistemas receptores (p. ej.: en receptores moleculares o neuronales capaces de interactuar con patrones específicos, la información emerge de esas interacciones). Además, ha incorporado la idea de "catalizadores de información", estructuras donde la información emergente promueve la transición del reconocimiento de patrones a la acción dirigida a un objetivo (por ejemplo, la transformación específica de un sustrato en un producto por una enzima, o la recepción auditiva de palabras y la producción de una respuesta oral).
El Diccionario danés de términos de información [26] sostiene que la información sólo proporciona una respuesta a una pregunta planteada. Que la respuesta proporcione conocimiento depende de la persona informada. Por lo tanto, una definición generalizada del concepto debería ser: "Información" = "Una respuesta a una pregunta específica".
Cuando Marshall McLuhan habla de los medios de comunicación y sus efectos en las culturas humanas, se refiere a la estructura de los artefactos que, a su vez, moldean nuestros comportamientos y mentalidades. También se dice a menudo que las feromonas son "información" en este sentido.
Estas secciones utilizan mediciones de datos en lugar de información, ya que la información no se puede medir directamente.
Se estima que la capacidad tecnológica mundial para almacenar información creció de 2,6 exabytes (comprimidos óptimamente) en 1986 –que es el equivalente informativo a menos de un CD-ROM de 730 MB por persona (539 MB por persona)– a 295 exabytes (comprimidos óptimamente) en 2007. [7] Este es el equivalente informativo de casi 61 CD-ROM por persona en 2007. [5]
La capacidad tecnológica combinada del mundo para recibir información a través de redes de transmisión unidireccionales fue el equivalente informativo de 174 periódicos por persona por día en 2007. [7]
La capacidad efectiva combinada del mundo para intercambiar información a través de redes de telecomunicaciones bidireccionales fue el equivalente informativo de seis periódicos por persona por día en 2007. [5]
En 2007, se estima que el 90% de toda la información nueva es digital, almacenada en su mayor parte en discos duros. [27]
Se prevé que la cantidad total de datos creados, capturados, copiados y consumidos a nivel mundial aumentará rápidamente y alcanzará los 64,2 zettabytes en 2020. Durante los próximos cinco años, hasta 2025, se proyecta que la creación global de datos crecerá a más de 180 zettabytes. [28]
Part of a series on |
Library and information science |
---|
Los registros son formas especializadas de información. Básicamente, los registros son información producida conscientemente o como subproducto de actividades o transacciones comerciales y se conservan debido a su valor. Principalmente, su valor es como evidencia de las actividades de la organización, pero también pueden conservarse por su valor informativo. Una gestión adecuada de los registros garantiza que la integridad de los registros se preserve durante el tiempo que sea necesario. [ cita requerida ]
La norma internacional sobre gestión de registros, ISO 15489, define los registros como "información creada, recibida y mantenida como evidencia e información por una organización o persona, en cumplimiento de obligaciones legales o en la transacción de negocios". [29] El Comité sobre registros electrónicos del Comité Internacional de Archivos (ICA) definió un registro como "información registrada producida o recibida en el inicio, conducción o finalización de una actividad institucional o individual y que comprende contenido, contexto y estructura suficientes para proporcionar evidencia de la actividad". [30]
Los registros pueden conservarse para conservar la memoria corporativa de la organización o para cumplir con los requisitos legales, fiscales o de rendición de cuentas impuestos a la organización. Willis expresó la opinión de que la gestión adecuada de los registros y la información empresarial proporcionaba "...seis requisitos clave para una buena gobernanza corporativa ... transparencia; rendición de cuentas; debido proceso; cumplimiento; cumplimiento de los requisitos legales y de derecho consuetudinario; y seguridad de la información personal y corporativa". [31]
Michael Buckland ha clasificado la “información” en términos de sus usos: “información como proceso”, “información como conocimiento” e “información como cosa”. [32]
Beynon-Davies [33] [34] explica el concepto multifacético de información en términos de signos y sistemas señal-signo. Los signos mismos pueden considerarse en términos de cuatro niveles, capas o ramas interdependientes de la semiótica : pragmática, semántica, sintaxis y empírica. Estas cuatro capas sirven para conectar el mundo social por un lado con el mundo físico o técnico por el otro.
La pragmática se ocupa del propósito de la comunicación. Vincula la cuestión de los signos con el contexto en el que se utilizan. Se centra en las intenciones de los agentes vivos que subyacen a la conducta comunicativa. En otras palabras, vincula el lenguaje con la acción.
La semántica se ocupa del significado de un mensaje transmitido en un acto comunicativo. La semántica considera el contenido de la comunicación. La semántica es el estudio del significado de los signos, es decir, la asociación entre los signos y el comportamiento. La semántica puede considerarse como el estudio del vínculo entre los símbolos y sus referentes o conceptos, en particular la forma en que los signos se relacionan con el comportamiento humano.
La sintaxis se ocupa del formalismo utilizado para representar un mensaje. La sintaxis como área estudia la forma de comunicación en términos de la lógica y la gramática de los sistemas de signos. La sintaxis se dedica al estudio de la forma más que del contenido de los signos y los sistemas de signos.
Nielsen (2008) analiza la relación entre la semiótica y la información en relación con los diccionarios. Introduce el concepto de costes de información lexicográfica y se refiere al esfuerzo que debe hacer el usuario de un diccionario para encontrar primero los datos y luego comprenderlos para poder generar información.
La comunicación normalmente se da en el contexto de alguna situación social. La situación social establece el contexto de las intenciones transmitidas (pragmática) y la forma de comunicación. En una situación comunicativa, las intenciones se expresan a través de mensajes que comprenden conjuntos de signos interrelacionados tomados de un lenguaje mutuamente comprendido por los agentes involucrados en la comunicación. La comprensión mutua implica que los agentes involucrados comprenden el lenguaje elegido en términos de su sintaxis y semántica acordadas. El emisor codifica el mensaje en el lenguaje y lo envía como señales a través de algún canal de comunicación (empírico). El canal de comunicación elegido tiene propiedades inherentes que determinan los resultados, como la velocidad a la que puede tener lugar la comunicación y la distancia a la que puede llevarse a cabo.
La existencia de información sobre un sistema cerrado es un concepto importante tanto en la física clásica como en la mecánica cuántica , que abarca la capacidad, real o teórica, de un agente para predecir el estado futuro de un sistema basándose en el conocimiento obtenido durante su pasado y presente. El determinismo es una teoría filosófica que sostiene que la determinación causal puede predecir todos los eventos futuros, [35] postulando un universo completamente predecible descrito por el físico clásico Pierre-Simon Laplace como " el efecto de su pasado y la causa de su futuro ". [36]
La física cuántica, en cambio, codifica la información como una función de onda , lo que impide a los observadores identificar directamente todas sus posibles medidas . Antes de la publicación del teorema de Bell , los deterministas se reconciliaron con este comportamiento utilizando teorías de variables ocultas , que sostenían que la información necesaria para predecir el futuro de una función debe existir, incluso si no es accesible para los humanos; una visión que Albert Einstein conjeturó con la afirmación de que " Dios no juega a los dados ". [37]
La astronomía moderna cita el sentido mecánico de la información en la paradoja de la información del agujero negro , postulando que, debido a que la evaporación completa de un agujero negro en la radiación de Hawking no deja nada excepto una nube en expansión de partículas homogéneas , esto da como resultado la irrecuperabilidad de cualquier información sobre la materia que originalmente cruzó el horizonte de eventos , violando las afirmaciones clásicas y cuánticas contra la capacidad de destruir información. [38] [39]
El ciclo de la información (abordado en su conjunto o en sus distintos componentes) es de gran interés para la tecnología de la información , los sistemas de información , así como la ciencia de la información . Estos campos se ocupan de aquellos procesos y técnicas relativos a la captura de información (a través de sensores ) y generación (a través de computación , formulación o composición), procesamiento (incluyendo codificación, cifrado, compresión, empaquetado), transmisión (incluyendo todos los métodos de telecomunicaciones ), presentación (incluyendo métodos de visualización / exhibición ), almacenamiento (como métodos magnéticos u ópticos, incluyendo métodos holográficos ), etc.
La visualización de información (abreviada como InfoVis) depende del cálculo y la representación digital de datos y ayuda a los usuarios a reconocer patrones y detectar anomalías .
La seguridad de la información (abreviada como InfoSec) es el proceso continuo de ejercer la debida diligencia para proteger la información y los sistemas de información contra el acceso, uso, divulgación, destrucción, modificación, interrupción o distribución no autorizados, a través de algoritmos y procedimientos enfocados en el monitoreo y la detección, así como en la respuesta a incidentes y su reparación.
El análisis de información es el proceso de inspeccionar, transformar y modelar información, convirtiendo datos sin procesar en conocimiento procesable, en apoyo del proceso de toma de decisiones.
La calidad de la información (abreviada como InfoQ) es el potencial de un conjunto de datos para lograr un objetivo específico (científico o práctico) utilizando un método de análisis empírico determinado.
La comunicación de información representa la convergencia de la informática, las telecomunicaciones y los medios y contenidos audiovisuales.
un período inicial, la teoría determina lógicamente un conjunto único de valores para esas variables para cualquier otro período.