Parte de una serie sobre | ||||
Ciencia de redes | ||||
---|---|---|---|---|
Tipos de red | ||||
Gráficos | ||||
| ||||
Modelos | ||||
| ||||
| ||||
Complex systems |
---|
Topics |
La ciencia de redes es un campo académico que estudia redes complejas como redes de telecomunicaciones , redes de computadoras , redes biológicas , redes cognitivas y semánticas y redes sociales , considerando elementos o actores distintos representados por nodos (o vértices ) y las conexiones entre los elementos o actores como enlaces (o aristas ). El campo se basa en teorías y métodos que incluyen la teoría de grafos de las matemáticas, la mecánica estadística de la física, la minería de datos y la visualización de la información de la informática, el modelado inferencial de la estadística y la estructura social de la sociología. El Consejo Nacional de Investigación de los Estados Unidos define la ciencia de redes como "el estudio de las representaciones en red de fenómenos físicos, biológicos y sociales que conducen a modelos predictivos de estos fenómenos". [1]
El estudio de redes ha surgido en diversas disciplinas como un medio para analizar datos relacionales complejos. El primer artículo conocido en este campo es el famoso Los siete puentes de Königsberg escrito por Leonhard Euler en 1736. La descripción matemática de Euler de los vértices y las aristas fue la base de la teoría de grafos , una rama de las matemáticas que estudia las propiedades de las relaciones por pares en una estructura de red. El campo de la teoría de grafos continuó desarrollándose y encontró aplicaciones en la química (Sylvester, 1878).
Dénes Kőnig , matemático y profesor húngaro, escribió el primer libro sobre teoría de grafos, titulado "Teoría de grafos finitos e infinitos", en 1936. [2]
En la década de 1930, Jacob Moreno , un psicólogo de la tradición Gestalt , llegó a los Estados Unidos. Desarrolló el sociograma y lo presentó al público en abril de 1933 en una convención de académicos médicos. Moreno afirmó que "antes de la llegada de la sociometría nadie sabía cómo era 'precisamente' la estructura interpersonal de un grupo". [3] El sociograma era una representación de la estructura social de un grupo de estudiantes de primaria. Los chicos eran amigos de chicos y las chicas eran amigas de chicas con la excepción de un chico que dijo que le gustaba una chica soltera. El sentimiento no era recíproco. Esta representación en red de la estructura social se consideró tan intrigante que se publicó en The New York Times . [4] El sociograma ha encontrado muchas aplicaciones y se ha convertido en el campo del análisis de redes sociales .
La teoría probabilística en la ciencia de redes se desarrolló como una derivación de la teoría de grafos con los ocho artículos famosos de Paul Erdős y Alfréd Rényi sobre grafos aleatorios . Para las redes sociales, el modelo de grafo aleatorio exponencial o p* es un marco de notación utilizado para representar el espacio de probabilidad de que ocurra un empate en una red social . Un enfoque alternativo a las estructuras de probabilidad de red es la matriz de probabilidad de red , que modela la probabilidad de que ocurran aristas en una red, en función de la presencia o ausencia histórica de la arista en una muestra de redes.
En 1998, David Krackhardt y Kathleen Carley introdujeron la idea de una metared con el modelo PCANS. [5] Sugieren que "todas las organizaciones están estructuradas a lo largo de estos tres dominios: individuos, tareas y recursos". Su artículo introdujo el concepto de que las redes se producen en múltiples dominios y que están interrelacionadas. Este campo se ha convertido en otra subdisciplina de la ciencia de redes llamada análisis dinámico de redes .
Más recientemente, otros esfuerzos de la ciencia de redes se han centrado en describir matemáticamente diferentes topologías de red. Duncan Watts y Steven Strogatz conciliaron datos empíricos sobre redes con representación matemática, describiendo la red de mundo pequeño . [6] Albert-László Barabási y Reka Albert descubrieron redes libres de escala , [7] una propiedad que captura el hecho de que en la red real los centros coexisten con muchos vértices de grado pequeño, y ofrecieron un modelo dinámico para explicar el origen de este estado libre de escala.
El ejército de los Estados Unidos se interesó por primera vez en la guerra centrada en redes como un concepto operativo basado en la ciencia de redes en 1996. John A. Parmentola, Director de Investigación y Gestión de Laboratorios del Ejército de los Estados Unidos, propuso a la Junta de Ciencia y Tecnología (BAST) del Ejército el 1 de diciembre de 2003 que la Ciencia de Redes se convirtiera en una nueva área de investigación del Ejército. La BAST, la División de Ingeniería y Ciencias Físicas del Consejo Nacional de Investigación (NRC) de las Academias Nacionales, actúa como autoridad de convocatoria para la discusión de cuestiones científicas y tecnológicas de importancia para el Ejército y supervisa estudios independientes relacionados con el Ejército realizados por las Academias Nacionales. La BAST realizó un estudio para averiguar si la identificación y financiación de un nuevo campo de investigación en la investigación básica, la Ciencia de Redes, podría ayudar a cerrar la brecha entre lo que se necesita para realizar Operaciones Centradas en Redes y el estado primitivo actual de conocimiento fundamental de las redes.
Como resultado, el BAST publicó en 2005 el estudio del NRC titulado Network Science (Ciencia de redes) (mencionado anteriormente) que definió un nuevo campo de investigación básica en Ciencia de redes para el Ejército. Con base en los hallazgos y recomendaciones de ese estudio y el informe del NRC de 2007 posterior titulado Strategy for an Army Center for Network Science, Technology, and Experimentation (Estrategia para un centro del Ejército para la ciencia, tecnología y experimentación de redes), los recursos de investigación básica del Ejército se reorientaron para iniciar un nuevo programa de investigación básica en Ciencia de redes. Para construir una nueva base teórica para redes complejas, algunas de las principales iniciativas de investigación en Ciencia de redes que se están llevando a cabo actualmente en los laboratorios del Ejército abordan:
Tal como lo inició Frederick I. Moxley en 2004 con el apoyo que solicitó de David S. Alberts, el Departamento de Defensa ayudó a establecer el primer Centro de Ciencias de Redes en conjunto con el Ejército de los EE. UU. en la Academia Militar de los Estados Unidos (USMA). Bajo la tutela del Dr. Moxley y el cuerpo docente de la USMA, se enseñaron los primeros cursos interdisciplinarios de pregrado en Ciencias de Redes a los cadetes de West Point. [8] [9] [10] Para inculcar mejor los principios de la ciencia de redes entre su grupo de futuros líderes, la USMA también ha instituido una especialización de pregrado de cinco cursos en Ciencias de Redes. [11]
En 2006, el Ejército de los EE. UU. y el Reino Unido (RU) formaron la Network and Information Science International Technology Alliance , una asociación de colaboración entre el Laboratorio de Investigación del Ejército, el Ministerio de Defensa del Reino Unido y un consorcio de industrias y universidades de los EE. UU. y el Reino Unido. El objetivo de la alianza es realizar investigaciones básicas en apoyo de las operaciones centradas en redes que cubran las necesidades de ambas naciones.
En 2009, el Ejército de los EE. UU. formó la Network Science CTA , una alianza de investigación colaborativa entre el Laboratorio de Investigación del Ejército , CERDEC y un consorcio de alrededor de 30 laboratorios de investigación y desarrollo industriales y universidades en los EE. UU. El objetivo de la alianza es desarrollar una comprensión profunda de los puntos en común subyacentes entre las redes sociales/cognitivas, de información y de comunicaciones entrelazadas y, como resultado, mejorar nuestra capacidad para analizar, predecir, diseñar e influir en sistemas complejos que entrelazan muchos tipos de redes.
Posteriormente, como resultado de estos esfuerzos, el Departamento de Defensa de EE. UU. ha patrocinado numerosos proyectos de investigación que apoyan la Ciencia de Redes.
La definición de red determinista se define en comparación con la definición de red probabilística. En las redes deterministas no ponderadas, las aristas existen o no; por lo general, usamos 0 para representar la inexistencia de una arista y 1 para representar su existencia. En las redes deterministas ponderadas, el valor de la arista representa el peso de cada arista, por ejemplo, el nivel de fuerza.
En las redes probabilísticas, los valores detrás de cada arista representan la probabilidad de existencia de cada arista. Por ejemplo, si una arista tiene un valor igual a 0,9, decimos que la probabilidad de existencia de esta arista es 0,9. [12]
A menudo, las redes tienen ciertos atributos que se pueden calcular para analizar las propiedades y características de la red. El comportamiento de estas propiedades de red a menudo define modelos de red y se puede utilizar para analizar cómo ciertos modelos contrastan entre sí. Muchas de las definiciones de otros términos utilizados en la ciencia de redes se pueden encontrar en el Glosario de teoría de grafos .
El tamaño de una red puede referirse al número de nodos o, menos comúnmente, al número de aristas que (para grafos conectados sin aristas múltiples) puede variar desde (un árbol) hasta (un grafo completo). En el caso de un grafo simple (una red en la que existe como máximo una arista (no dirigida) entre cada par de vértices, y en la que ningún vértice se conecta a sí mismo), tenemos ; para grafos dirigidos (sin nodos autoconectados), ; para grafos dirigidos con autoconexiones permitidas, . En la circunstancia de un grafo dentro del cual pueden existir múltiples aristas entre un par de vértices, .
La densidad de una red se define como una relación normalizada entre 0 y 1 del número de aristas respecto del número de aristas posibles en una red con nodos. La densidad de red es una medida del porcentaje de aristas "opcionales" que existen en la red y se puede calcular como donde y son el número mínimo y máximo de aristas en una red conectada con nodos, respectivamente. En el caso de grafos simples, se da por el coeficiente binomial y , dando como resultado la densidad . Otra ecuación posible es mientras que los lazos son unidireccionales (Wasserman y Faust 1994). [13] Esto da una mejor visión general de la densidad de la red, porque se pueden medir las relaciones unidireccionales.
La densidad de una red, donde no hay intersección entre aristas, se define como una relación entre el número de aristas y el número de aristas posibles en una red con nodos, dada por un gráfico sin aristas que se intersecan , dando
El grado de un nodo es el número de aristas conectadas a él. Estrechamente relacionado con la densidad de una red está el grado promedio (o, en el caso de grafos dirigidos, , el antiguo factor de 2 que surge de cada arista en un grafo no dirigido que contribuye al grado de dos vértices distintos). En el modelo de grafo aleatorio ER ( ) podemos calcular el valor esperado de (igual al valor esperado de de un vértice arbitrario): un vértice aleatorio tiene otros vértices en la red disponibles y con probabilidad , se conecta a cada uno. Por lo tanto, .
La longitud media de la ruta más corta se calcula encontrando la ruta más corta entre todos los pares de nodos y tomando el promedio de todas las rutas de la longitud de la misma (la longitud es el número de aristas intermedias contenidas en la ruta, es decir, la distancia entre los dos vértices dentro del grafo). Esto nos muestra, en promedio, el número de pasos que se necesitan para llegar de un miembro de la red a otro. El comportamiento de la longitud media esperada de la ruta más corta (es decir, el promedio del conjunto de la longitud media de la ruta más corta) como una función del número de vértices de un modelo de red aleatoria define si ese modelo exhibe el efecto de mundo pequeño; si escala como , el modelo genera redes de mundo pequeño. Para un crecimiento más rápido que el logarítmico, el modelo no produce mundos pequeños. El caso especial de se conoce como efecto de mundo ultrapequeño.
Como otro medio para medir los gráficos de red, podemos definir el diámetro de una red como el más largo de todos los caminos más cortos calculados en una red. Es la distancia más corta entre los dos nodos más distantes de la red. En otras palabras, una vez que se calcula la longitud del camino más corto desde cada nodo a todos los demás nodos, el diámetro es el más largo de todos los caminos calculados. El diámetro es representativo del tamaño lineal de una red. Si los nodos ABCD están conectados, yendo de A a D, este sería el diámetro de 3 (3 saltos, 3 enlaces). [ cita requerida ]
El coeficiente de agrupamiento es una medida de una propiedad del tipo "todos mis amigos se conocen entre sí". Esto a veces se describe como los amigos de mis amigos son mis amigos. Más precisamente, el coeficiente de agrupamiento de un nodo es la relación entre los enlaces existentes que conectan a los vecinos de un nodo entre sí y el número máximo posible de dichos enlaces. El coeficiente de agrupamiento para toda la red es el promedio de los coeficientes de agrupamiento de todos los nodos. Un coeficiente de agrupamiento alto para una red es otro indicio de un mundo pequeño .
El coeficiente de agrupamiento del nodo 'ésimo es
donde es el número de vecinos del nodo 'ésimo, y es el número de conexiones entre estos vecinos. El número máximo posible de conexiones entre vecinos es, entonces,
Desde un punto de vista probabilístico, el coeficiente de agrupamiento local esperado es la probabilidad de que exista un vínculo entre dos vecinos arbitrarios del mismo nodo.
La forma en que se conecta una red juega un papel importante en la forma en que se analizan e interpretan las redes. Las redes se clasifican en cuatro categorías diferentes:
Los índices de centralidad generan clasificaciones que buscan identificar los nodos más importantes en un modelo de red. Diferentes índices de centralidad codifican diferentes contextos para la palabra "importancia". La centralidad de intermediación , por ejemplo, considera que un nodo es muy importante si forma puentes entre muchos otros nodos. La centralidad de valor propio , por el contrario, considera que un nodo es muy importante si muchos otros nodos muy importantes se vinculan a él. Se han propuesto cientos de medidas de este tipo en la literatura.
Los índices de centralidad sólo son precisos para identificar los nodos más importantes. Las medidas rara vez, o nunca, son significativas para el resto de los nodos de la red. [14] [15] Además, sus indicaciones sólo son precisas dentro de su contexto supuesto de importancia, y tienden a "equivocarse" para otros contextos. [16] Por ejemplo, imaginemos dos comunidades separadas cuyo único vínculo es una arista entre el miembro más joven de cada comunidad. Dado que cualquier transferencia de una comunidad a la otra debe pasar por este vínculo, los dos miembros más jóvenes tendrán una centralidad de intermediación alta. Pero, dado que son jóvenes, (presumiblemente) tienen pocas conexiones con los nodos "importantes" de su comunidad, lo que significa que su centralidad de valor propio sería bastante baja.
Las limitaciones de las medidas de centralidad han llevado al desarrollo de medidas más generales. Dos ejemplos son la accesibilidad , que utiliza la diversidad de recorridos aleatorios para medir la accesibilidad del resto de la red desde un nodo de inicio determinado, [17] y la fuerza esperada , derivada del valor esperado de la fuerza de infección generada por un nodo. [14] Ambas medidas se pueden calcular de forma significativa a partir de la estructura de la red únicamente.
Los nodos de una red pueden dividirse en grupos que representan comunidades. Según el contexto, las comunidades pueden ser distintas o superpuestas. Normalmente, los nodos de dichas comunidades estarán fuertemente conectados con otros nodos de la misma comunidad, pero débilmente conectados con nodos fuera de la comunidad. En ausencia de una verdad fundamental que describa la estructura de la comunidad de una red específica, se han desarrollado varios algoritmos para inferir posibles estructuras de la comunidad utilizando métodos de agrupamiento supervisados o no supervisados.
Los modelos de red sirven como base para comprender las interacciones dentro de redes complejas empíricas. Varios modelos de generación de grafos aleatorios producen estructuras de red que pueden usarse en comparación con redes complejas del mundo real.
El modelo Erdős–Rényi , llamado así por Paul Erdős y Alfréd Rényi , se utiliza para generar grafos aleatorios en los que se establecen aristas entre nodos con probabilidades iguales. Se puede utilizar en el método probabilístico para demostrar la existencia de grafos que satisfacen varias propiedades o para proporcionar una definición rigurosa de lo que significa que una propiedad se cumpla en casi todos los grafos.
Para generar un modelo Erdős–Rényi se deben especificar dos parámetros: el número total de nodos n y la probabilidad p de que un par aleatorio de nodos tenga una arista.
Debido a que el modelo se genera sin sesgo hacia nodos particulares, la distribución de grados es binomial: para un vértice elegido aleatoriamente ,
En este modelo el coeficiente de agrupamiento es 0 a.s. El comportamiento de se puede dividir en tres regiones.
Subcrítico : Todos los componentes son simples y muy pequeños, el componente más grande tiene tamaño ;
Crítico : ;
Supercrítico : donde es la solución positiva de la ecuación .
El componente conectado más grande tiene una alta complejidad. Todos los demás componentes son simples y pequeños .
El modelo de configuración toma una secuencia de grados [18] [19] o una distribución de grados [20] (que posteriormente se utiliza para generar una secuencia de grados) como entrada, y produce grafos conectados aleatoriamente en todos los aspectos excepto en la secuencia de grados. Esto significa que para una elección dada de la secuencia de grados, el grafo se elige de manera uniforme al azar del conjunto de todos los grafos que cumplen con esta secuencia de grados. El grado de un vértice elegido aleatoriamente es una variable aleatoria independiente e idénticamente distribuida con valores enteros. Cuando , el grafo de configuración contiene el componente conectado gigante , que tiene un tamaño infinito. [19] El resto de los componentes tienen tamaños finitos, que pueden cuantificarse con la noción de distribución de tamaño. La probabilidad de que un nodo muestreado aleatoriamente esté conectado a un componente de tamaño está dada por las potencias de convolución de la distribución de grados: [21] donde denota la distribución de grados y . El componente gigante puede destruirse eliminando aleatoriamente la fracción crítica de todos los bordes. Este proceso se llama percolación en redes aleatorias . Cuando el segundo momento de la distribución de grados es finito, , esta fracción de borde crítico está dada por [22] , y la distancia promedio vértice-vértice en el componente gigante escala logarítmicamente con el tamaño total de la red, . [20]
En el modelo de configuración dirigida, el grado de un nodo está dado por dos números, grado de entrada y grado de salida , y en consecuencia, la distribución de grados es de dos variables. El número esperado de aristas de entrada y de salida coincide, de modo que . El modelo de configuración dirigida contiene el componente gigante si y solo si [23] Nótese que y son iguales y, por lo tanto, intercambiables en la última desigualdad. La probabilidad de que un vértice elegido aleatoriamente pertenezca a un componente de tamaño está dada por: [24] para componentes de entrada, y
Para componentes externos.
El modelo de Watts y Strogatz es un modelo de generación de gráficos aleatorios que produce gráficos con propiedades de mundo pequeño .
Se utiliza una estructura reticular inicial para generar un modelo de Watts-Strogatz. Cada nodo de la red está vinculado inicialmente a sus vecinos más cercanos. Se especifica otro parámetro como la probabilidad de recableado. Cada borde tiene una probabilidad de que se recablee al gráfico como un borde aleatorio. El número esperado de enlaces recableados en el modelo es .
Como el modelo de Watts-Strogatz comienza como una estructura reticular no aleatoria, tiene un coeficiente de agrupamiento muy alto junto con una longitud de ruta promedio alta. Es probable que cada recableado cree un atajo entre grupos altamente conectados. A medida que aumenta la probabilidad de recableado, el coeficiente de agrupamiento disminuye más lentamente que la longitud de ruta promedio. En efecto, esto permite que la longitud de ruta promedio de la red disminuya significativamente con solo pequeñas disminuciones en el coeficiente de agrupamiento. Los valores más altos de p fuerzan más bordes recableados, lo que en efecto convierte al modelo de Watts-Strogatz en una red aleatoria.
El modelo de Barabási-Albert es un modelo de red aleatoria que se utiliza para demostrar una vinculación preferencial o un efecto de "los ricos se hacen más ricos". En este modelo, es más probable que una arista se una a los nodos con grados más altos. La red comienza con una red inicial de m 0 nodos. m 0 ≥ 2 y el grado de cada nodo en la red inicial debe ser al menos 1, de lo contrario, siempre permanecerá desconectado del resto de la red.
En el modelo BA, los nuevos nodos se agregan a la red de a uno por vez. Cada nuevo nodo se conecta a los nodos existentes con una probabilidad proporcional a la cantidad de enlaces que ya tienen los nodos existentes. Formalmente, la probabilidad p i de que el nuevo nodo esté conectado al nodo i es [25]
donde k i es el grado del nodo i . Los nodos fuertemente enlazados ("centros") tienden a acumular rápidamente aún más enlaces, mientras que los nodos con sólo unos pocos enlaces tienen pocas probabilidades de ser elegidos como destino para un nuevo enlace. Los nuevos nodos tienen una "preferencia" por unirse a los nodos que ya están fuertemente enlazados.
La distribución de grados resultante del modelo BA no tiene escala, en particular, para grados grandes es una ley de potencia de la forma:
Los nodos presentan una alta centralidad de intermediación, lo que permite que existan rutas cortas entre nodos. Como resultado, el modelo BA tiende a tener longitudes de ruta promedio muy cortas. El coeficiente de agrupamiento de este modelo también tiende a ser 0.
El modelo Barabási–Albert [26] fue desarrollado para redes no dirigidas, con el objetivo de explicar la universalidad de la propiedad de no tener escala, y se aplicó a una amplia gama de redes y aplicaciones diferentes. La versión dirigida de este modelo es el modelo Price [27] [28] , que fue desarrollado solo para redes de citas.
En la conexión preferencial no lineal (NLPA), los nodos existentes en la red obtienen nuevos bordes proporcionalmente al grado del nodo elevado a una potencia positiva constante, . [29] Formalmente, esto significa que la probabilidad de que el nodo gane un nuevo borde está dada por
Si , NLPA se reduce al modelo BA y se denomina "lineal". Si , NLPA se denomina "sublineal" y la distribución de grados de la red tiende a una distribución exponencial estirada . Si , NLPA se denomina "superlineal" y una pequeña cantidad de nodos se conectan a casi todos los demás nodos de la red. Para ambos y , la propiedad de libertad de escala de la red se rompe en el límite del tamaño infinito del sistema. Sin embargo, si es solo ligeramente mayor que , NLPA puede dar como resultado distribuciones de grados que parecen ser transitoriamente libres de escala. [30]
En el modelo de conexión impulsado por mediación (MDA), en el que un nuevo nodo que llega con aristas elige un nodo conectado existente al azar y luego se conecta no con ese sino con uno de sus vecinos elegidos también al azar. La probabilidad de que el nodo del nodo existente elegido sea
El factor es el inverso de la media armónica (IHM) de los grados de los vecinos de un nodo . Una amplia investigación numérica sugiere que para un valor de IHM medio aproximado en el límite grande se convierte en una constante que significa . Esto implica que cuanto mayores sean los enlaces (grado) que tenga un nodo, mayor será su probabilidad de obtener más enlaces, ya que se puede llegar a ellos de una mayor cantidad de formas a través de mediadores, lo que esencialmente encarna la idea intuitiva del mecanismo de los ricos se hacen más ricos (o la regla de unión preferencial del modelo de Barabasi-Albert). Por lo tanto, se puede ver que la red MDA sigue la regla de PA pero disfrazada. [31]
Sin embargo, como se describe el mecanismo del ganador se lo lleva todo, encontramos que casi la totalidad de los nodos tienen grado uno y uno es súper rico en grado. A medida que el valor aumenta, la disparidad entre los súper ricos y los pobres disminuye y encontramos una transición del mecanismo de los ricos que se vuelven súper ricos al de los ricos que se vuelven más ricos.
Caldarelli et al. han introducido otro modelo en el que el ingrediente clave es la naturaleza del vértice. [32] En este caso, se crea un vínculo entre dos vértices con una probabilidad dada por una función de enlace de las aptitudes de los vértices involucrados. El grado de un vértice i viene dado por [33].
Si es una función invertible y creciente de , entonces la distribución de probabilidad está dada por
En consecuencia, si las aptitudes se distribuyen como una ley de potencia, entonces el grado del nodo también lo hace.
De manera menos intuitiva, con una distribución de probabilidad de rápida descomposición junto con una función de enlace del tipo
con una constante y la función Heavyside, también obtenemos redes libres de escala.
Este modelo se ha aplicado con éxito para describir el comercio entre naciones utilizando el PIB como aptitud para los diversos nodos y una función de enlace del tipo [34] [35]
Los modelos de gráficos aleatorios exponenciales (ERGM) son una familia de modelos estadísticos para analizar datos de redes sociales y de otro tipo. [36] La familia exponencial es una amplia familia de modelos que abarcan muchos tipos de datos, no solo redes. Un ERGM es un modelo de esta familia que describe redes.
Adoptamos la notación para representar un gráfico aleatorio a través de un conjunto de nodos y una colección de variables de enlace , indexadas por pares de nodos , donde si los nodos están conectados por un borde y en caso contrario.
El supuesto básico de los ERGM es que la estructura de un grafo observado puede explicarse mediante un vector dado de estadísticas suficientes que son una función de la red observada y, en algunos casos, de los atributos nodales. La probabilidad de un grafo en un ERGM se define mediante:
donde es un vector de parámetros del modelo asociado con y es una constante normalizadora.
El análisis de redes sociales examina la estructura de las relaciones entre entidades sociales. [37] Estas entidades suelen ser personas, pero también pueden ser grupos , organizaciones , estados nacionales , sitios web y publicaciones académicas .
Desde la década de 1970, el estudio empírico de las redes ha desempeñado un papel central en las ciencias sociales, y muchas de las herramientas matemáticas y estadísticas utilizadas para estudiar las redes se han desarrollado por primera vez en sociología . [38] Entre muchas otras aplicaciones, el análisis de redes sociales se ha utilizado para comprender la difusión de innovaciones , [39] noticias y rumores. De manera similar, se ha utilizado para examinar la propagación de enfermedades y comportamientos relacionados con la salud . También se ha aplicado al estudio de los mercados , donde se ha utilizado para examinar el papel de la confianza en las relaciones de intercambio y de los mecanismos sociales en la fijación de precios. De manera similar, se ha utilizado para estudiar el reclutamiento en movimientos políticos y organizaciones sociales. También se ha utilizado para conceptualizar los desacuerdos científicos, así como el prestigio académico. En la literatura sobre la adquisición de una segunda lengua, tiene una historia establecida en la investigación de estudios en el extranjero, revelando cómo las redes de interacción entre pares influyen en su progreso lingüístico. [40] Más recientemente, el análisis de redes (y su primo cercano, el análisis de tráfico ) ha ganado un uso significativo en inteligencia militar, para descubrir redes insurgentes de naturaleza tanto jerárquica como sin líder . [41] [42] En criminología , se está utilizando para identificar actores influyentes en bandas criminales, movimientos de delincuentes, co-delincuencia, predecir actividades criminales y formular políticas. [43]
El análisis de redes dinámicas examina la estructura cambiante de las relaciones entre diferentes clases de entidades en sistemas sociotécnicos complejos y refleja la estabilidad social y los cambios como el surgimiento de nuevos grupos, temas y líderes. [44] [45] [46] El análisis de redes dinámicas se centra en metarredes compuestas por múltiples tipos de nodos (entidades) y múltiples tipos de enlaces . Estas entidades pueden ser muy variadas. Los ejemplos incluyen personas, organizaciones, temas, recursos, tareas, eventos, ubicaciones y creencias.
Las técnicas de redes dinámicas son particularmente útiles para evaluar tendencias y cambios en las redes a lo largo del tiempo, identificar líderes emergentes y examinar la coevolución de personas e ideas.
Con la reciente explosión de datos biológicos de alto rendimiento disponibles públicamente, el análisis de redes moleculares ha ganado un interés significativo. El tipo de análisis en este contenido está estrechamente relacionado con el análisis de redes sociales, pero a menudo se centra en patrones locales en la red. Por ejemplo, los motivos de red son pequeños subgrafos que están sobrerrepresentados en la red. Los motivos de actividad son patrones sobrerrepresentados similares en los atributos de los nodos y los bordes de la red que están sobrerrepresentados dada la estructura de la red. El análisis de redes biológicas ha llevado al desarrollo de la medicina de redes , que analiza el efecto de las enfermedades en el interactoma . [47]
El análisis de redes semánticas es un subcampo del análisis de redes que se centra en las relaciones entre palabras y conceptos en una red. Las palabras se representan como nodos y su proximidad o coocurrencia en el texto se representan como bordes. Por lo tanto, las redes semánticas son representaciones gráficas del conocimiento y se utilizan comúnmente en aplicaciones de neurolingüística y procesamiento del lenguaje natural . El análisis de redes semánticas también se utiliza como método para analizar textos extensos e identificar los temas y tópicos principales (por ejemplo, de publicaciones en redes sociales ), para revelar sesgos (por ejemplo, en la cobertura de noticias) o incluso para mapear un campo de investigación completo. [48]
El análisis de vínculos es un subconjunto del análisis de redes que explora las asociaciones entre objetos. Un ejemplo puede ser el examen de las direcciones de sospechosos y víctimas, los números de teléfono que han marcado y las transacciones financieras en las que han participado durante un período de tiempo determinado, y las relaciones familiares entre estos sujetos como parte de una investigación policial. El análisis de vínculos en este caso proporciona las relaciones y asociaciones cruciales entre muchos objetos de diferentes tipos que no son evidentes a partir de piezas de información aisladas. El análisis de vínculos asistido por computadora o totalmente automático basado en computadora es cada vez más utilizado por los bancos y las agencias de seguros en la detección de fraudes , por los operadores de telecomunicaciones en el análisis de redes de telecomunicaciones, por el sector médico en epidemiología y farmacología , en investigaciones policiales , por los motores de búsqueda para la clasificación de relevancia (y, a la inversa, por los spammers para la indexación de spam y por los propietarios de empresas para la optimización de motores de búsqueda ) y en cualquier otro lugar donde se deban analizar las relaciones entre muchos objetos.
El modelo SIR es uno de los algoritmos más conocidos para predecir la propagación de pandemias globales dentro de una población infecciosa.
La fórmula anterior describe la "fuerza" de infección para cada unidad susceptible en una población infecciosa, donde β es equivalente a la tasa de transmisión de dicha enfermedad.
Para rastrear el cambio de personas susceptibles en una población infecciosa:
Con el tiempo, el número de personas infectadas fluctúa según: la tasa de recuperación especificada, representada por pero deducida a uno durante el período infeccioso promedio , el número de individuos infecciosos, y el cambio en el tiempo, .
Si una población será superada por una pandemia, con respecto al modelo SIR, depende del valor de "la cantidad promedio de personas infectadas por un individuo infectado".
Varios algoritmos de clasificación de búsquedas web utilizan métricas de centralidad basadas en enlaces, incluidos (en orden de aparición) Hyper Search de Marchiori , PageRank de Google , el algoritmo HITS de Kleinberg , los algoritmos CheiRank y TrustRank . El análisis de enlaces también se lleva a cabo en las ciencias de la información y la comunicación para comprender y extraer información de la estructura de colecciones de páginas web. Por ejemplo, el análisis podría ser de la interconexión entre los sitios web o blogs de políticos.
PageRank funciona seleccionando aleatoriamente "nodos" o sitios web y luego, con una cierta probabilidad, "saltando aleatoriamente" a otros nodos. Al saltar aleatoriamente a estos otros nodos, ayuda a PageRank a recorrer completamente la red, ya que algunas páginas web existen en la periferia y no se evaluarían tan fácilmente.
Cada nodo, , tiene un PageRank definido por la suma de páginas que enlazan a multiplicado por uno los enlaces salientes o "grado de salida" de multiplicado por la "importancia" o PageRank de .
Como se explicó anteriormente, PageRank utiliza saltos aleatorios para intentar asignar PageRank a todos los sitios web de Internet. Estos saltos aleatorios encuentran sitios web que no se encontrarían con las metodologías de búsqueda normales, como la búsqueda en amplitud y la búsqueda en profundidad .
Una mejora con respecto a la fórmula antes mencionada para determinar el PageRank incluye la incorporación de estos componentes de salto aleatorio. Sin los saltos aleatorios, algunas páginas recibirían un PageRank de 0, lo que no sería bueno.
El primero es , o la probabilidad de que ocurra un salto aleatorio. En contraste está el "factor de amortiguación", o .
Otra forma de verlo:
La información sobre la importancia relativa de los nodos y los bordes de un grafo se puede obtener a través de medidas de centralidad , ampliamente utilizadas en disciplinas como la sociología . Las medidas de centralidad son esenciales cuando un análisis de red tiene que responder a preguntas como: "¿Qué nodos de la red deben ser el objetivo para garantizar que un mensaje o información se propague a todos o la mayoría de los nodos de la red?" o, por el contrario, "¿Qué nodos deben ser el objetivo para reducir la propagación de una enfermedad?". Las medidas de centralidad establecidas formalmente son la centralidad de grado , la centralidad de cercanía , la centralidad de intermediación , la centralidad de vector propio y la centralidad de Katz . El objetivo del análisis de red generalmente determina el tipo de medida(s) de centralidad que se utilizará. [37]
El contenido de una red compleja se puede propagar mediante dos métodos principales: propagación conservada y propagación no conservada. [49] En la propagación conservada, la cantidad total de contenido que entra en una red compleja permanece constante a medida que pasa a través de ella. El modelo de propagación conservada se puede representar mejor con una jarra que contiene una cantidad fija de agua que se vierte en una serie de embudos conectados por tubos. Aquí, la jarra representa la fuente original y el agua es el contenido que se está propagando. Los embudos y los tubos de conexión representan los nodos y las conexiones entre nodos, respectivamente. A medida que el agua pasa de un embudo a otro, desaparece instantáneamente del embudo que anteriormente estaba expuesto al agua. En la propagación no conservada, la cantidad de contenido cambia a medida que entra y pasa a través de una red compleja. El modelo de propagación no conservada se puede representar mejor con un grifo que funciona continuamente y pasa por una serie de embudos conectados por tubos. Aquí, la cantidad de agua de la fuente original es infinita. Además, todos los embudos que han estado expuestos al agua continúan recibiendo el agua incluso cuando pasa a embudos sucesivos. El modelo no conservado es el más adecuado para explicar la transmisión de la mayoría de las enfermedades infecciosas .
En 1927, WO Kermack y AG McKendrick crearon un modelo en el que consideraron una población fija con solo tres compartimentos, susceptibles: , infectados , y recuperados, . Los compartimentos utilizados para este modelo constan de tres clases:
El flujo de este modelo puede considerarse de la siguiente manera:
Utilizando una población fija , Kermack y McKendrick derivaron las siguientes ecuaciones:
Se hicieron varias suposiciones en la formulación de estas ecuaciones: primero, un individuo en la población debe considerarse como teniendo una probabilidad igual a cualquier otro individuo de contraer la enfermedad con una tasa de , que se considera la tasa de contacto o infección de la enfermedad. Por lo tanto, un individuo infectado hace contacto y es capaz de transmitir la enfermedad con otros por unidad de tiempo y la fracción de contactos de un infectado con un susceptible es . El número de nuevas infecciones en unidad de tiempo por infectivo entonces es , dando la tasa de nuevas infecciones (o aquellos que salen de la categoría susceptible) como (Brauer y Castillo-Chavez, 2001). Para la segunda y tercera ecuaciones, considere la población que sale de la clase susceptible como igual al número que entra en la clase infectada. Sin embargo, los infectivos abandonan esta clase por unidad de tiempo para entrar en la clase recuperada/eliminada a una tasa por unidad de tiempo (donde representa la tasa media de recuperación, o el periodo medio infectivo). Estos procesos que ocurren simultáneamente se conocen como la Ley de Acción de Masas , una idea ampliamente aceptada que sostiene que la tasa de contacto entre dos grupos de una población es proporcional al tamaño de cada uno de los grupos involucrados (Daley y Gani, 2005). Finalmente, se supone que la tasa de infección y recuperación es mucho más rápida que la escala temporal de nacimientos y muertes y, por lo tanto, estos factores se ignoran en este modelo.
Se puede leer más sobre este modelo en la página del modelo de epidemia .
Una ecuación maestra puede expresar el comportamiento de una red de crecimiento no dirigido donde, en cada paso de tiempo, se añade un nuevo nodo a la red, vinculado a un nodo antiguo (elegido aleatoriamente y sin preferencia). La red inicial está formada por dos nodos y dos enlaces entre ellos en el momento , esta configuración es necesaria solo para simplificar los cálculos posteriores, por lo que en el momento la red tiene nodos y enlaces.
La ecuación maestra para esta red es:
donde es la probabilidad de tener el nodo con grado en el momento , y es el paso de tiempo en el que este nodo se agregó a la red. Tenga en cuenta que solo hay dos formas de que un nodo antiguo tenga enlaces en el momento :
Después de simplificar este modelo, la distribución de grados es [50]
A partir de esta red en crecimiento, se desarrolla un modelo de epidemia siguiendo una regla sencilla: cada vez que se añade un nuevo nodo y tras elegir el antiguo nodo con el que se quiere conectar, se toma una decisión: si este nuevo nodo se infectará o no. La ecuación maestra de este modelo de epidemia es:
donde representa la decisión de infectar ( ) o no ( ). Resolviendo esta ecuación maestra se obtiene la siguiente solución: [51]
Las redes multicapa son redes con múltiples tipos de relaciones. [52] Los intentos de modelar sistemas del mundo real como redes multidimensionales se han utilizado en varios campos, como el análisis de redes sociales, [53] la economía, la historia, el transporte urbano e internacional, la ecología, la psicología, la medicina, la biología, el comercio, la climatología, la física, la neurociencia computacional, la gestión de operaciones y las finanzas.
Los problemas de red que implican encontrar una forma óptima de hacer algo se estudian bajo el nombre de optimización combinatoria . Algunos ejemplos incluyen el flujo de red , el problema de la ruta más corta , el problema de transporte , el problema de transbordo , el problema de ubicación , el problema de emparejamiento , el problema de asignación , el problema de empaquetado , el problema de enrutamiento , el análisis de la ruta crítica y PERT (Técnica de evaluación y revisión de programas).
Las redes interdependientes son redes en las que el funcionamiento de los nodos de una red depende del funcionamiento de los nodos de otra red. En la naturaleza, las redes rara vez aparecen de forma aislada, sino que suelen ser elementos de sistemas más grandes e interactúan con elementos de ese sistema complejo. Estas dependencias complejas pueden tener efectos no triviales entre sí. Un ejemplo bien estudiado es la interdependencia de las redes de infraestructura [54] , las centrales eléctricas que forman los nodos de la red eléctrica requieren combustible suministrado a través de una red de carreteras o tuberías y también se controlan a través de los nodos de la red de comunicaciones. Aunque la red de transporte no depende de la red eléctrica para funcionar, la red de comunicaciones sí lo hace. En estas redes de infraestructura, el mal funcionamiento de un número crítico de nodos, ya sea en la red eléctrica o en la red de comunicaciones, puede provocar fallos en cascada en todo el sistema con resultados potencialmente catastróficos para el funcionamiento de todo el sistema [55] . Si las dos redes se trataran de forma aislada, este importante efecto de retroalimentación no se observaría y las predicciones de la robustez de la red se sobrestimarían en gran medida.
{{cite news}}
: CS1 maint: url-status (link)