Parte de una serie sobre |
Sociología |
---|
La sociología computacional es una rama de la sociología que utiliza métodos computacionalmente intensivos para analizar y modelar fenómenos sociales. Mediante simulaciones por computadora , inteligencia artificial , métodos estadísticos complejos y enfoques analíticos como el análisis de redes sociales , la sociología computacional desarrolla y prueba teorías de procesos sociales complejos a través del modelado ascendente de interacciones sociales. [1]
Implica la comprensión de los agentes sociales, la interacción entre estos agentes y el efecto de estas interacciones en el agregado social. [2] Aunque el tema y las metodologías en las ciencias sociales difieren de aquellos en las ciencias naturales o la informática , varios de los enfoques utilizados en la simulación social contemporánea se originaron en campos como la física y la inteligencia artificial . [3] [4] Algunos de los enfoques que se originaron en este campo se han importado a las ciencias naturales, como las medidas de centralidad de la red de los campos del análisis de redes sociales y la ciencia de redes .
En la literatura relevante, la sociología computacional a menudo se relaciona con el estudio de la complejidad social . [5] Los conceptos de complejidad social como sistemas complejos , interconexión no lineal entre procesos macro y micro y emergencia han ingresado al vocabulario de la sociología computacional. [6] Un ejemplo práctico y bien conocido es la construcción de un modelo computacional en forma de una " sociedad artificial ", mediante el cual los investigadores pueden analizar la estructura de un sistema social . [2] [7]
En las últimas cuatro décadas, se ha introducido y ganado popularidad la sociología computacional [ ¿según quién? ] . Esta se ha utilizado principalmente para modelar o construir explicaciones de procesos sociales y depende de la aparición de comportamientos complejos a partir de actividades simples. [8] La idea detrás de la emergencia es que las propiedades de cualquier sistema más grande no siempre tienen que ser propiedades de los componentes que lo componen. [9] Alexander, Morgan y Broad, emergentistas clásicos, introdujeron la idea de emergencia a principios del siglo XX. El objetivo de este método era encontrar un acuerdo lo suficientemente bueno entre dos ontologías diferentes y extremas, que eran el materialismo reduccionista y el dualismo. [8]
Si bien la emergencia ha tenido un papel valioso e importante en la fundación de la sociología computacional, hay quienes no necesariamente están de acuerdo. Un importante líder en el campo, Epstein, dudaba de su uso porque había aspectos que no se podían explicar. Epstein planteó una demanda contra el emergentismo, en la que dice que "es precisamente la suficiencia generativa de las partes lo que constituye la explicación del todo". [8]
Los modelos basados en agentes han tenido una influencia histórica en la Sociología Computacional. Estos modelos surgieron por primera vez en la década de 1960 y se utilizaron para simular procesos de control y retroalimentación en organizaciones, ciudades, etc. Durante la década de 1970, la aplicación introdujo el uso de individuos como unidades principales para los análisis y utilizó estrategias de abajo hacia arriba para modelar comportamientos. La última ola se produjo en la década de 1980. En ese momento, los modelos todavía eran de abajo hacia arriba; la única diferencia es que los agentes interactúan de forma interdependiente. [8]
En la era de la posguerra, el analizador diferencial de Vannevar Bush , los autómatas celulares de John von Neumann , la cibernética de Norbert Wiener y la teoría de la información de Claude Shannon se convirtieron en paradigmas influyentes para modelar y comprender la complejidad en los sistemas técnicos. En respuesta, los científicos en disciplinas como la física, la biología, la electrónica y la economía comenzaron a articular una teoría general de sistemas en la que todos los fenómenos naturales y físicos son manifestaciones de elementos interrelacionados en un sistema que tiene patrones y propiedades comunes. Siguiendo el llamado de Émile Durkheim a analizar la sociedad moderna compleja sui generis , [10] los sociólogos funcionalistas estructurales de la posguerra como Talcott Parsons se apoderaron de estas teorías de interacción sistemática y jerárquica entre los componentes constituyentes para intentar generar grandes teorías sociológicas unificadas, como el paradigma AGIL . [11] Sociólogos como George Homans argumentaron que las teorías sociológicas deberían formalizarse en estructuras jerárquicas de proposiciones y terminología precisa de la cual se pudieran derivar y operacionalizar otras proposiciones e hipótesis en estudios empíricos. [12] Debido a que los algoritmos y programas informáticos se habían utilizado ya en 1956 para probar y validar teoremas matemáticos, como el teorema de los cuatro colores , [13] algunos académicos anticiparon que enfoques computacionales similares podrían "resolver" y "probar" problemas y teoremas formalizados de manera análoga de estructuras y dinámicas sociales.
A finales de los años 1960 y principios de los años 1970, los científicos sociales utilizaron la tecnología informática cada vez más disponible para realizar macrosimulaciones de procesos de control y retroalimentación en organizaciones, industrias, ciudades y poblaciones globales. Estos modelos utilizaban ecuaciones diferenciales para predecir distribuciones de población como funciones holísticas de otros factores sistemáticos como el control de inventarios, el tráfico urbano, la migración y la transmisión de enfermedades. [14] [15] Aunque las simulaciones de sistemas sociales recibieron una atención sustancial a mediados de los años 1970 después de que el Club de Roma publicara informes que predecían que las políticas que promovían el crecimiento económico exponencial eventualmente traerían una catástrofe ambiental global, [16] las conclusiones incómodas llevaron a muchos autores a tratar de desacreditar los modelos, tratando de hacer que los propios investigadores parecieran poco científicos. [2] [17] Con la esperanza de evitar el mismo destino, muchos científicos sociales dirigieron su atención hacia modelos de microsimulación para hacer pronósticos y estudiar los efectos de las políticas mediante la modelización de cambios agregados en el estado de entidades a nivel individual en lugar de los cambios en la distribución a nivel de población. [18] Sin embargo, estos modelos de microsimulación no permitían que los individuos interactuaran o se adaptaran y no estaban destinados a la investigación teórica básica. [1]
Los años 1970 y 1980 también fueron una época en la que los físicos y matemáticos intentaban modelar y analizar cómo las unidades componentes simples, como los átomos, dan lugar a propiedades globales, como propiedades materiales complejas a bajas temperaturas, en materiales magnéticos y dentro de flujos turbulentos. [19] Utilizando autómatas celulares, los científicos pudieron especificar sistemas que consistían en una red de celdas en la que cada celda solo ocupaba algunos estados finitos y los cambios entre estados estaban regidos únicamente por los estados de los vecinos inmediatos. Junto con los avances en inteligencia artificial y potencia de microcomputadoras , estos métodos contribuyeron al desarrollo de la " teoría del caos " y la " teoría de la complejidad " que, a su vez, renovaron el interés en comprender los sistemas físicos y sociales complejos a través de los límites disciplinarios. [2] Las organizaciones de investigación dedicadas explícitamente al estudio interdisciplinario de la complejidad también se fundaron en esta era: el Instituto Santa Fe fue establecido en 1984 por científicos con sede en el Laboratorio Nacional de Los Álamos y el grupo BACH en la Universidad de Michigan también comenzó a mediados de la década de 1980.
Este paradigma de autómatas celulares dio lugar a una tercera ola de simulación social que enfatizaba el modelado basado en agentes. Al igual que las microsimulaciones, estos modelos enfatizaban los diseños de abajo hacia arriba, pero adoptaban cuatro supuestos clave que divergían de la microsimulación: autonomía, interdependencia, reglas simples y comportamiento adaptativo. [1] Los modelos basados en agentes se preocupan menos por la precisión predictiva y, en cambio, enfatizan el desarrollo teórico. [20] En 1981, el matemático y politólogo Robert Axelrod y el biólogo evolutivo WD Hamilton publicaron un importante artículo en Science titulado "La evolución de la cooperación", que utilizó un enfoque de modelado basado en agentes para demostrar cómo se puede establecer y estabilizar la cooperación social basada en la reciprocidad en un juego de dilema del prisionero cuando los agentes siguen reglas simples de interés propio. [21] Axelrod y Hamilton demostraron que los agentes individuales que siguen un conjunto de reglas simples de (1) cooperar en el primer turno y (2) a partir de entonces replicar la acción anterior del socio fueron capaces de desarrollar "normas" de cooperación y sanción en ausencia de constructos sociológicos canónicos como la demografía, los valores, la religión y la cultura como condiciones previas o mediadores de la cooperación. [4] A lo largo de la década de 1990, académicos como William Sims Bainbridge , Kathleen Carley , Michael Macy y John Skvoretz desarrollaron modelos basados en múltiples agentes de reciprocidad generalizada , prejuicio , influencia social y procesamiento de información organizacional (psicología) . En 1999, Nigel Gilbert publicó el primer libro de texto sobre simulación social: Simulación para el científico social y estableció su revista más relevante: Journal of Artificial Societies and Social Simulation .
Independientemente de los desarrollos en modelos computacionales de sistemas sociales, el análisis de redes sociales surgió en los años 1970 y 1980 a partir de los avances en la teoría de grafos, las estadísticas y los estudios de la estructura social como un método analítico distinto y fue articulado y empleado por sociólogos como James S. Coleman , Harrison White , Linton Freeman , J. Clyde Mitchell , Mark Granovetter , Ronald Burt y Barry Wellman . [22] La creciente omnipresencia de las tecnologías informáticas y de telecomunicaciones a lo largo de los años 1980 y 1990 exigió técnicas analíticas, como el análisis de redes y el modelado multinivel , que pudieran escalar a conjuntos de datos cada vez más complejos y grandes. La ola más reciente de sociología computacional, en lugar de emplear simulaciones, utiliza el análisis de redes y técnicas estadísticas avanzadas para analizar bases de datos informáticas a gran escala de proxies electrónicos para datos de comportamiento. Los registros electrónicos, como los registros de correo electrónico y mensajes instantáneos, los hipervínculos en la World Wide Web , el uso de teléfonos móviles y las discusiones en Usenet permiten a los científicos sociales observar y analizar directamente el comportamiento social en múltiples puntos en el tiempo y en múltiples niveles de análisis sin las limitaciones de los métodos empíricos tradicionales, como las entrevistas, la observación de los participantes o los instrumentos de encuesta. [23] Las mejoras continuas en los algoritmos de aprendizaje automático también han permitido a los científicos sociales y a los empresarios utilizar técnicas novedosas para identificar patrones latentes y significativos de interacción social y evolución en grandes conjuntos de datos electrónicos. [24] [25]
El análisis automático de corpus textuales ha permitido la extracción de actores y sus redes relacionales a gran escala, convirtiendo los datos textuales en datos de red. Las redes resultantes, que pueden contener miles de nodos, se analizan luego utilizando herramientas de la teoría de redes para identificar los actores clave, las comunidades o partes clave y propiedades generales como la robustez o la estabilidad estructural de la red general, o la centralidad de ciertos nodos. [27] Esto automatiza el enfoque introducido por el análisis narrativo cuantitativo, [28] mediante el cual los tripletes sujeto-verbo-objeto se identifican con pares de actores vinculados por una acción, o pares formados por actor-objeto. [26]
El análisis de contenido ha sido una parte tradicional de las ciencias sociales y los estudios de medios durante mucho tiempo. La automatización del análisis de contenido ha permitido que se produzca una revolución de " big data " en ese campo, con estudios en redes sociales y contenido de periódicos que incluyen millones de noticias. El sesgo de género , la legibilidad , la similitud de contenido, las preferencias del lector e incluso el estado de ánimo se han analizado con base en métodos de minería de texto en millones de documentos. [29] [30] [31] [32] [33] El análisis de legibilidad, sesgo de género y sesgo de tema se demostró en Flaounas et al. [34] mostrando cómo diferentes temas tienen diferentes sesgos de género y niveles de legibilidad; también se demostró la posibilidad de detectar cambios de humor en una vasta población analizando el contenido de Twitter. [35]
Dzogang et al. [36] fueron pioneros en el análisis de grandes cantidades de contenido periodístico histórico y demostraron que es posible descubrir automáticamente estructuras periódicas en periódicos históricos. Se realizó un análisis similar en las redes sociales, que reveló nuevamente estructuras fuertemente periódicas. [37]
La sociología computacional, como cualquier campo de estudio, enfrenta una serie de desafíos. [38] Estos desafíos deben abordarse de manera significativa para lograr el máximo impacto en la sociedad.
Toda sociedad que se forma tiende a estar en un nivel u otro y existen tendencias de interacción entre estos niveles y a través de ellos. Los niveles no tienen por qué ser sólo de naturaleza micro o macro. Puede haber niveles intermedios en los que exista una sociedad, por ejemplo, grupos, redes, comunidades, etc. [38]
Sin embargo, surge la pregunta de cómo identificar estos niveles y cómo surgen. Y una vez que existen, ¿cómo interactúan entre sí y con otros niveles?
Si consideramos a las entidades (agentes) como nodos y las conexiones entre ellas como los bordes, vemos la formación de redes. Las conexiones en estas redes no surgen de relaciones objetivas entre las entidades, sino que se deciden por factores elegidos por las entidades participantes. [39] El desafío con este proceso es que es difícil identificar cuándo un conjunto de entidades formará una red. Estas redes pueden ser redes de confianza, redes de cooperación, redes de dependencia, etc. Ha habido casos en los que conjuntos heterogéneos de entidades han demostrado formar redes sólidas y significativas entre sí. [40] [41]
Como se ha comentado anteriormente, las sociedades se dividen en niveles y, en uno de ellos, el nivel individual, un vínculo micro-macro [42] se refiere a las interacciones que crean niveles superiores. Hay una serie de preguntas que deben responderse con respecto a estos vínculos micro-macro: ¿cómo se forman? ¿Cuándo convergen? ¿Cuál es la retroalimentación que se envía a los niveles inferiores y cómo se envían?
Otro de los grandes retos en esta categoría es el de la validez de la información y de sus fuentes. En los últimos años se ha producido un auge en la recopilación y el procesamiento de información, pero se ha prestado poca atención a la difusión de información falsa entre las sociedades, por lo que resulta difícil rastrear las fuentes y determinar quién es el propietario de dicha información.
La evolución de las redes y los niveles de la sociedad genera diversidad cultural. [43] Sin embargo, surge la pregunta de cómo persiste la diversidad cuando las personas tienden a interactuar y a aceptar más otras culturas y creencias. ¿Por qué no hay convergencia? Un desafío importante es cómo modelar estas diversidades. ¿Existen factores externos, como los medios de comunicación, la localidad de las sociedades, etc., que influyan en la evolución o la persistencia de las diversidades culturales? [ cita requerida ]
Todo estudio o modelado, cuando se combina con la experimentación, debe ser capaz de abordar las preguntas que se plantean. Las ciencias sociales computacionales trabajan con datos a gran escala y el desafío se hace mucho más evidente a medida que la escala crece. ¿Cómo se diseñarían simulaciones informativas a gran escala? E incluso si se plantea una simulación a gran escala, ¿cómo se supone que se realizará la evaluación?
Otro desafío es identificar los modelos que mejor se ajusten a los datos y a las complejidades de estos modelos. Estos modelos nos ayudarían a predecir cómo podrían evolucionar las sociedades con el tiempo y brindarían posibles explicaciones sobre cómo funcionan las cosas. [44]
Los modelos generativos nos ayudan a realizar análisis cualitativos extensos de manera controlada. Un modelo propuesto por Epstein es la simulación basada en agentes, que habla de identificar un conjunto inicial de entidades heterogéneas (agentes) y observar su evolución y crecimiento en base a reglas locales simples. [45]
Pero ¿cuáles son estas reglas locales? ¿Cómo identificarlas para un conjunto de agentes heterogéneos? La evaluación y el impacto de estas reglas plantean un conjunto de nuevas dificultades.
La integración de modelos simples que funcionan mejor en tareas individuales para formar un modelo híbrido es un enfoque que se puede estudiar. [46] Estos modelos pueden ofrecer un mejor rendimiento y comprensión de los datos. Sin embargo, la desventaja de identificar y tener una comprensión profunda de las interacciones entre estos modelos simples surge cuando uno necesita crear un modelo combinado que funcione bien. Además, crear herramientas y aplicaciones para ayudar a analizar y visualizar los datos basados en estos modelos híbridos es otro desafío adicional.
La sociología computacional puede tener impactos en la ciencia, la tecnología y la sociedad. [38]
Para que el estudio de la sociología computacional sea eficaz, tiene que haber innovaciones valiosas. Estas innovaciones pueden adoptar la forma de nuevas herramientas de análisis de datos, mejores modelos y algoritmos. La aparición de tales innovaciones supondrá un auge para la comunidad científica en general. [ cita requerida ]
Uno de los mayores desafíos de la sociología computacional es el modelado de procesos sociales [ cita requerida ] . Los distintos legisladores y responsables de políticas podrían ver caminos eficientes y efectivos para emitir nuevas pautas y la masa en general podría evaluar y obtener una comprensión justa de las opciones que se les presentan, lo que permitiría un proceso de decisión abierto y bien equilibrado. [ cita requerida ] .
{{cite journal}}
: Requiere citar revista |journal=
( ayuda ){{cite encyclopedia}}
: CS1 maint: DOI inactive as of September 2024 (link){{cite journal}}
: Requiere citar revista |journal=
( ayuda ){{cite journal}}
: Requiere citar revista |journal=
( ayuda ){{cite journal}}
: Requiere citar revista |journal=
( ayuda ){{cite journal}}
: Requiere citar revista |journal=
( ayuda )