La manipulación de Internet es la cooptación de tecnologías digitales en línea , incluidos algoritmos, bots sociales y scripts automatizados, con fines comerciales, sociales, militares o políticos. [1] La manipulación de Internet y las redes sociales son los principales vehículos para difundir desinformación debido a la importancia de las plataformas digitales para el consumo de medios y la comunicación cotidiana . [2] Cuando se emplea con fines políticos, la manipulación de Internet puede usarse para dirigir la opinión pública , [3] polarizar a los ciudadanos, [4] hacer circular teorías de conspiración , [5] y silenciar a los disidentes políticos . La manipulación de Internet también puede realizarse con fines de lucro, por ejemplo, para dañar a adversarios corporativos o políticos y mejorar la reputación de la marca . [6] La manipulación de Internet a veces también se usa para describir la aplicación selectiva de la censura en Internet [7] [8] o violaciones selectivas de la neutralidad de la red . [9]
Asuntos
Manipulación del comportamiento : la manipulación en Internet a menudo tiene como objetivo cambiar las percepciones de los usuarios y sus comportamientos correspondientes. [5] Desde principios de la década de 2000, esta noción de piratería cognitiva significaba un ciberataque que tenía como objetivo cambiar el comportamiento humano. [10] [11] Hoy en día, las noticias falsas , los ataques de desinformación y las falsificaciones profundas pueden afectar secretamente el comportamiento de formas que son difíciles de detectar. [12]
Viralidad de emociones de alta excitación : Se ha descubierto que el contenido que evoca emociones de alta excitación (por ejemplo, asombro, ira, ansiedad o con un significado sexual oculto) es más viral y se toma en consideración el contenido que contiene uno o muchos de estos elementos: sorprendente, interesante o útil. [13]
La simplicidad por encima de la complejidad : proporcionar y perpetuar explicaciones simples para circunstancias complejas puede utilizarse para la manipulación en línea. A menudo, estas explicaciones son más fáciles de creer, surgen antes de cualquier investigación adecuada y tienen una mayor viralidad que cualquier explicación e información compleja y matizada. [14] (Véase también: Racionalidad de baja información )
Influencia de los pares : las valoraciones colectivas previas de un contenido web influyen en la propia percepción del mismo. En 2015 se demostró que la belleza percibida de una obra de arte en un contexto en línea varía con la influencia externa, ya que las valoraciones de los confederados fueron manipuladas por la opinión y la credibilidad de los participantes de un experimento a los que se les pidió que evaluaran una obra de arte. [15] Además, en Reddit , se ha descubierto que el contenido que inicialmente recibe algunos votos negativos o positivos a menudo continúa siendo negativo, o viceversa. Los usuarios y administradores de Reddit se refieren a esto como "votación de bola de nieve". [16]
Oportunidad e imprecisión de la información : las aclaraciones, las investigaciones conspirativas y la exposición de noticias falsas suelen llegar tarde, cuando el daño ya está hecho y/o no llegan a la mayor parte de la audiencia de la desinformación asociada [18] [ se necesita una mejor fuente ]
Segmentación psicológica : las actividades en las redes sociales y otros datos se pueden utilizar para analizar la personalidad de las personas y predecir su comportamiento y preferencias. [19] [20] Michal Kosinski desarrolló un procedimiento de este tipo. [19] Este procedimiento se puede utilizar para medios o información adaptados a la psique de una persona, por ejemplo, a través de Facebook . Según los informes, esto puede haber jugado un papel fundamental en la victoria de Donald Trump. [19] [21] (Ver también: Publicidad dirigida , Marketing personalizado )
Algoritmos, cámaras de eco y polarización
Debido a la sobreabundancia de contenido en línea, las plataformas de redes sociales y los motores de búsqueda han aprovechado algoritmos para adaptar y personalizar los feeds de los usuarios en función de sus preferencias individuales. Sin embargo, los algoritmos también restringen la exposición a diferentes puntos de vista y contenidos, lo que conduce a la creación de cámaras de eco o burbujas de filtro . [5] [22]
Con la ayuda de algoritmos, las burbujas de filtro influyen en las elecciones de los usuarios y en su percepción de la realidad al dar la impresión de que un punto de vista o una representación en particular es ampliamente compartido. Tras el referéndum de 2016 sobre la pertenencia a la Unión Europea en el Reino Unido y las elecciones presidenciales de los Estados Unidos , esto ganó atención ya que muchas personas confesaron su sorpresa ante unos resultados que parecían muy distantes de sus expectativas. El rango de pluralismo está influenciado por la individualización personalizada de los servicios y la forma en que disminuye la elección. [23] Se encontraron cinco influencias verbales manipuladoras en los textos de los medios. Hay autoexpresión, estrategias de discurso semántico, estrategias persuasivas, películas de deslizamiento y manipulación de la información. El conjunto de herramientas de vocabulario para la manipulación del habla incluye eufemismos, vocabulario de estados de ánimo, adjetivos situacionales, eslóganes, metáforas verbales, etc. [24]
Las investigaciones sobre cámaras de eco de Flaxman, Goel y Rao, [25] Pariser , [26] y Grömping [27] sugieren que el uso de las redes sociales y los motores de búsqueda tiende a aumentar la distancia ideológica entre los individuos.
Las comparaciones entre la segregación en línea y fuera de línea han indicado cómo la segregación tiende a ser mayor en las interacciones cara a cara con vecinos, compañeros de trabajo o miembros de la familia, [28] y las revisiones de la investigación existente han indicado cómo la evidencia empírica disponible no respalda las opiniones más pesimistas sobre la polarización . [29] Un estudio de 2015 sugirió que las propias elecciones de los individuos impulsan el filtrado algorítmico, limitando la exposición a una variedad de contenidos. [30] Si bien los algoritmos pueden no estar causando la polarización, podrían amplificarla, representando un componente significativo del nuevo panorama de la información. [31]
Investigación y uso por parte de agencias de inteligencia y militares
La unidad Joint Threat Research Intelligence Group del Cuartel General de Comunicaciones del Gobierno (GCHQ), la agencia de inteligencia británica [32] fue revelada como parte de las revelaciones de vigilancia global en documentos filtrados por el ex contratista de la Agencia de Seguridad Nacional Edward Snowden [33] y el alcance de su misión incluye el uso de "trucos sucios" para "destruir, negar, degradar [y] perturbar" a los enemigos. [33] [34] Las tácticas principales incluyen inyectar material falso en Internet para destruir la reputación de los objetivos y manipular el discurso y el activismo en línea , para lo cual se pueden utilizar métodos como publicar material en Internet y atribuirlo falsamente a otra persona, pretender ser una víctima del individuo objetivo cuya reputación se pretende destruir y publicar "información negativa" en varios foros. [35]
Conocidas como operaciones "Efectos", el trabajo del JTRIG se había convertido en una "parte importante" de las operaciones del GCHQ en 2010. [33] Los esfuerzos de propaganda en línea de la unidad (llamados "Acción encubierta en línea" [ cita requerida ] ) utilizan "mensajes masivos" y la "impulsión [de] historias" a través de Twitter , Flickr , Facebook y YouTube . [33] Las operaciones de " bandera falsa " en línea también son utilizadas por el JTRIG contra los objetivos. [33] El JTRIG también ha cambiado fotografías en sitios de redes sociales , así como enviado correos electrónicos y mensajes de texto a colegas y vecinos con "información desagradable" sobre el individuo objetivo. [33] En junio de 2015, los archivos de la NSA publicados por Glenn Greenwald revelaron nuevos detalles sobre el trabajo del JTRIG en la manipulación encubierta de las comunidades en línea. [36] Las revelaciones también revelaron la técnica de "recolección de credenciales", en la que los periodistas podrían ser utilizados para difundir información e identificar a periodistas no británicos que, una vez manipulados, podrían dar información al objetivo previsto de una campaña secreta, tal vez proporcionando acceso durante una entrevista. [33] Se desconoce si los periodistas serían conscientes de que estaban siendo manipulados. [33]
Además, a Rusia se la acusa con frecuencia de financiar a "trolls" para que publiquen opiniones prorrusas en Internet. [37] La Agencia de Investigación de Internet se ha hecho conocida por emplear a cientos de rusos para publicar propaganda en línea bajo identidades falsas con el fin de crear la ilusión de un apoyo masivo. [38] En 2016, Rusia fue acusada de sofisticadas campañas de propaganda para difundir noticias falsas con el objetivo de castigar a la demócrata Hillary Clinton y ayudar al republicano Donald Trump durante las elecciones presidenciales de 2016, así como de socavar la fe en la democracia estadounidense. [39] [40] [41]
En un informe de 2017 [42] Facebook declaró públicamente que su sitio ha sido explotado por los gobiernos para la manipulación de la opinión pública en otros países, incluso durante las elecciones presidenciales en los EE. UU. y Francia. [17] [43] [44] Identificó tres componentes principales involucrados en una campaña de operaciones de información: recopilación de datos dirigida, creación de contenido y amplificación falsa e incluye el robo y la exposición de información que no es pública; la difusión de historias, falsas o reales, a terceros a través de cuentas falsas; y cuentas falsas coordinadas para manipular el debate político, como amplificar algunas voces mientras se reprimen otras. [45] [46]
En política
Esta sección necesita ser ampliada . Puedes ayudar agregándole algo. ( Febrero 2017 )
En 2016, Andrés Sepúlveda reveló que manipuló la opinión pública para amañar elecciones en América Latina. Según él, con un presupuesto de 600.000 dólares, dirigió un equipo de piratas informáticos que robaron estrategias de campaña, manipularon las redes sociales para crear falsas olas de entusiasmo y burla e instalaron software espía en las oficinas de la oposición para ayudar a Enrique Peña Nieto , un candidato de centroderecha, a ganar las elecciones. [47] [48]
En el período previo a las elecciones de 2014 en la India , tanto el partido Bharatiya Janata (BJP) como el partido del Congreso fueron acusados de contratar "trolls políticos" para que hablaran favorablemente sobre ellos en blogs y redes sociales. [37]
También se cree que el gobierno chino dirige un llamado " ejército de 50 centavos " (en referencia a cuánto se dice que se les paga) y el " Ejército del Agua de Internet " para reforzar la opinión favorable hacia él y el Partido Comunista Chino (PCCh), así como para reprimir la disidencia. [37] [49]
En diciembre de 2014 se creó el Ministerio de Información de Ucrania para contrarrestar la propaganda rusa, y una de sus primeras tareas fue la creación de cuentas en las redes sociales (también conocidas como i-Army) y la recopilación de amigos que se hacían pasar por residentes del este de Ucrania. [37] [50]
Un informe de Mediapart afirmaba que los Emiratos Árabes Unidos, a través de un agente de los servicios secretos llamado Mohammed, utilizaban una empresa con sede en Suiza, Alp Services, para llevar a cabo campañas de manipulación contra los opositores emiratíes. El director de Alp Services, Mario Brero, utilizaba cuentas ficticias que publicaban artículos falsos bajo seudónimos para atacar a Qatar y a las redes de los Hermanos Musulmanes en Europa. Los Emiratos Árabes Unidos encargaron a Alp la publicación de al menos 100 artículos al año que criticaran a Qatar. [52]
En los negocios y el marketing
Esta sección está vacía. Puedes colaborar con tus aportaciones. ( Febrero 2017 )
Trolling y otras aplicaciones
Esta sección necesita ser ampliada . Puedes ayudar agregándole algo. ( Febrero 2017 )
Los bromistas y los hacktivistas con orientación política pueden compartir conocimientos sofisticados sobre cómo manipular la Web y las redes sociales. [59]
Contramedidas
Esta sección necesita ser ampliada . Puedes ayudar agregándole algo. ( Febrero 2017 )
En Wired se señaló que las normas de los Estados nacionales, como el registro obligatorio y las amenazas de castigo, no son medidas adecuadas para combatir el problema de los bots en línea. [60]
Para evitar que las calificaciones previas influyan en la percepción, varios sitios web como Reddit han tomado medidas como ocultar el recuento de votos durante un tiempo específico. [16]
Otras posibles medidas que se están discutiendo son marcar publicaciones por ser probablemente satíricas o falsas. [61] Por ejemplo, en diciembre de 2016, Facebook anunció que los artículos en disputa se marcarían con la ayuda de los usuarios y verificadores de datos externos. [62] La compañía busca formas de identificar "operaciones de información" y cuentas falsas y suspendió 30.000 cuentas antes de las elecciones presidenciales en Francia en una huelga contra las operaciones de información. [17]
El inventor de la World Wide Web, Tim Berners-Lee, considera que poner a unas pocas empresas a cargo de decidir qué es o no verdad es una propuesta arriesgada y afirma que la apertura puede hacer que la web sea más veraz. Como ejemplo, señala a Wikipedia, que, si bien no es perfecta, permite que cualquiera edite y la clave de su éxito no es sólo la tecnología, sino también la gobernanza del sitio, es decir, cuenta con un ejército de innumerables voluntarios y formas de determinar qué es o no verdad. [63]
Además, se pueden utilizar varios tipos de software para combatir este problema, como software de verificación de falsificaciones o extensiones voluntarias del navegador que almacenan cada sitio web que uno lee o utilizan el historial de navegación para entregar revelaciones falsas a aquellos que leen una historia falsa después de que se encontró algún tipo de consenso sobre la falsedad de una historia. [ investigación original? ]
Según un estudio del Oxford Internet Institute, al menos 43 países de todo el mundo han propuesto o implementado regulaciones diseñadas específicamente para abordar diferentes aspectos de las campañas de influencia, incluidas las noticias falsas, el abuso de las redes sociales y la interferencia electoral. [64]
Alemania
En Alemania, durante el período previo a las elecciones de septiembre de 2017, todos los partidos políticos importantes, excepto AfD, anunciaron públicamente que no utilizarían bots sociales en sus campañas. Además, se comprometieron a condenar enérgicamente ese uso de bots en línea.
Se han dado pasos hacia la regulación de las redes sociales: tres estados alemanes, Hessen, Baviera y Sajonia-Anhalt, propusieron a principios de 2017 una ley que implicaría que los usuarios de las redes sociales podrían enfrentarse a procesos judiciales si violan los términos y condiciones de una plataforma. Por ejemplo, el uso de un seudónimo en Facebook o la creación de una cuenta falsa se castigarían con hasta un año de prisión. [65]
Italia
A principios de 2018, la Agencia de Comunicaciones de Italia (AGCOM) publicó en su sitio web una serie de directrices con vistas a las elecciones de marzo de ese mismo año. Los seis temas principales son: [66]
Trato igualitario de los sujetos políticos
La transparencia de la propaganda política
Contenidos Ilícitos y Actividades cuya Difusión Está Prohibida (por ej. Encuestas)
Cuentas de Redes Sociales de las Administraciones Públicas
La propaganda política está prohibida el día de las elecciones y el día anterior
En noviembre de 2018 se aprobó en Francia una ley contra la manipulación de la información que estipula que durante los períodos de campaña: [67]
Las plataformas digitales deben divulgar el importe pagado por los anuncios y los nombres de sus autores. A partir de un determinado umbral de tráfico, las plataformas deben tener un representante presente en Francia y deben publicar los algoritmos utilizados.
Un juez interino puede dictar una orden judicial para detener rápidamente la difusión de noticias falsas. Las "noticias falsas" deben cumplir los siguientes requisitos: (a) deben ser manifiestas; (b) deben difundirse a gran escala; y (c) deben provocar una perturbación del orden público o comprometer el resultado de una elección.
Malasia
En abril de 2018, el parlamento de Malasia aprobó la Ley contra las noticias falsas, que define las noticias falsas como «noticias, información, datos e informes que son total o parcialmente falsos». [68] Esta ley se aplicaba a los ciudadanos o a quienes trabajaban en una publicación digital y podía ser condenada a prisión por hasta seis años. Sin embargo, la ley fue derogada tras fuertes críticas en agosto de 2018. [69]
Kenia
En mayo de 2018, el presidente Uhuru Kenyatta promulgó la ley sobre delitos informáticos y cibernéticos, que penaliza los delitos informáticos, incluidos el acoso cibernético y el espionaje cibernético. Si una persona "publica intencionalmente datos falsos, engañosos o ficticios o desinforma con la intención de que se consideren o se actúe en función de los datos como auténticos", puede ser objeto de multas y hasta dos años de prisión. [70]
Investigación
La canciller alemana, Angela Merkel, ha pedido al Bundestag que aborde las posibilidades de manipulación política por parte de bots sociales o noticias falsas. [71]
Este artículo incorpora texto de una obra de contenido libre . Licencia CC BY SA 3.0 IGO (declaración de licencia/permiso). Texto tomado de World Trends in Freedom of Expression and Media Development Global Report 2017/2018, 202, Universidad de Oxford, UNESCO.
Referencias
^ Woolley, Samuel; Howard, Philip N. (2019). Propaganda computacional: partidos políticos, políticos y manipulación política en las redes sociales . Oxford University Press. ISBN978-0190931414.
^ Diaz Ruiz, Carlos (2023-10-30). "Desinformación en plataformas de medios digitales: un enfoque que moldea el mercado". Nuevos medios y sociedad . doi : 10.1177/14614448231207644 . ISSN 1461-4448. S2CID 264816011.
^ Marchal, Nahema; Neudert, Lisa-Maria (2019). «Polarización y uso de la tecnología en las campañas políticas y la comunicación» (PDF) . Servicio de Estudios del Parlamento Europeo .
^ Kreiss, Daniel; McGregor, Shannon C (11 de abril de 2023). "Una revisión y provocación: sobre polarización y plataformas". Nuevos medios y sociedad . 26 : 556–579. doi : 10.1177/14614448231161880 . ISSN 1461-4448. S2CID 258125103.
^ abc Diaz Ruiz, Carlos; Nilsson, Tomas (2023). "Desinformación y cámaras de eco: cómo circula la desinformación en las redes sociales a través de controversias impulsadas por la identidad". Revista de Políticas Públicas y Marketing . 42 (1): 18–35. doi :10.1177/07439156221103852. ISSN 0743-9156. S2CID 248934562.
^ Di Domenico, Giandomenico; Ding, Yu (23 de octubre de 2023). "Entre los ataques a la marca y las narrativas más amplias: cómo la desinformación directa e indirecta erosiona la confianza del consumidor". Current Opinion in Psychology . 54 : 101716. doi : 10.1016/j.copsyc.2023.101716 . ISSN 2352-250X. PMID 37952396. S2CID 264474368.
^ Castells, Manuel (4 de junio de 2015). Redes de indignación y esperanza: movimientos sociales en la era de Internet. John Wiley & Sons. ISBN9780745695792. Recuperado el 4 de febrero de 2017 .
^ "Condena por el bloqueo de Internet en Egipto". Financial Times . Consultado el 4 de febrero de 2017 .
^ "La neutralidad de la red triunfa en Europa: una victoria para Internet tal como la conocemos". ZME Science. 31 de agosto de 2016. Consultado el 4 de febrero de 2017 .
^ Thompson, Paul (2004). Trevisani, Dawn A.; Sisti, Alex F. (eds.). Cognitive hacking and intelligence and security informatics (PDF) . Defensa y Seguridad. Tecnologías facilitadoras para la ciencia de la simulación VIII. Vol. 5423. Orlando, Florida, Estados Unidos. págs. 142–151. Código Bibliográfico :2004SPIE.5423..142T. doi :10.1117/12.554454. S2CID 18907972. Archivado desde el original (PDF) el 5 de febrero de 2017 . Consultado el 4 de febrero de 2017 .
^ Cybenko, G.; Giani, A.; Thompson, P. (2002). "Hackeo cognitivo: una batalla por la mente". Computer . 35 (8): 50–56. doi :10.1109/mc.2002.1023788 . Consultado el 2 de noviembre de 2023 .
^ Bastick, Zach (2021). "¿Te darías cuenta si las noticias falsas cambiaran tu comportamiento? Un experimento sobre los efectos inconscientes de la desinformación". Computers in Human Behavior . 116 (106633): 106633. doi : 10.1016/j.chb.2020.106633 .
^ Berger, Jonah; Milkman, Katherine L (abril de 2012). "¿Qué hace que el contenido online sea viral?" (PDF) . Revista de investigación de marketing . 49 (2): 192–205. doi :10.1509/jmr.10.0353. S2CID 29504532.
^ Hoff, Carsten Klotz von (6 de abril de 2012). "Manipulación 2.0 - Meinungsmache vía Facebook" (en alemán). Der Freitag . Consultado el 4 de febrero de 2017 .
^ Golda, Christopher P. (2015). Influencia social informativa e Internet: manipulación en una sociedad de consumo . Consultado el 4 de febrero de 2017 .
^ ab "Moderadores: Nueva función de subreddit: las puntuaciones de los comentarios pueden estar ocultas durante un período de tiempo definido después de la publicación • /r/modnews". reddit . 29 de abril de 2013 . Consultado el 4 de febrero de 2017 .
^ abc Solon, Olivia (27 de abril de 2017). «Facebook admite: los gobiernos nos explotaron para difundir propaganda». The Guardian . Consultado el 30 de abril de 2017 .
^ "Die Scheinwelt von Facebook & Co. (documental en alemán del ZDF)" (en alemán) . Consultado el 4 de febrero de 2017 .
^ abc "Ich habe nur gezeigt, dass es die Bombe gibt". La revista. 3 de diciembre de 2016 . Consultado el 30 de abril de 2017 .
^ Beuth, Patrick (6 de diciembre de 2016). "Estados Unidos-Wahl: Big Data allein entscheidet keine Wahl". Die Zeit . Consultado el 30 de abril de 2017 .
^ "Los datos que pusieron al mundo patas arriba". Motherboard. 28 de enero de 2017. Consultado el 30 de abril de 2017 .
^ Sacasas, LM (2020). "La ciudad analógica y la ciudad digital". La Nueva Atlántida (61): 3–18. ISSN 1543-1215. JSTOR 26898497.
^ Tendencias mundiales en libertad de expresión y desarrollo de los medios Informe global 2017/2018. UNESCO. 2018. pág. 202.
^ Kalinina, Anna V.; Yusupova, Elena E.; Voevoda, Elena V. (18 de mayo de 2019). "Medios de influencia en la opinión pública en el contexto político: manipulación del discurso en los medios". Media Watch . 10 (2). doi :10.15655/mw/2019/v10i2/49625. ISSN 2249-8818. S2CID 182112133.
^ Flaxman, Seth, Sharad Goel y Justin M. Rao. 2016. Burbujas de filtro, cámaras de eco y consumo de noticias en línea. Public Opinion Quarterly 80 (S1): 298–320.
^ Pariser, Eli. 2011. La burbuja de filtros: lo que Internet te oculta. Penguin UK. Disponible en https://books.google.co.uk/?hl=en&lr=&oi=fnd&pg=PT3&dq=eli+pariser+filter&ots=g3PrCprRV2&sig=_FI8GISLrm3WNoMKMlqSTJNOFw. Consultado el 20 de mayo de 2017.
^ Grömping, Max (2014). "Cámaras de eco". Asia Pacific Media Educator . 24 : 39–59. doi :10.1177/1326365X14539185. S2CID 154399136.
^ Gentzkow, Matthew y Jesse M. Shapiro. 2011. Segregación ideológica en línea y fuera de línea. The Quarterly Journal of Economics 126 (4): 1799–1839.
^ Zuiderveen Borgesius, Frederik J., Damian Trilling, Judith Moeller, Balázs Bodó, Claes H. de Vreese y Natali Helberger. 2016. ¿Deberíamos preocuparnos por las burbujas de filtro? Disponible en https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2758126. Consultado el 20 de mayo de 2017.
^ Bakshy, Eytan; Messing, Solomon; Adamic, Lada A. (5 de junio de 2015). "Exposición a noticias y opiniones ideológicamente diversas en Facebook". Science . 348 (6239): 1130–1132. Bibcode :2015Sci...348.1130B. doi : 10.1126/science.aaa1160 . ISSN 0036-8075. PMID 25953820. S2CID 206632821.
^ Hargittai. 2015. ¿Por qué Science no publica información importante sobre métodos de forma destacada? Crooked Timber. Disponible en http://crookedtimber.org/2015/05/07/why-doesnt-science-publish-important-methods-info-prominently/. Consultado el 20 de mayo de 2017.
^ "Filtraciones de Snowden: GCHQ 'atacó a los hackers de Anonymous'". BBC News . BBC. 5 de febrero de 2014 . Consultado el 7 de febrero de 2014 .
^ abcdefgh "Documentos de Snowden: los espías británicos utilizaron sexo y 'trucos sucios'". NBC News . 7 de febrero de 2014 . Consultado el 7 de febrero de 2014 .
^ Glenn Greenwald (24 de febrero de 2014). "Cómo los agentes encubiertos se infiltran en Internet para manipular, engañar y destruir reputaciones". The Intercept .[ enlace muerto permanente ] – contiene la presentación en diapositivas del Manual de estrategias operativas DISRUPTION de GCHQ
^ Greenwald, Glenn (24 de febrero de 2014). «Cómo los agentes encubiertos se infiltran en Internet para manipular, engañar y destruir reputaciones». The Intercept . Consultado el 4 de febrero de 2017 .
^ Greenwald, Glenn y Andrew Fishman. Controversial GCHQ Unit Engaged in Domestic Law Enforcement, Online Propaganda, Psychology Research Archivado el 25 de junio de 2015 en Wayback Machine . The Intercept . 22 de junio de 2015.
^ abcd Shearlaw, Maeve (2 de abril de 2015). «De Gran Bretaña a Pekín: cómo los gobiernos manipulan Internet». The Guardian . Consultado el 4 de febrero de 2017 .
^ Chen, Adrian (2 de junio de 2015). "The Agency". The New York Times . Consultado el 30 de abril de 2017 .
^ Watts, Clint; Weisburd, Andrew (6 de agosto de 2016), "Trolls for Trump – How Russia Dominates Your Twitter Feed to Promote Lies (And, Trump, Too)", The Daily Beast , consultado el 24 de noviembre de 2016
^ "Es probable que la propaganda rusa esté detrás de la avalancha de noticias falsas que precedió a las elecciones", PBS NewsHour , Associated Press , 25 de noviembre de 2016 , consultado el 26 de noviembre de 2016
^ "Una campaña de propaganda rusa habría difundido 'noticias falsas' durante las elecciones estadounidenses", Nine News , Agence France-Presse , 26 de noviembre de 2016 , consultado el 26 de noviembre de 2016
^ "Operaciones de información y Facebook" (PDF) . 27 de abril de 2017. Archivado desde el original (PDF) el 8 de enero de 2022 . Consultado el 30 de abril de 2017 – vía Il Sole 24 Ore .
^ Reinbold, Fabián (28 de abril de 2017). "Konzern dokumentiert erstmals Probleme: Geheimdienste nutzen Facebook zur Desinformation". SPIEGEL EN LÍNEA . Consultado el 30 de abril de 2017 .
^ "Informe: Facebook will nicht mehr für Propaganda missbraucht werden" (en alemán). CABLEADO Alemania. 28 de abril de 2017 . Consultado el 30 de abril de 2017 .
^ "Facebook ataca campañas coordinadas que difunden noticias falsas". CNET . Consultado el 30 de abril de 2017 .
^ "Facebook reconoce por primera vez manipulación electoral". CBS News . 28 de abril de 2017 . Consultado el 30 de abril de 2017 .
^ "Cómo hackear una elección". Bloomberg.com . Bloomberg . Consultado el 22 de enero de 2017 .
^ "Hombre afirma haber manipulado elecciones en la mayoría de países latinoamericanos durante ocho años". The Independent . 2 de abril de 2016 . Consultado el 22 de enero de 2017 .
^ "El nuevo ejército en línea de Ucrania en la guerra mediática con Rusia". BBC . Consultado el 4 de febrero de 2017 .
^ "Twitter derriba una red de bots que difundía mensajes a favor de Arabia Saudí sobre un periodista desaparecido". NBC News . 19 de octubre de 2018.
^ "Datos filtrados muestran el alcance de la intromisión de los Emiratos Árabes Unidos en Francia". MediaPart . 4 de marzo de 2023 . Consultado el 4 de marzo de 2023 .
^ Gorwa, Robert; Guilbeault, Douglas (10 de agosto de 2018). "Descifrando el bot de las redes sociales: una tipología para orientar la investigación y las políticas: Descifrando el bot de las redes sociales". Política e Internet . arXiv : 1801.06863 . doi :10.1002/poi3.184. S2CID 51877148.
^ "La persona más influyente del mundo es..." TIME . 27 de abril de 2009. Archivado desde el original el 28 de abril de 2009 . Consultado el 2 de septiembre de 2009 .
^ Heater, Brian (27 de abril de 2009). "Los seguidores de 4Chan piratean la encuesta 'influyente' de Time". Revista PC . Archivado desde el original el 30 de abril de 2009. Consultado el 27 de abril de 2009 .
^ Schonfeld, Erick (21 de abril de 2009). "4Chan se hace cargo de la lista Time 100". Washington Post . Consultado el 27 de abril de 2009 .
^ "Moot gana, Time Inc. pierde «Music Machinery». Musicmachinery.com. 27 de abril de 2009. Archivado desde el original el 3 de mayo de 2009. Consultado el 2 de septiembre de 2009 .
^ Enlaces principales de Reddit. "Marble Cake también es un juego [FOTO]". Buzzfeed.com. Archivado desde el original el 15 de abril de 2009. Consultado el 2 de septiembre de 2009 .
^ Maslin, Janet (31 de mayo de 2012). «'We Are Anonymous' de Parmy Olson». The New York Times . Consultado el 4 de febrero de 2017 .
^ "Debatte um" Social Bots ": Blinder Aktionismus gegen die eigene Hilflosigkeit" (en alemán). CABLEADO Alemania. 23 de enero de 2017 . Consultado el 4 de febrero de 2017 .
^ ab "Cómo la tecnología está cambiando nuestra manera de pensar – Daniel Suárez, Jan Kalbitzer y Frank Rieger". YouTube . 7 de diciembre de 2016 . Consultado el 30 de abril de 2017 .
^ Jamieson, Amber; Solon, Olivia (15 de diciembre de 2016). "Facebook comenzará a marcar las noticias falsas en respuesta a las crecientes críticas". The Guardian . Consultado el 4 de febrero de 2017 .
^ Finley, Klint (4 de abril de 2017). "Tim Berners-Lee, inventor de la Web, planea una revisión radical de su creación". Wired . Consultado el 4 de abril de 2017 .
^ Bradshaw, Samantha; Neudert, Lisa-Maria; Howard, Philip N. (2018). "Respuestas gubernamentales al uso malintencionado de las redes sociales". Nato Stratcom Coe . ISBN978-9934-564-31-4– vía 20.
^ Reuters, Markus (17 de enero de 2017). "Hausfriedensbruch 4.0: Zutritt für Fake News und Bots fortalece las restricciones prohibidas". Netzpolitik . Consultado el 24 de octubre de 2019 .
^ Bella, Marco; Frigerio, Filippo Frigerio (6 de febrero de 2018). "ITALIA: Primer intento de (auto)regular la propaganda política en línea".
^ "Contra la manipulación de la información". Gouvernement.fr . Consultado el 24 de octubre de 2019 .
^ Menon, Praveen (2 de abril de 2018). "Malasia prohíbe las 'noticias falsas' y establece penas de hasta seis años de cárcel". Reuters . Consultado el 24 de octubre de 2019 .
^ Yeung, Jessie (17 de agosto de 2018). «Malasia deroga la controvertida ley sobre noticias falsas». CNN . Consultado el 24 de octubre de 2019 .
^ Schwartz, Arielle (16 de mayo de 2018). "Kenia firma un proyecto de ley que penaliza las noticias falsas". Mail & Guardian . Consultado el 24 de octubre de 2019 .
^ "Bundestagsdebatte: Merkel schimpft über Internet-Trolle". Sueddeutsche.de (en alemán). Süddeutsche Zeitung. 1 de noviembre de 2016 . Consultado el 4 de febrero de 2017 .
Enlaces externos
Cómo la tecnología está cambiando nuestra forma de pensar, charla de Daniel Suárez en YouTube