Carrera armamentista de inteligencia artificial

Carrera armamentista por las tecnologías más avanzadas relacionadas con la IA

Una carrera armamentista de inteligencia artificial militar es una carrera armamentista entre dos o más estados para desarrollar y desplegar sistemas de armas autónomas letales (LAWS). Desde mediados de la década de 2010, muchos analistas han notado el surgimiento de una carrera armamentista de este tipo entre superpotencias para mejorar la inteligencia artificial militar , [1] [2] impulsada por el aumento de las tensiones geopolíticas y militares .

A veces se sitúa una carrera armamentista de IA en el contexto de una Guerra Fría de IA entre Estados Unidos , Rusia y China . [3]

Terminología

Los sistemas de armas autónomas letales utilizan inteligencia artificial para identificar y matar objetivos humanos sin intervención humana. [4] Los LAWS han sido llamados coloquialmente "robots asesinos" o " robots asesinos ". En términos generales, cualquier competencia por una IA superior a veces se enmarca como una "carrera armamentista". [5] [6] Las ventajas de la IA militar se superponen con las ventajas en otros sectores, ya que los países buscan ventajas económicas y militares. [7]

Historia

En 2014, el especialista en IA Steve Omohundro advirtió que "ya se está produciendo una carrera armamentística de armas autónomas". [8] Según Siemens , el gasto militar mundial en robótica fue de 5.100 millones de dólares en 2010 y de 7.500 millones de dólares en 2015. [9] [10]

China se convirtió en un actor destacado en la investigación de inteligencia artificial en la década de 2010. Según el Financial Times , en 2016, por primera vez, China publicó más artículos sobre IA que toda la Unión Europea. Cuando se restringe el número de artículos sobre IA en el 5% superior de los artículos citados, China superó a los Estados Unidos en 2016, pero quedó por detrás de la Unión Europea. [11] El 23% de los investigadores que presentaron en la conferencia de 2017 de la Asociación Estadounidense para el Avance de la Inteligencia Artificial (AAAI) eran chinos. [12] Eric Schmidt , expresidente de Alphabet , ha predicho que China será el país líder en IA para 2025. [13]

Presentadores de AAAI [12]
País20122017
Estados Unidos41%34%
Porcelana10%23%
Reino Unido5%13%

Riesgos

Un riesgo se refiere a la carrera de la IA en sí, independientemente de si la gana o no un grupo. Los equipos de desarrollo tienen fuertes incentivos para tomar atajos en lo que respecta a la seguridad del sistema, lo que puede dar lugar a un mayor sesgo algorítmico . [14] [15] Esto se debe en parte a la ventaja percibida de ser el primero en desarrollar una tecnología avanzada de IA. Un equipo que parezca estar al borde de un gran avance puede alentar a otros equipos a tomar atajos, ignorar precauciones e implementar un sistema que no está tan preparado. Algunos sostienen que el uso de la terminología de "carrera" en este contexto puede exacerbar este efecto. [16]

Otro peligro potencial de una carrera armamentista de IA es la posibilidad de perder el control de los sistemas de IA; el riesgo se agrava en el caso de una carrera hacia la inteligencia artificial general , que puede presentar un riesgo existencial . [16] En 2023, un funcionario de la Fuerza Aérea de los Estados Unidos supuestamente dijo que durante una prueba de computadora , un dron simulado con IA mató al personaje humano que lo operaba. La USAF dijo más tarde que el funcionario se había expresado mal y que nunca realizó tales simulaciones. [17]

Un tercer riesgo de una carrera armamentista basada en IA es si la carrera realmente la gana un grupo. La preocupación se centra en la consolidación del poder y la ventaja tecnológica en manos de un grupo. [16] Un informe del gobierno estadounidense sostuvo que "las capacidades basadas en IA podrían utilizarse para amenazar infraestructuras críticas, amplificar campañas de desinformación y hacer la guerra" [18] :1 , y que "la estabilidad global y la disuasión nuclear podrían verse socavadas". [18] :11

Posturas frente a la inteligencia artificial militar

Rusia

Un ciempiés de dibujos animados lee libros y escribe en una computadora portátil.
Putin (sentado, en el centro) en el Día Nacional del Conocimiento, 2017

El general ruso Viktor Bondarev , comandante en jefe de la fuerza aérea rusa, declaró que ya en febrero de 2017, Rusia estaba trabajando en misiles guiados por IA que podrían decidir cambiar de objetivo en pleno vuelo. [19] La Comisión Militar-Industrial de Rusia ha aprobado planes para derivar el 30 por ciento del poder de combate de Rusia de plataformas robóticas controladas a distancia y habilitadas con IA para 2030. [20] Los informes de los medios rusos patrocinados por el estado sobre posibles usos militares de la IA aumentaron a mediados de 2017. [21] En mayo de 2017, el director ejecutivo del Grupo Kronstadt de Rusia, un contratista de defensa, declaró que "ya existen sistemas de operación de IA completamente autónomos que proporcionan los medios para los grupos de vehículos aéreos no tripulados, cuando cumplen misiones de forma autónoma, compartiendo tareas entre ellos e interactuando", y que es inevitable que "enjambres de drones" algún día vuelen sobre zonas de combate. [22] Rusia ha estado probando varios sistemas de combate autónomos y semiautónomos, como el módulo de combate de "red neuronal" de Kalashnikov , con una ametralladora, una cámara y una IA que, según sus creadores, puede tomar sus propios decisiones de orientación sin intervención humana. [23]

En septiembre de 2017, durante un discurso con motivo del Día Nacional del Conocimiento ante más de un millón de estudiantes en 16.000 escuelas rusas, el presidente ruso, Vladimir Putin, afirmó que "la inteligencia artificial es el futuro, no solo para Rusia sino para toda la humanidad... Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo". Putin también dijo que sería mejor evitar que un solo actor consiga un monopolio, pero que si Rusia se convertía en el líder en IA, compartiría su "tecnología con el resto del mundo, como lo estamos haciendo ahora con la tecnología atómica y nuclear". [24] [25] [26]

Rusia está creando una serie de organizaciones dedicadas al desarrollo de la IA militar. En marzo de 2018, el gobierno ruso publicó una agenda de IA de 10 puntos, que exige la creación de un consorcio de IA y Big Data, un Fondo para Algoritmos y Programas Analíticos, un programa de formación y educación en IA respaldado por el Estado, un laboratorio dedicado a la IA y un Centro Nacional de Inteligencia Artificial, entre otras iniciativas. [27] Además, Rusia creó recientemente una organización de investigación de defensa, aproximadamente equivalente a DARPA, dedicada a la autonomía y la robótica llamada Fundación para Estudios Avanzados, e inició una conferencia anual sobre "Robotización de las Fuerzas Armadas de la Federación Rusa". [28] [29]

El ejército ruso ha estado investigando una serie de aplicaciones de IA, con un fuerte énfasis en los vehículos semiautónomos y autónomos. En una declaración oficial del 1 de noviembre de 2017, Viktor Bondarev, presidente del Comité de Defensa y Seguridad del Consejo de la Federación, afirmó que "la inteligencia artificial podrá reemplazar a un soldado en el campo de batalla y a un piloto en la cabina de un avión" y luego señaló que "se acerca el día en que los vehículos tendrán inteligencia artificial". [30] Bondarev hizo estas declaraciones muy cerca de la exitosa prueba de Nerehta, un vehículo terrestre ruso sin tripulación que, según se informa, "superó a los vehículos de combate [tripulados] existentes". Rusia planea usar Nerehta como una plataforma de investigación y desarrollo para IA y algún día podría implementar el sistema en combate, recopilación de inteligencia o funciones logísticas. [31] Según se informa, Rusia también ha construido un módulo de combate para vehículos terrestres sin tripulación que es capaz de identificar objetivos de forma autónoma (y, potencialmente, atacarlos) y planea desarrollar un conjunto de sistemas autónomos habilitados para IA. [32] [33] [29]

Además, el ejército ruso planea incorporar IA en vehículos aéreos, navales y submarinos sin tripulación y actualmente está desarrollando capacidades de enjambre. [28] También está explorando usos innovadores de la IA para la teledetección y la guerra electrónica, incluidos saltos de frecuencia adaptativos, formas de onda y contramedidas. [34] [35] Rusia también ha hecho un uso extensivo de las tecnologías de IA para la propaganda y la vigilancia interna, así como para operaciones de información dirigidas contra Estados Unidos y sus aliados. [36] [37] [29]

El gobierno ruso ha rechazado firmemente cualquier prohibición de sistemas de armas autónomas letales , sugiriendo que una prohibición internacional de ese tipo podría ser ignorada. [38] [39]

Porcelana

China está siguiendo una política estratégica de fusión militar-civil en IA para la supremacía tecnológica global . [18] [40] Según un informe de febrero de 2019 de Gregory C. Allen del Centro para una Nueva Seguridad Estadounidense , el liderazgo de China , incluido el líder supremo Xi Jinping , cree que estar a la vanguardia en tecnología de IA es fundamental para el futuro de la competencia mundial por el poder militar y económico. [7] Los funcionarios militares chinos han dicho que su objetivo es incorporar tecnología de IA comercial para "reducir la brecha entre el ejército chino y las potencias avanzadas globales". [7] Los estrechos vínculos entre Silicon Valley y China, y la naturaleza abierta de la comunidad de investigación estadounidense, han hecho que la tecnología de IA más avanzada de Occidente esté fácilmente disponible para China; Además, la industria china tiene numerosos logros propios en materia de IA, como el hecho de que Baidu haya superado un notable punto de referencia en materia de capacidad de reconocimiento de voz en chino en 2015. [41] A partir de 2017, la hoja de ruta de Pekín tiene como objetivo crear una industria de IA de 150.000 millones de dólares para 2030. [11] Antes de 2013, las adquisiciones de defensa chinas estaban restringidas principalmente a unos pocos conglomerados; sin embargo, a partir de 2017, China suele obtener tecnología emergente sensible, como drones e inteligencia artificial, de empresas privadas de nueva creación. [42] Un informe de octubre de 2021 del Centro de Seguridad y Tecnología Emergente concluyó que "la mayoría de los proveedores de equipos de IA [del ejército chino] no son empresas de defensa estatales, sino empresas tecnológicas privadas chinas fundadas después de 2010" . [43] El informe estimó que el gasto militar chino en IA superaba los 1.600 millones de dólares cada año. [43] El Japan Times informó en 2018 que la inversión privada china anual en IA es inferior a 7.000 millones de dólares al año. Las empresas emergentes de IA en China recibieron casi la mitad de la inversión global total en empresas emergentes de IA en 2017; los chinos solicitaron casi cinco veces más patentes de IA que los estadounidenses. [44]

En 2016, China publicó un documento de posición en el que cuestionaba la idoneidad del derecho internacional vigente para abordar la eventualidad de armas totalmente autónomas, convirtiéndose en el primer miembro permanente del Consejo de Seguridad de las Naciones Unidas en abordar el tema. [45] En 2018, Xi pidió una mayor cooperación internacional en la investigación básica sobre inteligencia artificial. [46] Los funcionarios chinos han expresado su preocupación por que la inteligencia artificial, como los drones, pueda conducir a una guerra accidental, especialmente en ausencia de normas internacionales. [47] En 2019, el exsecretario de Defensa de los Estados Unidos, Mark Esper, arremetió contra China por vender drones capaces de quitar vidas sin supervisión humana. [48]

Estados Unidos

El Sea Hunter navega hacia el mar
El Sea Hunter , un buque de guerra autónomo estadounidense, 2016

En 2014, el exsecretario de Defensa Chuck Hagel postuló la " Estrategia de Tercera Compensación " según la cual los rápidos avances en inteligencia artificial definirán la próxima generación de guerra. [49] Según la firma de ciencia de datos y análisis Govini, el Departamento de Defensa de los EE. UU. (DoD) aumentó la inversión en inteligencia artificial, big data y computación en la nube de $ 5.6 mil millones en 2011 a $ 7.4 mil millones en 2016. [50] Sin embargo, el presupuesto civil de la NSF para IA no aumentó en 2017. [11] Japan Times informó en 2018 que la inversión privada de los Estados Unidos es de alrededor de $ 70 mil millones por año. [44] El 'Informe provisional' de noviembre de 2019 de la Comisión de Seguridad Nacional de los Estados Unidos sobre Inteligencia Artificial confirmó que la IA es fundamental para la superioridad militar tecnológica de EE. UU. [18]

Estados Unidos tiene muchos programas militares de combate con inteligencia artificial, como el buque de guerra autónomo Sea Hunter , que está diseñado para operar durante períodos prolongados en el mar sin un solo miembro de la tripulación, e incluso para guiarse a sí mismo dentro y fuera del puerto. [23] Desde 2017, una directiva temporal del Departamento de Defensa de Estados Unidos requiere que se mantenga a un operador humano informado cuando se trate de la eliminación de vidas humanas por parte de sistemas de armas autónomas. [51] El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de Estados Unidos publicó el borrador de un informe que recomienda principios para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizarían que un operador humano siempre pudiera mirar dentro de la "caja negra" y comprender el proceso de la cadena de muerte . Sin embargo, una preocupación importante es cómo se implementará el informe. [52]

El Centro Conjunto de Inteligencia Artificial (JAIC) (pronunciado "jake") [53] es una organización estadounidense dedicada a explorar el uso de la IA (en particular la informática de borde ), la red de redes y la comunicación mejorada por IA, para su uso en combate real. [54] [55] [56] [57] Es una subdivisión de las Fuerzas Armadas de los Estados Unidos y se creó en junio de 2018. El objetivo declarado de la organización es "transformar el Departamento de Defensa de los EE. UU. acelerando la entrega y adopción de IA para lograr un impacto en la misión a escala. El objetivo es utilizar la IA para resolver conjuntos de problemas grandes y complejos que abarcan múltiples sistemas de combate; luego, garantizar que los sistemas y componentes de combate tengan acceso en tiempo real a bibliotecas de conjuntos de datos y herramientas en constante mejora". [55]

En 2023, Microsoft propuso al Departamento de Defensa utilizar modelos DALL-E para entrenar su sistema de gestión del campo de batalla . [58] OpenAI , el desarrollador de DALL-E, eliminó la prohibición general del uso militar y de guerra de sus políticas de uso en enero de 2024. [59]

Proyecto Maven

El Proyecto Maven es un proyecto del Pentágono que implica el uso de aprendizaje automático y talento de ingeniería para distinguir personas y objetos en videos de drones, [60] aparentemente dando al gobierno comando y control del campo de batalla en tiempo real, y la capacidad de rastrear, etiquetar y espiar objetivos sin participación humana. Inicialmente, el esfuerzo fue liderado por Robert O. Work , quien estaba preocupado por el uso militar de China de la tecnología emergente. [61] Según se informa, el desarrollo del Pentágono no llega a actuar como un sistema de armas de IA capaz de disparar contra objetivos autodesignados. [62] El proyecto fue establecido en un memorando del Subsecretario de Defensa de los EE. UU. el 26 de abril de 2017. [63] También conocido como el Equipo Interfuncional de Guerra Algorítmica , [64] es, según el Teniente General de la Fuerza Aérea de los Estados Unidos Jack Shanahan en noviembre de 2017, un proyecto "diseñado para ser ese proyecto piloto, ese pionero, esa chispa que enciende el frente de llama de la inteligencia artificial en el resto del Departamento [de Defensa]". [65] Su jefe, el coronel del Cuerpo de Marines de los EE. UU. Drew Cukor, dijo: "Las personas y las computadoras trabajarán simbióticamente para aumentar la capacidad de los sistemas de armas para detectar objetos". [66] El Proyecto Maven ha sido destacado por aliados, como el australiano Ian Langford , por la capacidad de identificar adversarios mediante la recolección de datos de sensores en vehículos aéreos no tripulados y satélites. [67] En la segunda Cumbre de Defensa One Tech en julio de 2017, Cukor también dijo que la inversión en un "proceso de flujo de trabajo deliberado" fue financiada por el Departamento [de Defensa] a través de sus "autoridades de adquisición rápida" durante aproximadamente "los próximos 36 meses". [68]

Reino Unido

En 2015, el gobierno del Reino Unido se opuso a la prohibición de las armas autónomas letales, afirmando que "el derecho internacional humanitario ya proporciona suficiente regulación en esta área", pero que todas las armas empleadas por las fuerzas armadas del Reino Unido estarían "bajo supervisión y control humanos". [69]

Israel

Israel hace un uso extensivo de la IA para aplicaciones militares, especialmente durante la guerra entre Israel y Hamás . Los principales sistemas de IA utilizados para la identificación de objetivos son Gospel y Lavender. Lavender, desarrollado por la Unidad 8200, identifica y crea una base de datos de individuos, en su mayoría militantes de bajo rango de Hamás y la Jihad Islámica Palestina, y tiene una tasa de precisión del 90% y una base de datos de decenas de miles. Gospel, en las comparaciones, recomendó edificios y estructuras en lugar de individuos. Los miembros de las FDI deciden el daño colateral aceptable y el tipo de arma utilizada para eliminar el objetivo y podría rastrear a los militantes incluso cuando están en casa. [70]

El dron antirradar israelí Harpy , del tipo "dispara y olvida", está diseñado para ser lanzado por tropas terrestres y volar de forma autónoma sobre un área para encontrar y destruir un radar que se ajuste a criterios predeterminados. [71] También se espera que la aplicación de inteligencia artificial avance en sistemas terrestres sin tripulación y vehículos robóticos como el Guardium MK III y versiones posteriores. [72] Estos vehículos robóticos se utilizan en la defensa de fronteras.

Corea del Sur

La ametralladora surcoreana Super aEgis II , presentada en 2010, se utiliza tanto en Corea del Sur como en Oriente Medio. Puede identificar, rastrear y destruir un objetivo en movimiento a una distancia de 4 km. Si bien la tecnología puede funcionar teóricamente sin intervención humana, en la práctica se instalan salvaguardas que requieren la intervención manual. Un fabricante surcoreano afirma: "Nuestras armas no duermen, como deben hacerlo los humanos. Pueden ver en la oscuridad, algo que los humanos no pueden hacer. Nuestra tecnología, por tanto, llena los vacíos de la capacidad humana", y quieren "llegar a un punto en el que nuestro software pueda discernir si un objetivo es amigo, enemigo, civil o militar". [73]

unión Europea

El Parlamento Europeo mantiene la postura de que los seres humanos deben tener poder de supervisión y toma de decisiones sobre las armas autónomas letales. [74] Sin embargo, cada estado miembro de la Unión Europea debe determinar su postura sobre el uso de armas autónomas y las posturas mixtas de los estados miembros son quizás el mayor obstáculo a la capacidad de la Unión Europea para desarrollar armas autónomas. Algunos miembros, como Francia, Alemania, Italia y Suecia, están desarrollando armas autónomas letales. Algunos miembros siguen indecisos sobre el uso de armas militares autónomas y Austria incluso ha pedido que se prohíba el uso de dichas armas. [75]

Algunos Estados miembros de la UE han desarrollado y están desarrollando armas automatizadas. Alemania ha desarrollado un sistema de protección activa , el Sistema de Defensa Activa, que puede responder a una amenaza con total autonomía en menos de un milisegundo. [75] [76] Italia planea incorporar sistemas de armas autónomas en sus futuros planes militares. [75]

Propuestas de regulación internacional

La regulación internacional de las armas autónomas es un tema emergente para el derecho internacional. [77] El control de las armas de IA probablemente requerirá la institucionalización de nuevas normas internacionales incorporadas en especificaciones técnicas efectivas combinadas con un monitoreo activo y diplomacia informal por parte de comunidades de expertos, junto con un proceso de verificación legal y política. [1] [2] Ya en 2007, académicos como el profesor de IA Noel Sharkey han advertido sobre "una carrera armamentista emergente entre las naciones de alta tecnología para desarrollar submarinos autónomos, aviones de combate, acorazados y tanques que puedan encontrar sus propios objetivos y aplicar fuerza violenta sin la participación de decisiones humanas significativas". [78] [79]

Miles Brundage, de la Universidad de Oxford, ha sostenido que la carrera armamentista de la IA podría mitigarse en cierta medida mediante la diplomacia: "Hemos visto en las diversas carreras armamentistas históricas que la colaboración y el diálogo pueden dar sus frutos". [80] Más de cien expertos firmaron una carta abierta en 2017 pidiendo a la ONU que abordara la cuestión de las armas autónomas letales; [81] [82] Sin embargo, en una sesión de noviembre de 2017 de la Convención de la ONU sobre Ciertas Armas Convencionales (CCW), los diplomáticos no pudieron ponerse de acuerdo ni siquiera sobre cómo definir dichas armas. [83] El embajador indio y presidente de la CCW declaró que el acuerdo sobre las normas seguía siendo una perspectiva lejana. [84] En 2019, 26 jefes de Estado y 21 premios Nobel de la Paz han respaldado la prohibición de las armas autónomas. [85] Sin embargo, en 2022, la mayoría de las grandes potencias siguen oponiéndose a la prohibición de las armas autónomas. [86]

Muchos expertos creen que los intentos de prohibir por completo los robots asesinos probablemente fracasarán, [87] en parte porque detectar violaciones de los tratados sería extremadamente difícil. [88] [89] Un informe de 2017 del Centro Belfer de Harvard predice que la IA tiene el potencial de ser tan transformadora como las armas nucleares. [80] [90] [91] El informe sostiene además que "es probable que sea imposible evitar un uso militar ampliado de la IA" y que "se debe perseguir el objetivo más modesto de una gestión segura y eficaz de la tecnología", como prohibir la conexión de un interruptor de hombre muerto de IA a un arsenal nuclear. [91]

Otras reacciones a las armas autónomas

Una carta abierta de 2015 del Future of Life Institute pidiendo la prohibición de los sistemas de armas autónomas letales ha sido firmada por más de 26.000 ciudadanos, entre ellos el físico Stephen Hawking , el magnate de Tesla Elon Musk , Steve Wozniak de Apple y el cofundador de Twitter Jack Dorsey , y más de 4.600 investigadores de inteligencia artificial, entre ellos Stuart Russell , Bart Selman y Francesca Rossi . [92] [83] El Future of Life Institute también ha estrenado dos películas de ficción, Slaughterbots (2017) y Slaughterbots - if human: kill() (2021), que retratan las amenazas de las armas autónomas y promueven su prohibición, ambas se volvieron virales.

El profesor Noel Sharkey, de la Universidad de Sheffield, sostiene que las armas autónomas caerán inevitablemente en manos de grupos terroristas como el Estado Islámico . [93]

Disociación

Muchas empresas tecnológicas occidentales evitan asociarse demasiado estrechamente con el ejército estadounidense por temor a perder el acceso al mercado chino. [41] Además, algunos investigadores, como el director ejecutivo de DeepMind, Demis Hassabis , se oponen ideológicamente a contribuir al trabajo militar. [94]

Por ejemplo, en junio de 2018, fuentes de la compañía Google dijeron que la alta ejecutiva Diane Greene le dijo al personal que la compañía no daría seguimiento al Proyecto Maven después de que el contrato actual expirara en marzo de 2019. [60]

Véase también

Referencias

  1. ^ ab Geist, Edward Moore (15 de agosto de 2016). "Ya es demasiado tarde para detener la carrera armamentística de la IA: debemos gestionarla". Boletín de los científicos atómicos . 72 (5): 318–321. Bibcode :2016BuAtS..72e.318G. doi :10.1080/00963402.2016.1216672. ISSN  0096-3402. S2CID  151967826.
  2. ^ ab Maas, Matthijs M. (6 de febrero de 2019). "¿Qué tan viable es el control internacional de armas para la inteligencia artificial militar? Tres lecciones de las armas nucleares". Política de seguridad contemporánea . 40 (3): 285–311. doi :10.1080/13523260.2019.1576464. ISSN  1352-3260. S2CID  159310223.
  3. ^ Champion, Marc (12 de diciembre de 2019). «Digital Cold War». Bloomberg . Archivado desde el original el 9 de julio de 2021. Consultado el 3 de julio de 2021 .
  4. ^ "Página de inicio". Armas autónomas letales . 2021-10-20. Archivado desde el original el 2022-02-17 . Consultado el 2022-02-17 .
  5. ^ Roff, Heather M. (26 de abril de 2019). "El problema del marco: la "carrera armamentista" de la IA no es una". Boletín de los científicos atómicos . 75 (3): 95–98. Bibcode :2019BuAtS..75c..95R. doi :10.1080/00963402.2019.1604836. ISSN  0096-3402. S2CID  150835614.
  6. ^ "Para Google, una ventaja en la carrera armamentística de la inteligencia artificial". Fortune . 2014. Archivado desde el original el 15 de septiembre de 2021 . Consultado el 11 de abril de 2020 .
  7. ^ abc Allen, Gregory. «Understanding China's AI Strategy» (Entender la estrategia de inteligencia artificial de China). Center for a New American Security (Centro para una nueva seguridad estadounidense ). Archivado desde el original el 17 de marzo de 2019. Consultado el 15 de marzo de 2019 .
  8. ^ Markoff, John (11 de noviembre de 2014). «Temer a las bombas que pueden elegir a quién matar». The New York Times . Archivado desde el original el 27 de noviembre de 2021. Consultado el 11 de enero de 2018 .
  9. ^ "Cómo entender la robótica militar". The Economist . 25 de enero de 2018. Archivado desde el original el 7 de febrero de 2018 . Consultado el 7 de febrero de 2018 .
  10. ^ "Sistemas autónomos: infografía". www.siemens.com . Archivado desde el original el 7 de febrero de 2018 . Consultado el 7 de febrero de 2018 .
  11. ^ abc «China busca dominar la industria global de la IA». Financial Times . 15 de octubre de 2017. Archivado desde el original el 19 de septiembre de 2019 . Consultado el 24 de diciembre de 2017 .
  12. ^ ab Kopf, Dan (2018). «China está acortando rápidamente el liderazgo de Estados Unidos en investigación de IA». Quartz . Archivado desde el original el 6 de febrero de 2018. Consultado el 7 de febrero de 2018 .
  13. ^ "La batalla por la supremacía digital". The Economist . 2018. Archivado desde el original el 18 de marzo de 2018 . Consultado el 19 de marzo de 2018 .
  14. ^ Armstrong, Stuart; Bostrom, Nick; Shulman, Carl (1 de agosto de 2015). "Corriendo hacia el precipicio: un modelo de desarrollo de la inteligencia artificial". AI & Society . 31 (2): 201–206. doi :10.1007/s00146-015-0590-y. ISSN  0951-5666. S2CID  16199902.
  15. ^ Scharre, Paul (18 de febrero de 2020). «Aplicaciones asesinas: los verdaderos peligros de una carrera armamentística de la IA». Archivado desde el original el 12 de marzo de 2020. Consultado el 15 de marzo de 2020 .
  16. ^ abc Cave, Stephen; ÓhÉigeartaigh, Seán S. (2018). "Una carrera de IA por la ventaja estratégica". Actas de la Conferencia AAAI/ACM de 2018 sobre IA, ética y sociedad . Nueva York, Nueva York, EE. UU.: ACM Press. p. 2. doi : 10.1145/3278721.3278780 . ISBN . 978-1-4503-6012-8.
  17. ^ Xiang, Chloe; Gault, Matthew (1 de junio de 2023). "Funcionario de la USAF dice que 'se equivocó' al hablar sobre un dron con inteligencia artificial que mató a un operador humano en una prueba simulada". Vice .
  18. ^ abcd Informe provisional. Washington, DC: Comisión de Seguridad Nacional sobre Inteligencia Artificial. 2019. Archivado desde el original el 2021-09-10 . Consultado el 2020-04-04 .
  19. ^ "Rusia está construyendo un misil que puede tomar sus propias decisiones". Newsweek . 20 de julio de 2017. Archivado desde el original el 30 de diciembre de 2019 . Consultado el 24 de diciembre de 2017 .
  20. ^ Walters, Greg (7 de septiembre de 2017). "La inteligencia artificial está preparada para revolucionar la guerra". Seeker . Archivado desde el original el 7 de octubre de 2021 . Consultado el 8 de mayo de 2022 .
  21. ^ "Por qué Elon Musk tiene razón sobre la amenaza que representa la inteligencia artificial rusa". The Independent . 6 de septiembre de 2017. Archivado desde el original el 25 de abril de 2019 . Consultado el 24 de diciembre de 2017 .
  22. ^ "Rusia está desarrollando "enjambres de drones" autónomos, que considera una parte inevitable de la guerra futura". Newsweek . 15 de mayo de 2017. Archivado desde el original el 3 de junio de 2019 . Consultado el 24 de diciembre de 2017 .
  23. ^ ab Smith, Mark (25 de agosto de 2017). «¿Está la guerra de los robots asesinos más cerca de lo que pensamos?». BBC News . Archivado desde el original el 24 de diciembre de 2019. Consultado el 24 de diciembre de 2017 .
  24. ^ "La inteligencia artificial impulsa una nueva carrera armamentista global". WIRED . Archivado desde el original el 24 de octubre de 2019 . Consultado el 24 de diciembre de 2017 .
  25. ^ Clifford, Catherine (29 de septiembre de 2017). "De la misma manera que hubo una carrera armamentista nuclear, habrá una carrera para construir IA, dice un ejecutivo tecnológico". CNBC . Archivado desde el original el 15 de agosto de 2019 . Consultado el 24 de diciembre de 2017 .
  26. ^ Radina Gigova (2 de septiembre de 2017). «Quién cree Vladimir Putin que gobernará el mundo». CNN . Archivado desde el original el 10 de enero de 2022. Consultado el 22 de marzo de 2020 .
  27. ^ "Así se organiza el ejército ruso para desarrollar inteligencia artificial". Defense One . 20 de julio de 2018. Archivado desde el original el 26 de junio de 2020 . Consultado el 1 de mayo de 2020 .
  28. ^ ab "Red Robots Rising: Behind the Rapid Development of Russian Unmanned Military Systems". The Strategy Bridge . 12 de diciembre de 2017. Archivado desde el original el 12 de agosto de 2020. Consultado el 1 de mayo de 2020 .
  29. ^ abc Inteligencia artificial y seguridad nacional (PDF) . Washington, DC: Servicio de Investigación del Congreso. 2019. Archivado (PDF) desde el original el 8 de mayo de 2020 . Consultado el 1 de mayo de 2020 .Dominio públicoEste artículo incorpora texto de esta fuente, que se encuentra en el dominio público .
  30. ^ Bendett, Samuel (8 de noviembre de 2017). "¿Debería el ejército estadounidense temer a los robots asesinos de Rusia?". The National Interest . Archivado desde el original el 9 de noviembre de 2020. Consultado el 1 de mayo de 2020 .
  31. ^ "Rusia dice que desplegará un tanque robot que supera a los humanos". Defense One . 8 de noviembre de 2017. Archivado desde el original el 29 de agosto de 2020 . Consultado el 1 de mayo de 2020 .
  32. ^ Greene, Tristan (27 de julio de 2017). «Rusia está desarrollando misiles con inteligencia artificial para dominar la nueva carrera armamentística». The Next Web . Archivado desde el original el 21 de septiembre de 2020. Consultado el 1 de mayo de 2020 .
  33. ^ Mizokami, Kyle (19 de julio de 2017). «Kalashnikov creará un robot asesino impulsado por IA». Popular Mechanics . Archivado desde el original el 2 de agosto de 2020. Consultado el 1 de mayo de 2020 .
  34. ^ Dougherty, Jill; Jay, Molly. "Rusia intenta ser más inteligente en materia de inteligencia artificial". Wilson Quarterly . Archivado desde el original el 25 de julio de 2020. Consultado el 1 de mayo de 2020 .
  35. ^ "Combate ruso con inteligencia artificial: ¿llegará a una ciudad cercana?". War on the Rocks . 2019-07-31. Archivado desde el original el 2020-06-06 . Consultado el 2020-05-01 .
  36. ^ Polyakova, Alina (15 de noviembre de 2018). «Armas de los débiles: Rusia y la guerra asimétrica impulsada por la IA». Brookings . Archivado desde el original el 6 de abril de 2019. Consultado el 1 de mayo de 2020 .
  37. ^ Polyakova, Chris Meserole, Alina (25 de mayo de 2018). «Guerras de desinformación». Foreign Policy . Archivado desde el original el 8 de marzo de 2020. Consultado el 1 de mayo de 2020 .{{cite web}}: CS1 maint: varios nombres: lista de autores ( enlace )
  38. ^ "Rusia rechaza una posible prohibición de los 'robots asesinos' por parte de la ONU, según un comunicado oficial". Institution of Engineering and Technology . 1 de diciembre de 2017. Archivado desde el original el 4 de noviembre de 2019 . Consultado el 12 de enero de 2018 .
  39. ^ "Examen de las distintas dimensiones de las tecnologías emergentes en el ámbito de los sistemas de armas autónomas letales, Federación de Rusia, noviembre de 2017" (PDF) . Archivado (PDF) del original el 19 de agosto de 2019. Consultado el 12 de enero de 2018 .
  40. ^ "Tecnología, comercio y fusión militar-civil: la búsqueda de inteligencia artificial, nuevos materiales y nuevas energías por parte de China | EE. UU.-CHINA | COMISIÓN DE REVISIÓN ECONÓMICA Y DE SEGURIDAD". www.uscc.gov . Archivado desde el original el 2020-04-11 . Consultado el 2020-04-04 .
  41. ^ ab Markoff, John; Rosenberg, Matthew (3 de febrero de 2017). «El armamento inteligente de China se vuelve más inteligente». The New York Times . Archivado desde el original el 2 de enero de 2020. Consultado el 24 de diciembre de 2017 .
  42. ^ "China recluta a empresas emergentes en la carrera armamentística de alta tecnología". Financial Times . 9 de julio de 2017. Archivado desde el original el 14 de febrero de 2018 . Consultado el 24 de diciembre de 2017 .
  43. ^ ab Fedasiuk, Ryan; Melot, Jennifer; Murphy, Ben (octubre de 2021). «Relámpagos aprovechados: cómo el ejército chino está adoptando la inteligencia artificial». Centro de Seguridad y Tecnología Emergente . Archivado desde el original el 21 de abril de 2022. Consultado el 22 de abril de 2022 .
  44. ^ ab "La carrera de la inteligencia artificial se calienta". The Japan Times . 1 de marzo de 2018. Archivado desde el original el 3 de enero de 2020 . Consultado el 5 de marzo de 2018 .
  45. ^ "Robots con armas: el auge de los sistemas de armas autónomos". Snopes.com . 21 de abril de 2017 . Consultado el 24 de diciembre de 2017 .
  46. ^ Pecotic, Adrian (2019). «Quien prediga el futuro ganará la carrera armamentística de la IA». Foreign Policy . Archivado desde el original el 16 de julio de 2019. Consultado el 16 de julio de 2019 .
  47. ^ Vincent, James (6 de febrero de 2019). «China está preocupada de que una carrera armamentista de inteligencia artificial pueda conducir a una guerra accidental». The Verge . Archivado desde el original el 16 de julio de 2019. Consultado el 16 de julio de 2019 .
  48. ^ "¿China está exportando robots asesinos a Oriente Medio?". Asia Times . 28 de noviembre de 2019. Archivado desde el original el 21 de diciembre de 2019. Consultado el 21 de diciembre de 2019 .
  49. ^ "Estados Unidos corre el riesgo de perder la carrera armamentista de inteligencia artificial frente a China y Rusia". CNN . 29 de noviembre de 2017. Archivado desde el original el 15 de septiembre de 2021 . Consultado el 24 de diciembre de 2017 .
  50. ^ Davenport, Christian (3 de diciembre de 2017). «Las guerras futuras pueden depender tanto de algoritmos como de municiones, dice un informe». Washington Post . Archivado desde el original el 15 de agosto de 2019. Consultado el 24 de diciembre de 2017 .
  51. ^ "General estadounidense advierte sobre robots asesinos fuera de control". CNN . 18 de julio de 2017. Archivado desde el original el 15 de septiembre de 2021 . Consultado el 24 de diciembre de 2017 .
  52. ^ Estados Unidos. Junta de Innovación de Defensa. Principios de IA: recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa . OCLC  1126650738.
  53. ^ Kelley M. Sayler (8 de junio de 2021). Defense Primer: Emerging Technologies (PDF) (Informe). Servicio de Investigación del Congreso . Archivado (PDF) del original el 10 de julio de 2021. Consultado el 22 de julio de 2021 .
  54. ^ "El Departamento de Defensa presenta su estrategia de inteligencia artificial". Departamento de Defensa de Estados Unidos . Archivado desde el original el 2021-09-02 . Consultado el 10-10-2021 .
  55. ^ ab «Joint Artificial Intelligence Center». Departamento de Defensa. Archivado desde el original el 25 de junio de 2020. Consultado el 26 de junio de 2020 .
  56. ^ McLeary, Paul (29 de junio de 2018). «Joint Artificial Intelligence Center Created Under DoD CIO». Archivado desde el original el 10 de octubre de 2021. Consultado el 10 de octubre de 2021 .
  57. ^ Barnett, Jackson (19 de junio de 2020). «Para que la IA militar llegue al campo de batalla, hay más que solo desafíos de software». FedScoop. Archivado desde el original el 26 de junio de 2020. Consultado el 26 de junio de 2020 .
  58. ^ Biddle, Sam (10 de abril de 2024). "Microsoft presentó DALL-E de OpenAI como herramienta de campo de batalla para el ejército estadounidense". The Intercept .
  59. ^ Biddle, Sam (12 de enero de 2024). "OpenAI elimina silenciosamente la prohibición de usar ChatGPT para "militares y guerras"". The Intercept .
  60. ^ ab «Google 'pondrá fin' al proyecto de inteligencia artificial del Pentágono». BBC News . 2 de junio de 2018. Archivado desde el original el 2 de junio de 2018 . Consultado el 3 de junio de 2018 .
  61. ^ Cade Metz. (15 de marzo de 2018). "El Pentágono quiere la ayuda de Silicon Valley en materia de inteligencia artificial". Sitio web del New York Times Archivado el 8 de abril de 2022 en Wayback Machine . Consultado el 8 de marzo de 2022.
  62. ^ "Informe: Palantir se hizo cargo del Proyecto Maven, el programa de inteligencia artificial militar demasiado poco ético para Google". The Next Web . 11 de diciembre de 2020. Archivado desde el original el 24 de enero de 2020 . Consultado el 17 de enero de 2020 .
  63. ^ Robert O. Work (26 de abril de 2017). «Establecimiento de un equipo multifuncional de guerra algorítmica (Proyecto Maven)» (PDF) . Archivado (PDF) del original el 21 de abril de 2018. Consultado el 3 de junio de 2018 .
  64. ^ "Los empleados de Google dimiten en protesta contra el Proyecto Maven de la Fuerza Aérea". Fedscoop . 14 de mayo de 2018. Archivado desde el original el 15 de julio de 2018 . Consultado el 3 de junio de 2018 .
  65. ^ Allen, Gregory C. (21 de diciembre de 2017). «El proyecto Maven lleva la IA a la lucha contra el ISIS». Boletín de los científicos atómicos . Archivado desde el original el 4 de junio de 2018. Consultado el 3 de junio de 2018 .
  66. ^ Ethan Baron (3 de junio de 2018). "Google se retira del proyecto del Pentágono tras el escándalo: informe". Military.com . Mercury.com. Archivado desde el original el 14 de julio de 2018 . Consultado el 3 de junio de 2018 .
  67. ^ Skinner, Dan (29 de enero de 2020). «Gestión de firmas en la guerra acelerada | Combate cuerpo a cuerpo en el siglo XXI». The Cove . Archivado desde el original el 15 de julio de 2023. Consultado el 15 de julio de 2023 .
  68. ^ Cheryl Pellerin (21 de julio de 2017). "Project Maven to Deploy Computer Algorithms to War Zone by Year's End". Noticias del Departamento de Defensa, Actividad de los medios de defensa. Departamento de Defensa de los Estados Unidos . Archivado desde el original el 4 de junio de 2018. Consultado el 3 de junio de 2018 .
  69. ^ Gibbs, Samuel (20 de agosto de 2017). «Elon Musk lidera a 116 expertos que piden la prohibición total de los robots asesinos». The Guardian . Archivado desde el original el 30 de diciembre de 2019. Consultado el 24 de diciembre de 2017 .
  70. ^ McKernan, Bethan; Davies, Harry (3 de abril de 2024). «'La máquina lo hizo con frialdad': Israel utilizó inteligencia artificial para identificar 37.000 objetivos de Hamás». The Guardian . Consultado el 19 de mayo de 2024 .
  71. ^ "'Robots asesinos': las armas autónomas plantean un dilema moral | Mundo| Últimas noticias y perspectivas de todo el mundo | DW | 14.11.2017". DW.COM . 14 de noviembre de 2017. Archivado desde el original el 11 de julio de 2019 . Consultado el 12 de enero de 2018 .
  72. ^ Slocombe, Geoff (2015). "Sistemas terrestres deshabitados (Ugs)". Asia-Pacific Defence Reporter . 41 (7): 28–29.
  73. ^ Parkin, Simon (16 de julio de 2015). «Robots asesinos: los soldados que nunca duermen». BBC . Archivado desde el original el 4 de agosto de 2019. Consultado el 13 de enero de 2018 .
  74. ^ «Textos aprobados – Sistemas de armas autónomos – Miércoles 12 de septiembre de 2018». www.europarl.europa.eu . Archivado desde el original el 26 de enero de 2021 . Consultado el 30 de enero de 2021 .
  75. ^ abc Haner, Justin; Garcia, Denise (2019). "La carrera armamentista de la inteligencia artificial: tendencias y líderes mundiales en el desarrollo de armas autónomas". Política global . 10 (3): 331–337. doi : 10.1111/1758-5899.12713 . ISSN  1758-5899.
  76. ^ Boulanin, Vincent; Verbruggen, Maaike (2017). Mapeo del desarrollo de la autonomía en los sistemas de armas (PDF) . Instituto Internacional de Investigación para la Paz de Estocolmo. doi :10.13140/rg.2.2.22719.41127. Archivado (PDF) desde el original el 17 de enero de 2021 . Consultado el 30 de enero de 2021 .
  77. ^ Bento, Lucas (2017). "No son meros despojos: responsabilidades humanas en el uso de sistemas inteligentes violentos según el derecho internacional público". Harvard Scholarship Depository . Archivado desde el original el 23 de marzo de 2020. Consultado el 14 de septiembre de 2019 .
  78. ^ Sample, Ian (13 de noviembre de 2017). "Se necesita con urgencia prohibir los robots asesinos, dicen los científicos". The Guardian . Archivado desde el original el 24 de diciembre de 2017. Consultado el 24 de diciembre de 2017 .
  79. ^ Sharkey, Noel (17 de agosto de 2007). «Las guerras de robots son una realidad». The Guardian . Archivado desde el original el 6 de enero de 2018. Consultado el 11 de enero de 2018 .
  80. ^ ab Simonite, Tom (19 de julio de 2017). «La IA podría revolucionar la guerra tanto como las armas nucleares». Wired . Archivado desde el original el 25 de noviembre de 2021. Consultado el 24 de diciembre de 2017 .
  81. ^ Gibbs, Samuel (20 de agosto de 2017). «Elon Musk lidera a 116 expertos que piden la prohibición total de los robots asesinos». The Guardian . Archivado desde el original el 30 de diciembre de 2019. Consultado el 11 de enero de 2018 .
  82. ^ Conn, Ariel (20 de agosto de 2017). "Carta abierta a la Convención de las Naciones Unidas sobre ciertas armas convencionales". Future of Life Institute . Archivado desde el original el 6 de diciembre de 2017. Consultado el 14 de enero de 2018 .
  83. ^ ab Boyd, Alan (24 de noviembre de 2017). "El ascenso de las máquinas asesinas". Asia Times . Consultado el 24 de diciembre de 2017 .
  84. ^ "'Los robots no están tomando el control', dice el jefe del organismo de la ONU sobre armas autónomas". The Guardian . 17 de noviembre de 2017. Archivado desde el original el 5 de diciembre de 2021 . Consultado el 14 de enero de 2018 .
  85. ^ McDonald, Henry (21 de octubre de 2019). «La campaña para detener a los 'robots asesinos' lleva a la ONU a la mascota de la paz». The Guardian . Archivado desde el original el 18 de enero de 2022. Consultado el 27 de enero de 2022 .
  86. ^ Khan, Jeremy (2021). "El mundo acaba de desaprovechar una 'oportunidad histórica' para detener a los robots asesinos". Fortune . Archivado del original el 31 de diciembre de 2021 . Consultado el 31 de diciembre de 2021 . Varios estados, incluidos Estados Unidos, Rusia, el Reino Unido, India e Israel, se opusieron a cualquier restricción legalmente vinculante... China ha apoyado un acuerdo legal vinculante en la CCW, pero también ha buscado definir las armas autónomas de manera tan estricta que gran parte del equipo militar habilitado con IA que está desarrollando actualmente quedaría fuera del alcance de dicha prohibición.
  87. ^ Simonite, Tom (22 de agosto de 2017). «Lo siento, prohibir los 'robots asesinos' simplemente no es práctico». Wired . Archivado desde el original el 23 de julio de 2021. Consultado el 14 de enero de 2018 .
  88. ^ Antebi, Liran. "¿Quién detendrá a los robots?". Asuntos militares y estratégicos 5.2 (2013).
  89. ^ Shulman, C., y Armstrong, S. (julio de 2009). Control de armas y explosiones de inteligencia. En 7th European Conference on Computing and Philosophy (ECAP), Bellaterra, España, julio (pp. 2-4).
  90. ^ McFarland, Matt (14 de noviembre de 2017). «La película 'Slaughterbots' muestra los posibles horrores de los drones asesinos». CNNMoney . Archivado desde el original el 15 de septiembre de 2021. Consultado el 14 de enero de 2018 .
  91. ^ ab Allen, Greg y Taniel Chan. "Inteligencia artificial y seguridad nacional". Informe. Harvard Kennedy School, Universidad de Harvard. Boston, MA (2017).
  92. ^ "Carta abierta sobre armas autónomas: investigadores en IA y robótica". Future of Life Institute . 2016-02-09. Archivado desde el original el 2022-05-25 . Consultado el 2022-02-17 .
  93. ^ Wheeler, Brian (30 de noviembre de 2017). «Los terroristas están 'seguros' de conseguir robots asesinos». BBC News . Archivado desde el original el 15 de septiembre de 2021. Consultado el 24 de diciembre de 2017 .
  94. ^ Metz, Cade (15 de marzo de 2018). «El Pentágono quiere la ayuda de Silicon Valley en materia de inteligencia artificial» The New York Times . Archivado desde el original el 19 de marzo de 2018. Consultado el 19 de marzo de 2018 .

Lectura adicional

  • Paul Scharre, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs , vol. 98, no. 3 (mayo/junio de 2019), pp. 135-144. "Las tecnologías de IA actuales son poderosas pero poco fiables. Los sistemas basados ​​en reglas no pueden lidiar con circunstancias que sus programadores no anticiparon. Los sistemas de aprendizaje están limitados por los datos con los que fueron entrenados. Los fallos de la IA ya han provocado tragedias. Las funciones avanzadas de piloto automático en los automóviles, aunque funcionan bien en algunas circunstancias, han hecho que los automóviles se estrellen sin previo aviso contra camiones, barreras de hormigón y automóviles estacionados. En la situación equivocada, los sistemas de IA pasan de ser superinteligentes a ser supertontos en un instante. Cuando un enemigo intenta manipular y piratear un sistema de IA, los riesgos son aún mayores". (p. 140.)
  • Comisión de Seguridad Nacional sobre Inteligencia Artificial. (2019). Informe provisional . Washington, DC: Autor.
Obtenido de "https://es.wikipedia.org/w/index.php?title=Carrera_armamentística_de_inteligencia_artificial&oldid=1245877196"