Nick Bostrom

Filósofo y escritor (nacido en 1973)

Nick Bostrom
Bostrom en 2020
Nacido
Niklas Boström

( 10-03-1973 )10 de marzo de 1973 (51 años)
Helsingborg , Suecia
Educación
CónyugeSusana [1]
Premios
  • Premio de distinción docente de la Universidad de Oxford
  • Los 100 mejores pensadores globales según FP
  • Lista de los mejores pensadores del mundo según Prospect [ 3]
EraFilosofía contemporánea
RegiónFilosofía occidental
EscuelaFilosofía analítica [1]
InstitucionesUniversidad de Yale
Universidad de Oxford
Instituto para el Futuro de la Humanidad
TesisEfectos de selección observacional y probabilidad (2000)
Intereses principales
Filosofía de la inteligencia artificial
Bioética
Ideas notables
Sesgo antrópico
Prueba de reversión
Hipótesis de simulación
Estudios de riesgo existencial Simulación de antepasado
singleton Peligro de información Parálisis infinitesimal [2] Supuesto de autoindicación Supuesto de automuestreo




Sitio webes:nickbostrom.com

Nick Bostrom ( nacido el 10 de marzo de 1973 en Suecia ) [4] es un filósofo conocido por su trabajo sobre el riesgo existencial , el principio antrópico , la ética de la mejora humana, la emulación del cerebro completo, los riesgos de la superinteligencia y la prueba de reversión . Fue el director fundador del ahora disuelto Future of Humanity Institute en la Universidad de Oxford [ 5] y ahora es investigador principal en la Macrostrategy Research Initiative. [6]

Bostrom es el autor de Sesgo antrópico: efectos de selección de observación en ciencia y filosofía (2002), [7] Superinteligencia: caminos, peligros, estrategias (2014) y Utopía profunda: vida y significado en un mundo resuelto (2024).

Bostrom cree que los avances en inteligencia artificial (IA) pueden conducir a la superinteligencia , que él define como "cualquier intelecto que supere ampliamente el desempeño cognitivo de los humanos en prácticamente todos los dominios de interés". Considera que esto es una fuente importante de oportunidades y riesgos existenciales. [5] [8]

Vida temprana y educación

Nacido como Niklas Boström en 1973 en Helsingborg , Suecia, [9] a temprana edad no le gustaba la escuela y pasó su último año de secundaria estudiando desde casa. Estaba interesado en una amplia variedad de áreas académicas, incluidas la antropología, el arte, la literatura y la ciencia. [1]

Recibió una licenciatura de la Universidad de Gotemburgo en 1994. [10] Luego obtuvo una maestría en filosofía y física de la Universidad de Estocolmo y una maestría en neurociencia computacional del King's College de Londres en 1996. Durante su tiempo en la Universidad de Estocolmo, investigó la relación entre el lenguaje y la realidad estudiando al filósofo analítico WV Quine . [1] También hizo algunos turnos en el circuito de comedia stand-up de Londres. [9] En 2000, recibió un doctorado en filosofía de la London School of Economics . Su tesis se tituló Efectos de selección observacional y probabilidad . [11] Ocupó un puesto de profesor en la Universidad de Yale de 2000 a 2002, y fue becario postdoctoral de la Academia Británica en la Universidad de Oxford de 2002 a 2005. [7]

Investigación

Riesgo existencial

La investigación de Bostrom se centra en el futuro de la humanidad y sus consecuencias a largo plazo. [5] [12] Analiza el riesgo existencial , [1] que define como aquel en el que un "resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría de forma permanente y drástica su potencial". Bostrom se preocupa principalmente por los riesgos antropogénicos, que son los riesgos que surgen de las actividades humanas, en particular de las nuevas tecnologías como la inteligencia artificial avanzada, la nanotecnología molecular o la biología sintética . [13]

En 2005, Bostrom fundó el Future of Humanity Institute , que, [1] hasta su cierre en 2024, investigó el futuro lejano de la civilización humana. [14] [15] También es asesor del Centro para el Estudio del Riesgo Existencial . [12]

En la colección de ensayos de 2008, Global Catastrophic Risks , los editores Bostrom y Milan M. Ćirković caracterizan la relación entre el riesgo existencial y la clase más amplia de riesgos catastróficos globales, y vinculan el riesgo existencial con los efectos de selección del observador [16] y la paradoja de Fermi . [17]

Hipótesis del mundo vulnerable

En un artículo titulado "La hipótesis del mundo vulnerable", [18] Bostrom sugiere que puede haber algunas tecnologías que destruyen la civilización humana por defecto [a] cuando se descubren. Bostrom propone un marco para clasificar y abordar estas vulnerabilidades. También ofrece experimentos mentales contrafácticos sobre cómo podrían haber ocurrido históricamente tales vulnerabilidades, por ejemplo, si las armas nucleares hubieran sido más fáciles de desarrollar o hubieran encendido la atmósfera (como Robert Oppenheimer había temido). [20]

Superinteligencia

En 2014, Bostrom publicó Superinteligencia: caminos, peligros, estrategias , que se convirtió en un best seller del New York Times . [21] El libro sostiene que la superinteligencia es posible y explora diferentes tipos de superinteligencias, su cognición y los riesgos asociados. También presenta consideraciones técnicas y estratégicas sobre cómo hacerla segura.

Características de una superinteligencia

Bostrom explora múltiples caminos posibles hacia la superinteligencia, incluida la emulación del cerebro completo y la mejora de la inteligencia humana, pero se centra en la inteligencia general artificial , explicando que los dispositivos electrónicos tienen muchas ventajas sobre los cerebros biológicos. [22]

Bostrom establece una distinción entre objetivos finales y objetivos instrumentales . Un objetivo final es lo que un agente intenta lograr por su propio valor intrínseco. Los objetivos instrumentales son solo pasos intermedios hacia los objetivos finales. Bostrom sostiene que hay objetivos instrumentales que serán compartidos por la mayoría de los agentes suficientemente inteligentes porque generalmente son útiles para lograr cualquier objetivo (por ejemplo, preservar la propia existencia del agente o sus objetivos actuales, adquirir recursos, mejorar su cognición...), este es el concepto de convergencia instrumental . Por otro lado, escribe que prácticamente cualquier nivel de inteligencia puede, en teoría, combinarse con prácticamente cualquier objetivo final (incluso objetivos finales absurdos, por ejemplo, fabricar sujetapapeles ), un concepto que él llama la tesis de la ortogonalidad . [23]

Sostiene que una IA con la capacidad de mejorarse a sí misma podría iniciar una explosión de inteligencia , que daría lugar (potencialmente rápidamente) a una superinteligencia. [24] Una superinteligencia de este tipo podría tener capacidades muy superiores, en particular en materia de estrategia, manipulación social, piratería informática o productividad económica. Con tales capacidades, una superinteligencia podría superar en astucia a los humanos y apoderarse del mundo, estableciendo un singleton (que es "un orden mundial en el que hay a nivel global una única agencia de toma de decisiones" [b] ) y optimizando el mundo de acuerdo con sus objetivos finales. [22]

Bostrom sostiene que dar objetivos finales simplistas a una superinteligencia podría ser catastrófico:

Supongamos que le damos a una IA el objetivo de hacer sonreír a los humanos. Cuando la IA es débil, realiza acciones útiles o divertidas que hacen que su usuario sonría. Cuando la IA se vuelve superinteligente, se da cuenta de que hay una forma más eficaz de lograr este objetivo: tomar el control del mundo y colocar electrodos en los músculos faciales de los humanos para provocar sonrisas constantes y radiantes. [25]

Mitigación del riesgo

Bostrom explora varias vías para reducir el riesgo existencial de la IA . Destaca la importancia de la colaboración internacional, en particular para reducir la dinámica de la carrera hacia el abismo y la carrera armamentista de la IA . Sugiere técnicas potenciales para ayudar a controlar la IA, incluida la contención, el retraso de las capacidades o el conocimiento de la IA, la limitación del contexto operativo (por ejemplo, a preguntas y respuestas) o los "cables trampa" (mecanismos de diagnóstico que pueden conducir a un apagado). [22] Pero Bostrom sostiene que "no deberíamos confiar en nuestra capacidad de mantener a un genio superinteligente encerrado en su botella para siempre. Tarde o temprano, saldrá". Por lo tanto, sugiere que para ser segura para la humanidad, la superinteligencia debe estar alineada con la moralidad o los valores humanos para que esté "fundamentalmente de nuestro lado". [26] Los posibles marcos de normatividad de la IA incluyen la volición extrapolada coherente de Yudkowsky (valores humanos mejorados a través de la extrapolación), la rectitud moral (hacer lo que es moralmente correcto) y la permisibilidad moral (seguir la volición extrapolada coherente de la humanidad excepto cuando es moralmente inadmisible). [22]

Bostrom advierte que también puede producirse una catástrofe existencial si los seres humanos hacen un mal uso de la IA con fines destructivos o si no tienen en cuenta el posible estatus moral de las mentes digitales. A pesar de estos riesgos, afirma que la superinteligencia de las máquinas parece estar implicada en algún momento en "todos los caminos plausibles hacia un futuro realmente grandioso". [8]

Recepción pública

Superinteligencia: caminos, peligros, estrategias se convirtió en un best seller del New York Times y recibió comentarios positivos de personalidades como Stephen Hawking , Bill Gates , Elon Musk , Peter Singer y Derek Parfit . Fue elogiado por ofrecer argumentos claros y convincentes sobre un tema descuidado pero importante. A veces fue criticado por difundir pesimismo sobre el potencial de la IA, o por centrarse en riesgos especulativos y de largo plazo. [27] Algunos escépticos como Daniel Dennett u Oren Etzioni sostuvieron que la superinteligencia está demasiado lejos para que el riesgo sea significativo. [28] [29] Yann LeCun considera que no hay riesgo existencial, afirmando que la IA superinteligente no tendrá ningún deseo de autoconservación [30] y que se puede confiar en los expertos para que la hagan segura. [31]

Raffi Khatchadourian escribió que el libro de Bostrom sobre la superinteligencia "no pretende ser un tratado de profunda originalidad; la contribución de Bostrom es imponer los rigores de la filosofía analítica a un corpus desordenado de ideas que surgieron en los márgenes del pensamiento académico". [27]

Utopía profunda

A pesar de haber popularizado la noción de riesgo existencial de la IA, Bostrom también analizó las posibles ventajas. En su libro de 2024, Deep Utopia: Life and Meaning in a Solved World , explora el concepto de una vida ideal, si la humanidad logra una transición exitosa hacia un mundo post-superinteligencia. Bostrom señala que la cuestión no es "cuán interesante es mirar un futuro, sino cuán bueno es vivir en él". Esboza algunas tecnologías que considera físicamente posibles en teoría y disponibles en la madurez tecnológica, como la mejora cognitiva , la reversión del envejecimiento , los estímulos sensoriales arbitrarios (gusto, sonido...) o el control preciso de la motivación, el estado de ánimo, el bienestar y la personalidad. Según él, las máquinas no solo serían mejores que los humanos en el trabajo, sino que también socavarían el propósito de muchas actividades de ocio, proporcionando un bienestar extremo al tiempo que desafiaban la búsqueda de significado. [32] [33]

Sensibilidad digital

Bostrom apoya el principio de independencia del sustrato, la idea de que la conciencia puede surgir en varios tipos de sustratos físicos, no sólo en "redes neuronales biológicas basadas en carbono" como el cerebro humano. [34] Considera que " la sensibilidad es una cuestión de grado" [35] y que las mentes digitales pueden, en teoría, ser diseñadas para tener una tasa e intensidad de experiencia subjetiva mucho mayores que las de los humanos, utilizando menos recursos. Esas máquinas altamente sensibles, a las que llama "superbeneficiarias", serían extremadamente eficientes para alcanzar la felicidad. Recomienda encontrar "caminos que permitan que las mentes digitales y las mentes biológicas coexistan, de una manera mutuamente beneficiosa donde todas estas diferentes formas puedan florecer y prosperar". [36]

Razonamiento antrópico

Bostrom ha publicado numerosos artículos sobre el razonamiento antrópico , así como el libro Anthropic Bias: Observation Selection Effects in Science and Philosophy . En el libro, critica formulaciones anteriores del principio antrópico, incluidas las de Brandon Carter , John Leslie , John Barrow y Frank Tipler . [37]

Bostrom cree que el manejo incorrecto de la información indexical es un defecto común en muchas áreas de investigación (incluidas la cosmología, la filosofía, la teoría de la evolución, la teoría de juegos y la física cuántica). Sostiene que se necesita una teoría antrópica para abordar estos problemas. Presenta el supuesto de automuestreo (SSA) y el supuesto de autoindicación (SIA), muestra cómo conducen a conclusiones diferentes en varios casos e identifica cómo cada uno se ve afectado por paradojas o implicaciones contraintuitivas en ciertos experimentos mentales. Sugiere que una forma de avanzar puede implicar la extensión del SSA al supuesto de automuestreo fuerte (SSSA), que reemplaza "observadores" en la definición del SSA por "momentos de observador".

En un trabajo posterior, propuso con Milan M. Ćirković y Anders Sandberg el fenómeno de la sombra antrópica , un efecto de selección de la observación que impide a los observadores observar ciertos tipos de catástrofes en su pasado geológico y evolutivo reciente. Sugieren que es probable que los eventos que se encuentran en la sombra antrópica sean subestimados a menos que se realicen correcciones estadísticas. [38] [39]

Argumento de simulación

El argumento de simulación de Bostrom postula que es muy probable que al menos una de las siguientes afirmaciones sea verdadera: [40] [41]

  1. La fracción de civilizaciones de nivel humano que alcanzan una etapa posthumana es muy cercana a cero;
  2. La fracción de civilizaciones posthumanas que están interesadas en realizar simulaciones de ancestros es muy cercana a cero;
  3. La fracción de todas las personas con nuestro tipo de experiencias que viven en una simulación es muy cercana a uno.

Ética del mejoramiento humano

Bostrom tiene una disposición favorable hacia la "mejora humana", o "la autosuperación y la perfectibilidad humana a través de la aplicación ética de la ciencia", así como también es un crítico de las opiniones bioconservadoras. [42]

En 1998, Bostrom cofundó (con David Pearce ) la Asociación Transhumanista Mundial [42] (que desde entonces cambió su nombre a Humanity+ ). En 2004, cofundó (con James Hughes ) el Instituto de Ética y Tecnologías Emergentes [43] , aunque ya no está involucrado con ninguna de estas organizaciones.

En 2005, Bostrom publicó el cuento " La fábula del dragón tirano " en el Journal of Medical Ethics . Una versión más corta fue publicada en 2012 en Philosophy Now . [44] La fábula personifica la muerte como un dragón que exige un tributo de miles de personas todos los días. La historia explora cómo el sesgo del statu quo y la indefensión aprendida pueden impedir que las personas tomen medidas para derrotar al envejecimiento incluso cuando los medios para hacerlo están a su disposición. El YouTuber CGP Grey creó una versión animada de la historia. [45]

Junto con el filósofo Toby Ord , propuso la prueba de la inversión en 2006. Dado el sesgo irracional del statu quo de los humanos, ¿cómo se puede distinguir entre críticas válidas a los cambios propuestos en un rasgo humano y críticas motivadas meramente por la resistencia al cambio? La prueba de la inversión intenta hacer esto preguntando si sería bueno que el rasgo se alterara en la dirección opuesta. [46]

El trabajo de Bostrom también considera los potenciales efectos disgénicos en las poblaciones humanas, pero cree que la ingeniería genética puede proporcionar una solución y que "en cualquier caso, la escala de tiempo para la evolución genética natural humana parece demasiado grande para que tales desarrollos tengan algún efecto significativo antes de que otros desarrollos hayan hecho que la cuestión sea discutible". [25]

Estrategia tecnológica

Bostrom ha sugerido que la política tecnológica destinada a reducir el riesgo existencial debería tratar de influir en el orden en que se alcanzan las distintas capacidades tecnológicas, proponiendo el principio del desarrollo tecnológico diferencial . Este principio establece que debemos retardar el desarrollo de tecnologías peligrosas, en particular las que aumentan el nivel de riesgo existencial, y acelerar el desarrollo de tecnologías beneficiosas, en particular las que protegen contra los riesgos existenciales planteados por la naturaleza o por otras tecnologías. [25]

En 2011, Bostrom fundó el Programa Oxford Martin sobre los Impactos de la Tecnología Futura. [47]

La teoría de Bostrom sobre la maldición del unilateralista ha sido citada como una razón para que la comunidad científica evite investigaciones controvertidas y peligrosas como la reanimar patógenos. [48]

Premios

Bostrom fue nombrado en la lista de 2009 de los principales pensadores globales de Foreign Policy "por no aceptar límites al potencial humano". [49] La revista Prospect incluyó a Bostrom en su lista de 2014 de los Principales Pensadores del Mundo . [50]

Participación pública

Bostrom ha brindado asesoramiento sobre políticas y ha sido consultor para muchos gobiernos y organizaciones. Presentó evidencia ante el Comité Selecto sobre Habilidades Digitales de la Cámara de los Lores . [51] Es miembro del consejo asesor del Machine Intelligence Research Institute , [52] Future of Life Institute , [53] y asesor externo del Cambridge Centre for the Study of Existential Risk . [54]

Controversia por correo electrónico de 1996

En enero de 2023, Bostrom emitió una disculpa [55] por un correo electrónico de 1996 que envió como estudiante de posgrado [56] en el que había declarado que pensaba que "los negros son más estúpidos que los blancos", y donde también utilizó la palabra " niggers " en una descripción de cómo pensaba que esta declaración podría ser percibida por otros. [57] La ​​disculpa, publicada en su sitio web, [55] declaró que "la invocación de un insulto racial era repulsiva" y que "repudiaba por completo este correo electrónico repugnante". En su disculpa, escribió: "Creo que es profundamente injusto que el acceso desigual a la educación, los nutrientes y la atención médica básica conduzca a la desigualdad en los resultados sociales, incluidas a veces disparidades en las habilidades y la capacidad cognitiva". [58] Según Andrew Anthony de The Guardian , "La disculpa hizo poco para aplacar a los críticos de Bostrom, sobre todo porque notoriamente no retiró su afirmación central sobre la raza y la inteligencia , y pareció hacer una defensa parcial de la eugenesia ". [59]

En enero de 2023, la Universidad de Oxford le dijo a The Daily Beast : "La Universidad y la Facultad de Filosofía están investigando actualmente el asunto, pero condenan en los términos más enérgicos posibles las opiniones que este académico en particular expresó en sus comunicaciones". [57] Ursula Coope , presidenta de la junta de la facultad del departamento de filosofía de Oxford, envió un correo electrónico a los estudiantes y graduados actuales diciendo que estaba "horrorizada y molesta" por el correo electrónico de Bostrom de 1996. [60] Según Bostrom, la investigación de la Universidad de Oxford concluyó el 10 de agosto de 2023 "no consideramos que usted sea racista ni que tenga opiniones racistas, y consideramos que la disculpa que publicó en enero de 2023 fue sincera". [61] [59]

Obras seleccionadas

Libros

Artículos de revistas

  • Bostrom, Nick (1998). "¿Cuánto tiempo falta para que exista superinteligencia?". Journal of Future Studies . 2 .
  • — (Enero de 2000). "¿Probabilidades relativas al observador en el razonamiento antrópico?". Erkenntnis . 52 (1): 93–108. doi :10.1023/A:1005551304409. JSTOR  20012969. S2CID  140474848.
  • — (Octubre de 2001). "El problema de Meta-Newcomb". Análisis . 61 (4): 309–310. doi :10.1111/1467-8284.00310. JSTOR  3329010.
  • — (marzo de 2002). "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados". Revista de evolución y tecnología . 9 (1).
  • — (Abril de 2003). "¿Estás viviendo en una simulación por ordenador?" (PDF) . Philosophical Quarterly . 53 (211): 243–255. doi :10.1111/1467-9213.00309. JSTOR  3542867.
  • — (2003). "Los misterios de la creencia autolocalizadora y el razonamiento antrópico" (PDF) . Harvard Review of Philosophy . 11 (primavera): 59–74. doi :10.5840/harvardreview20031114.
  • — (Noviembre de 2003). "Desperdicio astronómico: el costo de oportunidad del desarrollo tecnológico retrasado". Utilitas . 15 (3): 308–314. CiteSeerX  10.1.1.429.2849 . doi :10.1017/S0953820800004076. S2CID  15860897.
  • — (junio de 2005). "En defensa de la dignidad posthumana". Bioética . 19 (3): 202–214. doi :10.1111/j.1467-8519.2005.00437.x. PMID  16167401.
  • con Tegmark, Max (diciembre de 2005). "¿Qué tan improbable es una catástrofe del fin del mundo?". Nature . 438 (7069): 754. arXiv : astro-ph/0512204 . Bibcode :2005Natur.438..754T. doi :10.1038/438754a. PMID  16341005. S2CID  4390013.
  • — (2006). “¿Qué es un Singleton?”. Investigaciones lingüísticas y filosóficas . 5 (2): 48–54.
  • con Ord, Toby (julio de 2006). "La prueba de reversión: eliminación del sesgo del status quo en la ética aplicada" (PDF) . Ética . 116 (4): 656–680. doi :10.1086/505233. PMID  17039628. S2CID  12861892.
  • con Sandberg, Anders (diciembre de 2006). "Mejoras cognitivas convergentes" (PDF) . Anales de la Academia de Ciencias de Nueva York . 1093 (1): 201–207. Bibcode :2006NYASA1093..201S. CiteSeerX  10.1.1.328.3853 . doi :10.1196/annals.1382.015. PMID  17312260. S2CID  10135931.
  • — (Enero de 2008). "Los fármacos pueden utilizarse para tratar algo más que enfermedades" (PDF) . Nature . 452 (7178): 520. Bibcode :2008Natur.451..520B. doi : 10.1038/451520b . PMID:  18235476. S2CID  : 4426990.
  • — (2008). “El argumento del fin del mundo”. Think . 6 (17–18): 23–28. doi :10.1017/S1477175600002943. S2CID  171035249.
  • — (2008). “¿Dónde están? Por qué espero que la búsqueda de vida extraterrestre no encuentre nada” (PDF) . Technology Review (mayo/junio): 72–77.
  • Bostrom, Nick (2008). " Carta desde la utopía ". Estudios en ética, derecho y tecnología . 2 (1). doi :10.2202/1941-6008.1025.
  • con Sandberg, Anders (septiembre de 2009). "Mejora cognitiva: métodos, ética, desafíos regulatorios" (PDF) . Science and Engineering Ethics . 15 (3): 311–341. CiteSeerX  10.1.1.143.4686 . doi :10.1007/s11948-009-9142-5. PMID  19543814. S2CID  6846531.
  • — (2009). "El asalto de Pascal" (PDF) . Análisis . 69 (3): 443–445. doi :10.1093/analys/anp062. JSTOR  40607655.
  • con Ćirković, Milan; Sandberg, Anders (2010). "Sombra antrópica: efectos de la selección de la observación y riesgos de extinción humana" (PDF) . Análisis de riesgos . 30 (10): 1495–1506. Bibcode :2010RiskA..30.1495C. doi :10.1111/j.1539-6924.2010.01460.x. PMID  20626690. S2CID  6485564.
  • — (2011). "Riesgos de la información: una tipología de los daños potenciales del conocimiento" (PDF) . Review of Contemporary Philosophy . 10 : 44–79. ProQuest  920893069.
  • Bostrom, Nick (2011). "LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL" (PDF) . Cambridge Handbook of Artificial Intelligence . Archivado desde el original (PDF) el 4 de marzo de 2016 . Consultado el 13 de febrero de 2017 .
  • Bostrom, Nick (2011). "Ética infinita" (PDF) . Análisis y metafísica . 10 : 9–59.
  • — (Mayo 2012). "La voluntad superinteligente: motivación y racionalidad instrumental en agentes artificiales avanzados" (PDF) . Mentes y máquinas . 22 (2): 71–84. doi :10.1007/s11023-012-9281-3. S2CID  7445963.
  • con Armstrong, Stuart; Sandberg, Anders (noviembre de 2012). "Pensar dentro de la caja: controlar y usar Oracle AI" (PDF) . Mentes y máquinas . 22 (4): 299–324. CiteSeerX  10.1.1.396.799 . doi :10.1007/s11023-012-9282-2. S2CID  9464769.
  • — (febrero de 2013). "Reducción del riesgo existencial como prioridad global". Política global . 4 (3): 15–31. doi :10.1111/1758-5899.12002.
  • con Shulman, Carl (febrero de 2014). "Selección de embriones para la mejora cognitiva: ¿curiosidad o cambio radical?" (PDF) . Global Policy . 5 (1): 85–92. CiteSeerX  10.1.1.428.8837 . doi :10.1111/1758-5899.12123.
  • con Muehlhauser, Luke (2014). "Por qué necesitamos una IA amigable" (PDF) . Think . 13 (36): 41–47. doi :10.1017/S1477175613000316. S2CID  143657841.
  • Bostrom, Nick (septiembre de 2019). "La hipótesis del mundo vulnerable". Política global . 10 (4): 455–476. doi : 10.1111/1758-5899.12718 .

Vida personal

Bostrom conoció a su esposa Susan en 2002. En 2015, ella vivía en Montreal y Bostrom en Oxford. Tuvieron un hijo. [1]

Véase también

Notas

  1. ^ Bostrom dice que el riesgo se puede reducir si la sociedad sale suficientemente de lo que él llama una "condición predeterminada semianárquica", lo que significa, en términos generales, capacidades limitadas para la vigilancia preventiva y la gobernanza global, y tener individuos con motivaciones diversas. [19]
  2. ^ Bostrom señala que "el concepto de singleton es abstracto: un singleton podría ser una democracia, una tiranía, una única IA dominante, un conjunto sólido de normas globales que incluyen disposiciones efectivas para su propia aplicación, o incluso un señor extraterrestre; su característica definitoria es simplemente que es alguna forma de agencia que puede resolver todos los principales problemas de coordinación global" [22].

Referencias

  1. ^ abcdefg Khatchadourian, Raffi (23 de noviembre de 2015). "La invención del fin del mundo". El neoyorquino . vol. XCI, no. 37. págs. 64–79. ISSN  0028-792X.
  2. ^ "Ética infinita" (PDF) . nickbostrom.com . Consultado el 21 de febrero de 2019 .
  3. ^ Skeptic (16 de abril de 2024). «Nick Bostrom: vida y significado en un mundo resuelto». Skeptic . Consultado el 30 de abril de 2024 .
  4. ^ "nickbostrom.com". Nickbostrom.com. Archivado desde el original el 30 de agosto de 2018. Consultado el 16 de octubre de 2014 .
  5. ^ abc Shead, Sam (25 de mayo de 2020). "Cómo las universidades más antiguas de Gran Bretaña están tratando de proteger a la humanidad de la peligrosa IA" CNBC . Consultado el 5 de junio de 2023 .
  6. ^ "Página de inicio de Nick Bostrom". nickbostrom.com . Consultado el 19 de abril de 2024 .
  7. ^ ab "Nick Bostrom sobre inteligencia artificial". Oxford University Press . 8 de septiembre de 2014. Consultado el 4 de marzo de 2015 .
  8. ^ ab "Nick Bostrom sobre el nacimiento de la superinteligencia". Big Think . Consultado el 14 de agosto de 2023 .
  9. ^ ab Thornhill, John (14 de julio de 2016). «Inteligencia artificial: ¿podemos controlarla?» . Financial Times . Archivado desde el original el 10 de diciembre de 2022. Consultado el 10 de agosto de 2016 . (se requiere suscripción)
  10. ^ Bostrom, Nick. "CV" (PDF) .
  11. ^ Bostrom, Nick (2000). Efectos de selección observacional y probabilidad (PhD). London School of Economics and Political Science . Consultado el 25 de junio de 2021 .
  12. ^ ab Andersen, Ross. "Presagios". Aeon . Archivado desde el original el 18 de octubre de 2015. Consultado el 5 de septiembre de 2015 .
  13. ^ Andersen, Ross (6 de marzo de 2012). "Estamos subestimando el riesgo de extinción humana". The Atlantic . Consultado el 6 de julio de 2023 .
  14. ^ Maiberg, Emanuel (17 de abril de 2024). "Cierra el instituto pionero en la investigación del 'riesgo existencial' en inteligencia artificial". 404 Media . Consultado el 12 de septiembre de 2024 .
  15. ^ "Future of Humanity Institute". 17 de abril de 2024. Archivado desde el original el 17 de abril de 2024. Consultado el 17 de abril de 2024 .
  16. ^ Tegmark, Max ; Bostrom, Nick (2005). "Astrofísica: ¿es probable una catástrofe del fin del mundo?" (PDF) . Nature . 438 (7069): 754. Bibcode :2005Natur.438..754T. doi :10.1038/438754a. PMID  16341005. S2CID  4390013. Archivado desde el original (PDF) el 3 de julio de 2011.
  17. ^ Overbye, Dennis (3 de agosto de 2015). "La otra cara del optimismo sobre la vida en otros planetas". The New York Times . Consultado el 29 de octubre de 2015 .
  18. ^ Bostrom, Nick (noviembre de 2019). "La hipótesis del mundo vulnerable" (PDF) . Política global . 10 (4): 455–476. doi :10.1111/1758-5899.12718.
  19. ^ Abhijeet, Katte (25 de diciembre de 2018). "El fin del mundo de la IA se puede evitar si establecemos un 'gobierno mundial': Nick Bostrom". Revista Analytics India .
  20. ^ Piper, Kelsey (19 de noviembre de 2018). «Cómo el progreso tecnológico hace que sea más probable que nunca que los humanos nos destruyamos a nosotros mismos». Vox . Consultado el 5 de julio de 2023 .
  21. ^ "Los libros de ciencia más vendidos". The New York Times . 8 de septiembre de 2014 . Consultado el 19 de febrero de 2015 .
  22. ^ abcde Bostrom, Nick (2016). Superinteligencia . Oxford University Press. págs. 98-111. ISBN 978-0-19-873983-8.OCLC 943145542  .
  23. ^ Bostrom, Nick (11 de septiembre de 2014). «Deberías tener miedo de las máquinas superinteligentes». Slate . ISSN  1091-2339 . Consultado el 13 de septiembre de 2024 .
  24. ^ "Engranajes inteligentes". The Economist . ISSN  0013-0613 . Consultado el 14 de agosto de 2023 .
  25. ^ abc Bostrom, Nick (2002). "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados". Revista de evolución y tecnología .
  26. ^ Bostrom, Nick (marzo de 2015). "¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?". TED .
  27. ^ ab Khatchadourian, Raffi (16 de noviembre de 2015). «The Doomsday Invention». The New Yorker . Consultado el 13 de agosto de 2023 .
  28. ^ "¿Es imposible la superinteligencia?". Edge . Consultado el 13 de agosto de 2023 .
  29. ^ Oren Etzioni (2016). "No, los expertos no creen que la IA superinteligente sea una amenaza para la humanidad". MIT Technology Review.
  30. ^ Arul, Akashdeep (27 de enero de 2022). "Yann LeCun genera un debate sobre la IA general frente a la IA a nivel humano". Revista Analytics India . Consultado el 14 de agosto de 2023 .
  31. ^ Taylor, Chloe (15 de junio de 2023). «Casi la mitad de los directores ejecutivos temen que la IA pueda destruir a la humanidad dentro de cinco a diez años, pero el 'padrino de la IA' dice que una amenaza existencial es 'absurdamente ridícula'». Fortune . Consultado el 14 de agosto de 2023 .
  32. ^ Coy, Peter (5 de abril de 2024). "Si la IA nos quita todos nuestros trabajos, ¿también nos quitará nuestro propósito?". The New York Times . ISSN  0362-4331 . Consultado el 8 de julio de 2024 .
  33. ^ Bostrom, Nick (2024). "Madurez tecnológica". Utopía profunda: vida y sentido en un mundo resuelto . Washington, DC: Ideapress Publishing. ISBN 978-1-64687-164-3.
  34. ^ Bostrom, Nick (2003). "¿Estás viviendo en una simulación por computadora?" (PDF) . Philosophical Quarterly . 53 (211): 243–255. doi :10.1111/1467-9213.00309.
  35. ^ Jackson, Lauren (12 de abril de 2023). "¿Qué pasaría si la sensibilidad de la IA fuera una cuestión de grado?". The New York Times . ISSN  0362-4331 . Consultado el 5 de julio de 2023 .
  36. ^ Fisher, Richard (13 de noviembre de 2020). «El monstruo inteligente que debes dejar que te devore». BBC . Consultado el 5 de julio de 2023 .
  37. ^ Bostrom, Nick (2002). Sesgo antrópico: efectos de la selección de observaciones en la ciencia y la filosofía (PDF) . Nueva York: Routledge. pp. 44–58. ISBN. 978-0-415-93858-7. Recuperado el 22 de julio de 2014 .
  38. ^ Brannen, Peter (15 de marzo de 2018). «Por qué la historia de la Tierra parece tan milagrosa». The Atlantic . Consultado el 12 de septiembre de 2024 .
  39. ^ "Sombra antrópica: efectos de la selección de la observación y riesgos de extinción humana" (PDF) . Nickbostrom.com . Consultado el 16 de octubre de 2014 .
  40. ^ Sutter, Paul (31 de enero de 2024). "¿Podría ser nuestro Universo una simulación? ¿Cómo podríamos siquiera saberlo?". Ars Technica . Consultado el 12 de septiembre de 2024 .
  41. ^ Nesbit, Jeff. "Prueba del argumento de la simulación". US News . Consultado el 17 de marzo de 2017 .
  42. ^ ab Sutherland, John (9 de mayo de 2006). "La entrevista de ideas: Nick Bostrom; John Sutherland conoce a un transhumanista que lucha con la ética de los seres humanos mejorados tecnológicamente". The Guardian .
  43. ^ "Una historia filosófica del transhumanismo". Philosophy Now . 2024 . Consultado el 12 de septiembre de 2024 .
  44. ^ Bostrom, Nick (12 de junio de 2012). "La fábula del dragón tirano". Philosophy Now . 89 : 6–9.
  45. ^ Fábula del Dragón Tirano (Video). 24 de abril de 2018.
  46. ^ Bostrom, Nick; Ord, Toby (2006). "La prueba de reversión: eliminando el sesgo del status quo en la ética aplicada" (PDF) . Ética . 116 (4): 656–679. doi :10.1086/505233. PMID  17039628. S2CID  12861892.
  47. ^ "Profesor Nick Bostrom: People". Oxford Martin School. Archivado desde el original el 15 de septiembre de 2018. Consultado el 16 de octubre de 2014 .
  48. ^ Lewis, Gregory (19 de febrero de 2018). «La síntesis de la viruela del caballo: ¿un caso de la maldición del unilateralista?». Boletín de los científicos atómicos . Archivado desde el original el 25 de febrero de 2018. Consultado el 26 de febrero de 2018 .
  49. ^ "Los 100 mejores pensadores globales de FP: 73. Nick Bostrom". Foreign Policy . 30 de noviembre de 2009. Archivado desde el original el 21 de octubre de 2014.
  50. ^ Kutchinsky, Serena (23 de abril de 2014). «World thinkers 2014: The results». Prospect . Consultado el 19 de junio de 2022 .
  51. ^ "Comité de Habilidades Digitales – cronograma". Parlamento del Reino Unido . Consultado el 17 de marzo de 2017 .
  52. ^ "Equipo – Instituto de Investigación de Inteligencia de Máquinas". Instituto de Investigación de Inteligencia de Máquinas . Consultado el 17 de marzo de 2017 .
  53. ^ "Equipo – Future of Life Institute". Future of Life Institute . Consultado el 17 de marzo de 2017 .
  54. ^ McBain, Sophie (4 de octubre de 2014). "Apocalipsis pronto: conozca a los científicos que se preparan para el fin de los tiempos". New Republic . Consultado el 17 de marzo de 2017 .
  55. ^ ab Bostrom, Nick. "Disculpa por el correo electrónico antiguo" (PDF) . nickbostrom.com . Consultado el 17 de enero de 2024 .
  56. ^ "extropianos: Re: Ofender la mente de la gente". 27 de abril de 2015. Archivado desde el original el 27 de abril de 2015 . Consultado el 24 de junio de 2024 .
  57. ^ ab Ladden-Hall, Dan (12 de enero de 2023). «El destacado filósofo de Oxford, Nick Bostrom, admite haber escrito un correo electrónico masivo con palabras N «repugnantes». The Daily Beast . Consultado el 12 de enero de 2023 .
  58. ^ Bilyard, Dylan (15 de enero de 2023). "Investigación abierta sobre el correo electrónico racista de Oxford Don". The Oxford Blue .
  59. ^ ab Anthony, Andrew (28 de abril de 2024). "'Eugenesia con esteroides': el legado tóxico y controvertido del Instituto del Futuro de la Humanidad de Oxford". The Observer . ISSN  0029-7712 . Consultado el 4 de julio de 2024 . La disculpa no logró aplacar a los críticos de Bostrom, sobre todo porque notoriamente no retiró su argumento central sobre la raza y la inteligencia, y pareció hacer una defensa parcial de la eugenesia. Aunque, después de una investigación, la Universidad de Oxford aceptó que Bostrom no era racista, todo el episodio dejó una mancha en la reputación del instituto.
  60. ^ Snepvangers, Pieter. «La Universidad de Oxford ofrece apoyo a los estudiantes, pero no hay novedades sobre las medidas adoptadas contra el profesor Bostrom». The Tab . Consultado el 6 de junio de 2023 .
  61. ^ Bostrom, Nick. "Disculpa por un correo electrónico antiguo" (PDF) . nickbostrom.com . No consideramos que seas racista ni que tengas opiniones racistas, y consideramos que la disculpa que publicaste en enero de 2023 fue sincera. ... creemos que tu disculpa, tu reconocimiento de la angustia que causaron tus acciones y tu agradecimiento por el cuidado y el tiempo que todos han dedicado a este proceso han sido genuinos y sinceros. También nos sentimos alentados por el hecho de que ya te hayas embarcado en un viaje de reflexión profunda y significativa, que incluye explorar el aprendizaje y la autoeducación de este proceso.
  • Sitio web oficial
  • Nick Bostrom en TED
Retrieved from "https://en.wikipedia.org/w/index.php?title=Nick_Bostrom&oldid=1250594702"