Superinteligencia

Agente hipotético que supera la inteligencia humana

Una superinteligencia es un agente hipotético que posee una inteligencia que supera a la de las mentes humanas más brillantes y dotadas . El término "superinteligencia" también puede referirse a una propiedad de los sistemas de resolución de problemas (por ejemplo, traductores de idiomas o asistentes de ingeniería superinteligentes), independientemente de que estas competencias intelectuales de alto nivel estén incorporadas o no en agentes que actúan en el mundo. Una superinteligencia puede o no ser creada por una explosión de inteligencia y estar asociada a una singularidad tecnológica .

El filósofo de la Universidad de Oxford Nick Bostrom define la superinteligencia como "cualquier intelecto que supere ampliamente el desempeño cognitivo de los humanos en prácticamente todos los dominios de interés". [1] El programa Fritz no alcanza esta concepción de superinteligencia (aunque es mucho mejor que los humanos en ajedrez) porque Fritz no puede superar a los humanos en otras tareas. [2]

Los investigadores tecnológicos no están de acuerdo sobre la probabilidad de que la inteligencia humana actual sea superada. Algunos sostienen que los avances en inteligencia artificial (IA) probablemente resulten en sistemas de razonamiento general que carezcan de limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para lograr una inteligencia radicalmente mayor. [3] [4] Varios escenarios de estudio futuros combinan elementos de ambas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras , o carguen sus mentes en las computadoras , de una manera que permita una amplificación sustancial de la inteligencia.

Algunos investigadores creen que la superinteligencia probablemente llegará poco después del desarrollo de la inteligencia artificial general . Las primeras máquinas con inteligencia general probablemente tendrán inmediatamente una enorme ventaja en al menos algunas formas de capacidad mental, incluyendo la capacidad de recordar perfectamente , una base de conocimiento muy superior y la capacidad de realizar múltiples tareas de maneras que no son posibles para las entidades biológicas. Esto puede permitirles —ya sea como un solo ser o como una nueva especie— volverse mucho más poderosas que los humanos y desplazarlos. [1]

Varios científicos y pronosticadores han estado argumentando que se debe priorizar la investigación temprana sobre los posibles beneficios y riesgos de la mejora cognitiva humana y de las máquinas , debido al potencial impacto social de dichas tecnologías. [5]

Viabilidad de la superinteligencia artificial

La inteligencia artificial, especialmente los modelos básicos , ha avanzado rápidamente y ha superado las capacidades humanas en diversos parámetros .

La viabilidad de la superinteligencia artificial (ASI) ha sido un tema de creciente debate en los últimos años, particularmente con los rápidos avances en las tecnologías de inteligencia artificial (IA).

Avances en IA y afirmaciones de IAG

Los recientes avances en IA, en particular en los modelos de lenguaje grandes (LLM) basados ​​en la arquitectura de transformadores , han llevado a mejoras significativas en diversas tareas. Modelos como GPT-3 , GPT-4 , Claude 3.5 y otros han demostrado capacidades que, según algunos investigadores, se acercan o incluso exhiben aspectos de la inteligencia artificial general (AGI). [6]

Sin embargo, la afirmación de que los LLM actuales constituyen una IAG es controvertida. Los críticos sostienen que estos modelos, aunque impresionantes, aún carecen de una verdadera comprensión y son principalmente sistemas sofisticados de comparación de patrones. [7]

Caminos hacia la superinteligencia

El filósofo David Chalmers sostiene que la inteligencia artificial general es un camino probable hacia la inteligencia artificial general. Sostiene que la IA puede alcanzar una equivalencia con la inteligencia humana, extenderse hasta superarla y luego amplificarse para dominar a los humanos en tareas arbitrarias. [8]

Investigaciones más recientes han explorado varias vías potenciales hacia la superinteligencia:

  1. Escalabilidad de los sistemas de IA actuales: algunos investigadores sostienen que la escalabilidad continua de las arquitecturas de IA existentes, en particular los modelos basados ​​en transformadores, podría conducir a la IAG y, potencialmente, a la ISA. [9]
  2. Nuevas arquitecturas: Otros sugieren que pueden ser necesarias nuevas arquitecturas de IA, posiblemente inspiradas en la neurociencia, para lograr la IAG y la ISA. [10]
  3. Sistemas híbridos: la combinación de diferentes enfoques de IA, incluida la IA simbólica y las redes neuronales, podría conducir potencialmente a sistemas más robustos y capaces. [11]

Ventajas computacionales

Los sistemas artificiales tienen varias ventajas potenciales sobre la inteligencia biológica:

  1. Velocidad: los componentes informáticos funcionan mucho más rápido que las neuronas biológicas. Los microprocesadores modernos (aproximadamente 2 GHz) son siete órdenes de magnitud más rápidos que las neuronas (aproximadamente 200 Hz). [12]
  2. Escalabilidad: los sistemas de IA pueden potencialmente ampliarse en tamaño y capacidad computacional más fácilmente que los cerebros biológicos.
  3. Modularidad: los diferentes componentes de los sistemas de IA pueden mejorarse o reemplazarse de forma independiente.
  4. Memoria: los sistemas de IA pueden recordar cosas perfectamente y tener una amplia base de conocimientos. Además, su memoria de trabajo está mucho menos limitada que la de los humanos. [12]
  5. Multitarea: la IA puede realizar múltiples tareas simultáneamente de maneras que las entidades biológicas no pueden.

Trayectoria potencial a través de los modelos de transformadores

Los recientes avances en los modelos basados ​​en transformadores han llevado a algunos investigadores a especular que el camino hacia la ASI podría estar en la ampliación y mejora de estas arquitecturas. Esta visión sugiere que las mejoras continuas en los modelos de transformadores o arquitecturas similares podrían conducir directamente a la ASI. [13]

Algunos expertos incluso sostienen que los grandes modelos de lenguaje actuales como GPT-4 ya pueden mostrar signos tempranos de capacidades de AGI o ASI. [14] Esta perspectiva sugiere que la transición de la IA actual a la ASI podría ser más continua y rápida de lo que se pensaba anteriormente, difuminando las líneas entre la IA estrecha, la AGI y la ASI.

Sin embargo, esta visión sigue siendo controvertida. Los críticos sostienen que los modelos actuales, si bien son impresionantes, aún carecen de aspectos cruciales de la inteligencia general, como la verdadera comprensión, el razonamiento y la adaptabilidad en diversos dominios. [15]

El debate sobre si el camino hacia la ASI implicará una fase de AGI distinta o un escalamiento más directo de las tecnologías actuales sigue vigente, con implicancias significativas para las estrategias de desarrollo de IA y consideraciones de seguridad.

Desafíos e incertidumbres

A pesar de estas ventajas potenciales, existen desafíos e incertidumbres importantes para lograr la ASI:

  1. Preocupaciones éticas y de seguridad: el desarrollo de ASI plantea numerosas cuestiones éticas y riesgos potenciales que deben abordarse. [16]
  2. Requisitos computacionales: los recursos computacionales necesarios para ASI podrían superar con creces las capacidades actuales.
  3. Limitaciones fundamentales – Pueden existir limitaciones fundamentales a la inteligencia que se apliquen tanto a los sistemas artificiales como a los biológicos.
  4. Imprevisibilidad – El camino hacia la ISA y sus consecuencias son altamente inciertos y difíciles de predecir.

A medida que la investigación en IA continúa avanzando rápidamente, la cuestión de la viabilidad de la ASI sigue siendo un tema de intenso debate y estudio en la comunidad científica.

Viabilidad de la superinteligencia biológica

Carl Sagan sugirió que la aparición de las cesáreas y la fertilización in vitro puede permitir que los humanos desarrollen cabezas más grandes, lo que resultaría en mejoras a través de la selección natural en el componente hereditario de la inteligencia humana . [17] Por el contrario, Gerald Crabtree ha sostenido que la disminución de la presión selectiva está dando como resultado una reducción lenta y secular de la inteligencia humana y que, en cambio, es probable que este proceso continúe. No hay consenso científico sobre ninguna de las dos posibilidades y, en ambos casos, el cambio biológico sería lento, especialmente en relación con las tasas de cambio cultural.

La crianza selectiva , los nootrópicos , la modulación epigenética y la ingeniería genética podrían mejorar la inteligencia humana más rápidamente. Bostrom escribe que si llegamos a comprender el componente genético de la inteligencia, el diagnóstico genético preimplantacional podría utilizarse para seleccionar embriones con hasta 4 puntos de ganancia de CI (si se selecciona un embrión de dos), o con ganancias mayores (por ejemplo, hasta 24,3 puntos de CI ganados si se selecciona un embrión de 1000). Si este proceso se repite a lo largo de muchas generaciones, las ganancias podrían ser de un orden de magnitud de mejora. Bostrom sugiere que la derivación de nuevos gametos a partir de células madre embrionarias podría utilizarse para iterar el proceso de selección rápidamente. [18] Una sociedad bien organizada de humanos de alta inteligencia de este tipo podría potencialmente lograr una superinteligencia colectiva . [19]

Otra posibilidad es que la inteligencia colectiva sea constructiva si se organiza mejor a los seres humanos en los niveles actuales de inteligencia individual. Varios autores han sugerido que la civilización humana, o algún aspecto de ella (por ejemplo, Internet o la economía), está empezando a funcionar como un cerebro global con capacidades que superan con creces a los agentes que la componen. Sin embargo, si esta superinteligencia sistémica depende en gran medida de componentes artificiales, puede ser considerada una IA en lugar de un superorganismo basado en la biología . [20] A veces se considera a un mercado de predicciones como un ejemplo de un sistema de inteligencia colectiva funcional, compuesto únicamente por seres humanos (suponiendo que no se utilicen algoritmos para fundamentar las decisiones). [21]

Un último método para amplificar la inteligencia sería mejorar directamente a los individuos, en lugar de mejorar su dinámica social o reproductiva. Esto podría lograrse utilizando nootrópicos , terapia génica somática o interfaces cerebro-computadora . Sin embargo, Bostrom expresa escepticismo sobre la escalabilidad de los dos primeros enfoques y sostiene que diseñar una interfaz cíborg superinteligente es un problema que abarca toda la IA . [22]

Pronósticos

La mayoría de los investigadores de IA encuestados esperan que las máquinas puedan rivalizar con los humanos en inteligencia, aunque hay poco consenso sobre cuándo ocurrirá esto. En la conferencia AI@50 de 2006 , el 18% de los asistentes afirmó que esperaba que las máquinas fueran capaces de "simular el aprendizaje y todos los demás aspectos de la inteligencia humana" para 2056; el 41% de los asistentes esperaba que esto sucediera en algún momento después de 2056; y el 41% esperaba que las máquinas nunca alcanzaran ese hito. [23]

En una encuesta realizada a los 100 autores más citados en el campo de la IA (en mayo de 2013, según la búsqueda académica de Microsoft), el año medio en el que los encuestados esperaban que hubiera máquinas "que pudieran llevar a cabo la mayoría de las profesiones humanas al menos tan bien como un ser humano típico" (suponiendo que no se produjera ninguna catástrofe global ) con un 10% de confianza es 2024 (media 2034, desviación estándar 33 años), con un 50% de confianza es 2050 (media 2072, desviación estándar 110 años) y con un 90% de confianza es 2070 (media 2168, desviación estándar 342 años). Estas estimaciones excluyen al 1,2% de los encuestados que dijeron que ningún año alcanzaría jamás el 10% de confianza, al 4,1% que dijo "nunca" para un 50% de confianza y al 16,5% que dijo "nunca" para un 90% de confianza. Los encuestados asignaron una probabilidad media del 50% a la posibilidad de que se invente una superinteligencia artificial dentro de los 30 años siguientes a la invención de una inteligencia artificial de nivel aproximadamente humano. [24]

En una encuesta de 2022, el año medio en el que los encuestados esperaban "inteligencia artificial de alto nivel" con un 50 % de confianza fue 2061. La encuesta definió el logro de la inteligencia artificial de alto nivel como el momento en que las máquinas sin ayuda pueden realizar cada tarea mejor y de manera más económica que los trabajadores humanos. [25]

En 2023, los líderes de OpenAI , Sam Altman , Greg Brockman e Ilya Sutskever, publicaron recomendaciones para la gobernanza de la superinteligencia, que creen que puede suceder en menos de 10 años. [26] En 2024, Ilya Sutskever dejó OpenAI para cofundar la startup Safe Superintelligence , que se centra únicamente en crear una superinteligencia que sea segura por diseño, evitando al mismo tiempo "las distracciones por los gastos generales de gestión o los ciclos de productos". [27]

Consideraciones de diseño

El diseño de sistemas de IA superinteligentes plantea cuestiones críticas sobre qué valores y objetivos deberían tener estos sistemas. Se han presentado varias propuestas: [28]

Propuestas de alineación de valores

  • Volición extrapolada coherente (CEV): la IA debería tener los valores en los que los humanos convergerían si fueran más conocedores y racionales.
  • Rectitud moral (RM): la IA debe estar programada para hacer lo que es moralmente correcto, basándose en sus capacidades cognitivas superiores para determinar acciones éticas.
  • Permisibilidad moral (PM): la IA debe permanecer dentro de los límites de la permisibilidad moral y, al mismo tiempo, perseguir objetivos alineados con los valores humanos (similar a CEV).

Bostrom profundiza en estos conceptos:

En lugar de implementar la voluntad extrapolada coherente de la humanidad, se podría intentar construir una IA que haga lo que es moralmente correcto, confiando en las capacidades cognitivas superiores de la IA para determinar qué acciones encajan en esa descripción. Podemos llamar a esta propuesta "rectitud moral" (RM)  ...

La teoría de la razón también parece tener algunas desventajas. Se basa en la noción de "moralmente correcto", un concepto notoriamente difícil, con el que los filósofos han lidiado desde la antigüedad sin llegar a un consenso sobre su análisis. Elegir una explicación errónea de la "moral correcta" podría dar lugar a resultados que serían moralmente muy incorrectos  ...

Se podría intentar preservar la idea básica del modelo MR mientras se reduce su exigencia centrándose en la permisibilidad moral : la idea es que podríamos dejar que la IA persiga la CEV de la humanidad siempre y cuando no actúe de maneras moralmente inadmisibles. [28]

Acontecimientos recientes

Desde el análisis de Bostrom, han surgido nuevos enfoques para la alineación de valores de la IA:

  • Aprendizaje por refuerzo inverso (IRL): esta técnica tiene como objetivo inferir las preferencias humanas a partir del comportamiento observado, lo que potencialmente ofrece un enfoque más sólido para la alineación de valores. [29]
  • IA constitucional : propuesta por Anthropic, implica entrenar sistemas de IA con principios y restricciones éticas explícitas. [30]
  • Debate y amplificación: estas técnicas, exploradas por OpenAI, utilizan el debate asistido por IA y procesos iterativos para comprender mejor los valores humanos y alinearse con ellos. [31]

LLM de transformadores y ASI

El rápido avance de los modelos de lenguaje grande (LLM) basados ​​en transformadores ha llevado a especular sobre su posible camino hacia la superinteligencia artificial (ASI). Algunos investigadores sostienen que las versiones ampliadas de estos modelos podrían exhibir capacidades similares a las de la ASI: [32]

  • Capacidades emergentes: a medida que los LLM aumentan en tamaño y complejidad, demuestran capacidades inesperadas que no están presentes en modelos más pequeños. [33]
  • Aprendizaje en contexto: los LLM muestran la capacidad de adaptarse a nuevas tareas sin realizar ajustes, imitando potencialmente la inteligencia general. [34]
  • Integración multimodal: los modelos recientes pueden procesar y generar varios tipos de datos, incluidos texto, imágenes y audio. [35]

Sin embargo, los críticos argumentan que los LLM actuales carecen de una verdadera comprensión y son simplemente sofisticados comparadores de patrones, lo que plantea interrogantes sobre su idoneidad como camino hacia la ASI. [36]

Otras perspectivas sobre la superinteligencia

Otros puntos de vista sobre el desarrollo y las implicaciones de la superinteligencia incluyen:

  • Automejora recursiva : IJ Good propuso el concepto de una "explosión de inteligencia", donde un sistema de IA podría mejorar rápidamente su propia inteligencia, lo que potencialmente conduciría a la superinteligencia. [37]
  • Tesis de ortogonalidad: Bostrom sostiene que el nivel de inteligencia de una IA es ortogonal a sus objetivos finales, lo que significa que una IA superinteligente podría tener cualquier conjunto de motivaciones. [38]
  • Convergencia instrumental : ciertos objetivos instrumentales (por ejemplo, autoconservación, adquisición de recursos) podrían ser perseguidos por una amplia gama de sistemas de IA, independientemente de sus objetivos finales. [39]

Desafíos e investigaciones en curso

La búsqueda de una IA alineada con el valor enfrenta varios desafíos:

  • Incertidumbre filosófica a la hora de definir conceptos como “rectitud moral”
  • Complejidad técnica en la traducción de principios éticos en algoritmos precisos
  • Posibilidad de consecuencias no deseadas incluso con enfoques bien intencionados

Las direcciones de investigación actuales incluyen enfoques de múltiples partes interesadas para incorporar perspectivas diversas, desarrollar métodos para la supervisión escalable de los sistemas de IA y mejorar las técnicas para un aprendizaje de valor sólido. [40] [16]

La investigación avanza rápidamente hacia la superinteligencia, y abordar estos desafíos de diseño sigue siendo crucial para crear sistemas ASI que sean potentes y estén alineados con los intereses humanos.

Amenaza potencial para la humanidad

El desarrollo de la superinteligencia artificial (IAA) ha suscitado inquietudes sobre los posibles riesgos existenciales para la humanidad. Los investigadores han propuesto varios escenarios en los que una IAA podría suponer una amenaza importante:

Explosión de inteligencia y problema de control

Algunos investigadores sostienen que, mediante la autosuperación recursiva, una inteligencia artificial podría llegar a ser tan poderosa que quedaría fuera del control humano. Este concepto, conocido como "explosión de inteligencia", fue propuesto por primera vez por IJ Good en 1965:

Definamos una máquina ultrainteligente como aquella que puede superar con creces todas las actividades intelectuales de cualquier hombre, por muy inteligente que sea. Puesto que el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces se produciría sin duda una «explosión de inteligencia» y la inteligencia del hombre quedaría muy por detrás. Así pues, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo bastante dócil como para decirnos cómo mantenerla bajo control. [41]

Este escenario presenta el problema del control de la IA: cómo crear una ASI que beneficie a la humanidad y al mismo tiempo evite consecuencias perjudiciales no deseadas. [42] Eliezer Yudkowsky sostiene que resolver este problema es crucial antes de desarrollar una ASI, ya que un sistema superinteligente podría ser capaz de frustrar cualquier intento posterior de control. [43]

Consecuencias no deseadas y desalineación de objetivos

Incluso con buenas intenciones, una ASI podría causar daños debido a metas desalineadas o interpretaciones inesperadas de sus objetivos. Nick Bostrom ofrece un claro ejemplo de este riesgo:

Cuando creamos la primera entidad superinteligente, podríamos cometer un error y asignarle objetivos que la lleven a aniquilar a la humanidad, suponiendo que su enorme ventaja intelectual le da el poder para hacerlo. Por ejemplo, podríamos equivocarnos al elevar un subobjetivo a la categoría de superobjetivo. Le pedimos que resuelva un problema matemático y lo hará convirtiendo toda la materia del sistema solar en un gigantesco dispositivo de cálculo, matando en el proceso a la persona que formuló la pregunta. [44]

Stuart Russell ofrece otro escenario ilustrativo:

A un sistema cuyo objetivo sea maximizar la felicidad humana le podría resultar más fácil reprogramar la neurología humana para que los seres humanos sean siempre felices independientemente de sus circunstancias, en lugar de mejorar el mundo externo. [45]

Estos ejemplos resaltan el potencial de resultados catastróficos incluso cuando una ASI no está diseñada explícitamente para ser dañina, lo que subraya la importancia crítica de la especificación y alineación precisas de los objetivos.

Posibles estrategias de mitigación

Los investigadores han propuesto diversos enfoques para mitigar los riesgos asociados con la IRA:

  • Control de capacidad : limitar la capacidad de una ASI de influir en el mundo, por ejemplo, a través del aislamiento físico o el acceso restringido a los recursos. [46]
  • Control motivacional: diseño de estrategias de intervención con objetivos que estén fundamentalmente alineados con los valores humanos. [47]
  • IA ética: incorporación de principios éticos y marcos de toma de decisiones en sistemas ASI. [48]
  • Supervisión y gobernanza – Desarrollo de marcos internacionales sólidos para el desarrollo y despliegue de tecnologías ASI. [49]

A pesar de estas estrategias propuestas, algunos expertos, como Roman Yampolskiy, sostienen que el desafío de controlar una IA superinteligente podría ser fundamentalmente irresoluble, enfatizando la necesidad de extremar la precaución en el desarrollo de IIA. [50]

Debate y escepticismo

No todos los investigadores están de acuerdo sobre la probabilidad o la gravedad de los riesgos existenciales relacionados con la IA. Algunos, como Rodney Brooks, sostienen que los temores a una IA superinteligente son exagerados y se basan en suposiciones poco realistas sobre la naturaleza de la inteligencia y el progreso tecnológico. [51] Otros, como Joanna Bryson, sostienen que la antropomorfización de los sistemas de IA conduce a preocupaciones equivocadas sobre sus posibles amenazas. [52]

Desarrollos recientes y perspectivas actuales

El rápido avance de los grandes modelos lingüísticos (LLM) y otras tecnologías de IA ha intensificado los debates sobre la proximidad y los riesgos potenciales de la ASI. Si bien no hay un consenso científico, algunos investigadores y profesionales de la IA sostienen que los sistemas de IA actuales pueden estar acercándose ya a las capacidades de la inteligencia artificial general (AGI) o incluso de la ASI.

  • Capacidades de LLM: Los LLM recientes como GPT-4 han demostrado capacidades inesperadas en áreas como razonamiento, resolución de problemas y comprensión multimodal, lo que lleva a algunos a especular sobre su posible camino hacia ASI. [53]
  • Comportamientos emergentes: los estudios han demostrado que a medida que los modelos de IA aumentan en tamaño y complejidad, pueden exhibir capacidades emergentes que no están presentes en modelos más pequeños, lo que potencialmente indica una tendencia hacia una inteligencia más general. [54]
  • Progreso rápido – El ritmo del avance de la IA ha llevado a algunos a argumentar que podemos estar más cerca de la IA de lo que se creía anteriormente, con posibles implicaciones para el riesgo existencial. [55]

Una minoría de investigadores y observadores, incluidos algunos de la comunidad de desarrollo de IA, creen que los sistemas de IA actuales pueden estar ya en niveles de IA general o cerca de ellos, y que la IA general podría seguirles en un futuro cercano. Esta opinión, si bien no es ampliamente aceptada en la comunidad científica, se basa en observaciones de rápidos avances en las capacidades de IA y comportamientos emergentes inesperados en modelos grandes. [56]

Sin embargo, muchos expertos advierten contra las afirmaciones prematuras sobre la existencia de una IAG o una ISA, argumentando que los sistemas de IA actuales, a pesar de sus impresionantes capacidades, aún carecen de una verdadera comprensión e inteligencia general. [57] Destacan los importantes desafíos que quedan por delante para lograr una inteligencia de nivel humano, y mucho menos una superinteligencia.

El debate en torno al estado actual y la trayectoria del desarrollo de la IA subraya la importancia de seguir investigando sobre la seguridad y la ética de la IA, así como la necesidad de contar con marcos de gobernanza sólidos para gestionar los riesgos potenciales a medida que las capacidades de la IA continúan avanzando. [49]

Véase también

Referencias

  1. ^ desde Bostrom 2014, Capítulo 2.
  2. ^ Bostrom 2014, pág. 22.
  3. ^ Pearce, David (2012), Eden, Amnon H.; Moor, James H.; Søraker, Johnny H.; Steinhart, Eric (eds.), "La explosión de la biointeligencia: cómo los robots orgánicos recursivamente automejorados modificarán su propio código fuente y abrirán el camino hacia la superinteligencia de espectro completo", Hipótesis de singularidad , The Frontiers Collection, Berlín, Heidelberg: Springer Berlin Heidelberg, págs. 199–238, doi :10.1007/978-3-642-32560-1_11, ISBN 978-3-642-32559-5, consultado el 16 de enero de 2022
  4. ^ Gouveia, Steven S., ed. (2020). "cap. 4, "Humanos y máquinas inteligentes: ¿coevolución, fusión o reemplazo?", David Pearce". La era de la inteligencia artificial: una exploración . Vernon Press. ISBN 978-1-62273-872-4.
  5. ^ Legg 2008, págs. 135-137.
  6. ^ "Los investigadores de Microsoft afirman que GPT-4 está mostrando "chispas" de inteligencia artificial general". Futurismo . 23 de marzo de 2023 . Consultado el 13 de diciembre de 2023 .
  7. ^ Marcus, Gary; Davis, Ernest (2023). "GPT-4 y más allá: el futuro de la inteligencia artificial". arXiv : 2303.10130 [econ.GN].
  8. ^ Chalmers 2010, pág. 7.
  9. ^ Kaplan, Jared; McCandlish, Sam; Henighan, Tom; Brown, Tom B.; Chess, Benjamin; Child, Rewon; Gray, Scott; Radford, Alec; Wu, Jeffrey; Amodei, Dario (2020). "Leyes de escala para modelos de lenguaje neuronal". arXiv : 2001.08361 [cs.LG].
  10. ^ Hassabis, Demis; Kumaran, Dharshan; Summerfield, Christopher; Botvinick, Matthew (2017). "Inteligencia artificial inspirada en la neurociencia". Neuron . 95 (2): 245–258. doi :10.1016/j.neuron.2017.06.011. PMID  28728020.
  11. ^ Garcez, Artur d'Ávila; Cordero, Luis C. (2020). "IA neurosimbólica: la tercera ola". arXiv : 2012.05876 [cs.AI].
  12. ^ desde Bostrom 2014, pág. 59.
  13. ^ Sutskever, Ilya (2023). "Una breve historia del escalamiento". ACM Queue . 21 (4): 31–43. doi :10.1145/3595878.3605016 (inactivo 2024-10-08).{{cite journal}}: CS1 maint: DOI inactivo a partir de octubre de 2024 ( enlace )
  14. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Pedro; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Precopa, Doina; Soundsov, Pavel; Srivastava, Sanjana; Tessler, Catalina; Tian, ​​Jianfeng; Zaheer, Manzil (22 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
  15. ^ Marcus, Gary (2020). "La próxima década en IA: cuatro pasos hacia una inteligencia artificial robusta". arXiv : 2002.06177 [cs.AI].
  16. ^Por Russell 2019.
  17. ^ Sagan, Carl (1977). Los dragones del Edén . Random House.
  18. ^ Bostrom 2014, págs. 37–39.
  19. ^ Bostrom 2014, pág. 39.
  20. ^ Bostrom 2014, págs. 48–49.
  21. ^ Watkins, Jennifer H. (2007), Los mercados de predicción como mecanismo de agregación para la inteligencia colectiva
  22. ^ Bostrom 2014, págs. 36–37, 42, 47.
  23. ^ Maker, Meg Houston (13 de julio de 2006). "AI@50: Primera encuesta". Archivado desde el original el 13 de mayo de 2014.
  24. ^ Müller y Bostrom 2016, págs. 3–4, 6, 9–12.
  25. ^ "Cronología de la IA: ¿Qué esperan los expertos en inteligencia artificial para el futuro?". Our World in Data . Consultado el 9 de agosto de 2023 .
  26. ^ "Gobernanza de la superinteligencia". openai.com . Consultado el 30 de mayo de 2023 .
  27. ^ Vance, Ashlee (19 de junio de 2024). "Ilya Sutskever tiene un nuevo plan para una superinteligencia segura". Bloomberg . Consultado el 19 de junio de 2024 .
  28. ^ desde Bostrom 2014, págs. 209–221.
  29. ^ Cristiano 2017.Error sfn: no hay destino: CITEREFChristiano2017 ( ayuda )
  30. ^ Antrópico 2022.Error de sfn: no hay destino: CITEREFAnthropic2022 ( ayuda )
  31. ^ OpenAI 2018.Error de sfn: no hay destino: CITEREFOpenAI2018 ( ayuda )
  32. ^ Bommasani 2021.Error sfn: sin destino: CITEREFBommasani2021 ( ayuda )
  33. ^ Wei 2022.Error de sfn: no hay destino: CITEREFWei2022 ( ayuda )
  34. ^ Marrón 2020.Error de sfn: no hay destino: CITEREFBrown2020 ( ayuda )
  35. ^ Alayrac2022.Error de sfn: no hay destino: CITEREFAlayrac2022 ( ayuda )
  36. ^ Marcus 2022.Error de sfn: no hay destino: CITEREFMarcus2022 ( ayuda )
  37. ^ Buen 1965.Error de sfn: no hay destino: CITEREFGood1965 ( ayuda )
  38. ^ Bostrom 2012.Error de sfn: no hay destino: CITEREFBostrom2012 ( ayuda )
  39. ^ Omohundro 2008.Error de sfn: no hay destino: CITEREFOmohundro2008 ( ayuda )
  40. ^ Gabriel 2020.Error de sfn: no hay destino: CITEREFGabriel2020 ( ayuda )
  41. ^ Bueno 1965, pág. 33.Error de sfn: no hay destino: CITEREFGood1965 ( ayuda )
  42. ^ Russell 2019, págs. 137–160.
  43. ^ Yudkowsky 2008.Error de sfn: no hay destino: CITEREFYudkowsky2008 ( ayuda )
  44. ^ Bostrom 2002.
  45. ^ Russell 2019, pág. 136.
  46. ^ Bostrom 2014, págs. 129-136.
  47. ^ Bostrom 2014, págs. 136–143.
  48. ^ Wallach y Allen 2008.Error de sfn: no hay destino: CITEREFWallachAllen2008 ( ayuda )
  49. ^Por Dafoe 2018.Error sfn: sin destino: CITEREFDafoe2018 ( ayuda )
  50. ^ Yampolskiy 2020.Error de sfn: no hay destino: CITEREFYampolskiy2020 ( ayuda )
  51. ^ Brooks 2017.Error de sfn: no hay destino: CITEREFBrooks2017 ( ayuda )
  52. ^ Bryson 2019.Error de sfn: no hay destino: CITEREFBryson2019 ( ayuda )
  53. ^ Bubeck 2023.Error de sfn: no hay destino: CITEREFBubeck2023 ( ayuda )
  54. ^ Wei 2022, págs. 3-5.Error de sfn: no hay destino: CITEREFWei2022 ( ayuda )
  55. ^ Orden 2020, págs. 143–147.Error de sfn: no hay destino: CITEREFOrd2020 ( ayuda )
  56. ^ Ngo 2022.Error de sfn: no hay destino: CITEREFNgo2022 ( ayuda )
  57. ^ Marcus 2023, págs. 5–8.Error de sfn: no hay destino: CITEREFMarcus2023 ( ayuda )

Papeles

  • Bostrom, Nick (2002), "Existential Risks", Journal of Evolution and Technology , 9 , consultado el 7 de agosto de 2007.
  • Chalmers, David (2010). "La singularidad: un análisis filosófico" (PDF) . Revista de estudios de la conciencia . 17 : 7–65.
  • Legg, Shane (2008). Machine Super Intelligence (PDF) (PhD). Departamento de Informática, Universidad de Lugano . Consultado el 19 de septiembre de 2014 .
  • Müller, Vincent C. ; Bostrom, Nick (2016). "Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos". En Müller, Vincent C. (ed.). Cuestiones fundamentales de la inteligencia artificial . Springer. págs. 553–571.
  • Santos-Lang, Christopher (2014). "Nuestra responsabilidad de gestionar la diversidad evaluativa" (PDF) . ACM SIGCAS Computers & Society . 44 (2): 16–19. doi :10.1145/2656870.2656874. S2CID  5649158.

Libros

  • Bill Gates se suma a Stephen Hawking en sus temores ante la inminente amenaza de la "superinteligencia"
  • ¿Las máquinas superinteligentes destruirán a la humanidad?
  • El cofundador de Apple tiene cierta aprensión por la superinteligencia artificial
Retrieved from "https://en.wikipedia.org/w/index.php?title=Superintelligence&oldid=1251399394"