Menos incorrecto

Blog comunitario centrado en la racionalidad

Menos incorrecto
Tipo de sitio
Foro de Internet , blog
Disponible enInglés
Creado porEliezer Yudkowsky
URLLessWrong.com
RegistroOpcional, pero es necesario para contribuir con contenido.
Lanzado1 de febrero de 2009 ; hace 15 años ( 01-02-2009 )
Estado actualActivo
Escrito enJavaScript , CSS (con tecnología de React y GraphQL )

LessWrong (también escrito Less Wrong ) es un blog y foro comunitario centrado en la discusión de sesgos cognitivos , filosofía , psicología , economía , racionalidad e inteligencia artificial , entre otros temas. [1] [2]

Objetivo

LessWrong se describe a sí mismo como un foro y una comunidad en línea destinados a mejorar el razonamiento, la racionalidad y la toma de decisiones humanas, con el objetivo de ayudar a sus usuarios a tener creencias más precisas y lograr sus objetivos personales. [3] Las publicaciones más conocidas de LessWrong son "The Sequences", una serie de ensayos que tienen como objetivo describir cómo evitar los modos de falla típicos del razonamiento humano con el objetivo de mejorar la toma de decisiones y la evaluación de la evidencia. [4] [5] Una sugerencia es el uso del teorema de Bayes como herramienta de toma de decisiones. [2] También hay un enfoque en las barreras psicológicas que impiden una buena toma de decisiones, incluido el condicionamiento del miedo y los sesgos cognitivos que han sido estudiados por el psicólogo Daniel Kahneman . [6]

LessWrong también se ocupa de la inteligencia artificial, el transhumanismo , las amenazas existenciales y la singularidad . El New York Observer en 2019 señaló que "A pesar de describirse como un foro sobre 'el arte de la racionalidad humana', el grupo Less Wrong de Nueva York  ... está obsesionado con una rama del futurismo que parecería más a gusto en un multicine 3D que en un seminario de posgrado: la terrible amenaza existencial -o, con un poco de suerte, la promesa utópica- conocida como la Singularidad tecnológica  ... Marcarse a sí mismos como 'racionalistas', como ha hecho el equipo de Less Wrong, hace que sea mucho más difícil descartarlos como un ' culto del fin del mundo '". [7]

Historia

Eliezer Yudkowsky en la Universidad de Stanford en 2006

LessWrong surgió de Overcoming Bias , un blog grupal anterior centrado en la racionalidad humana, que comenzó en noviembre de 2006, con el investigador de inteligencia artificial Eliezer Yudkowsky y el economista Robin Hanson como los principales contribuyentes. En febrero de 2009, las publicaciones de Yudkowsky se utilizaron como material inicial para crear el blog comunitario LessWrong , y Overcoming Bias se convirtió en el blog personal de Hanson. [8] En 2013, una parte significativa de la comunidad racionalista cambió su enfoque al Slate Star Codex de Scott Alexander . [4]

Inteligencia artificial

Las discusiones sobre IA dentro de LessWrong incluyen la alineación de IA , la seguridad de IA , [9] y la conciencia de la máquina . [ cita requerida ] Los artículos publicados en LessWrong sobre IA han sido citados en los medios de comunicación. [9] [10] LessWrong y su trabajo de movimiento circundante sobre IA son los temas del libro de 2019 The AI ​​Does Not Hate You , escrito por el ex corresponsal científico de BuzzFeed Tom Chivers. [11] [12] [13]

Altruismo eficaz

LessWrong jugó un papel importante en el desarrollo del movimiento de altruismo eficaz (EA), [14] y las dos comunidades están estrechamente entrelazadas. [15] : 227  En una encuesta de usuarios de LessWrong en 2016, 664 de 3060 encuestados, o el 21,7 %, se identificaron como "altruistas eficaces". Una encuesta separada de altruistas eficaces en 2014 reveló que el 31 % de los encuestados había oído hablar por primera vez del EA a través de LessWrong , [15] aunque ese número había caído al 8,2 % en 2020. [16]

Basilisco de Roko

En julio de 2010, Roko, colaborador de LessWrong, publicó un experimento mental en el sitio en el que un sistema de IA futuro, por lo demás benévolo, tortura a personas que oyeron hablar de la IA antes de que existiera y no trabajaron incansablemente para que existiera, con el fin de incentivar dicho trabajo. Esta idea llegó a conocerse como " el basilisco de Roko ", basada en la idea de Roko de que el mero hecho de oír hablar de la idea daría al hipotético sistema de IA un incentivo para intentar dicho chantaje . [17] [18] [7]

Neorreacción

La sección de comentarios de Overcoming Bias atrajo a destacados neorreaccionarios como Curtis Yarvin (seudónimo de Mencius Moldbug), el fundador del movimiento neorreaccionario, [19] y Hanson publicó su versión de un debate contra Moldbug sobre la futarquía . [20] Después de que LessWrong se separara de Overcoming Bias , también atrajo a algunas personas afiliadas a la neorreacción con discusiones sobre eugenesia y psicología evolutiva . [21] Sin embargo, Yudkowsky ha rechazado firmemente la neorreacción. [22] [23] Además, en una encuesta entre usuarios de LessWrong en 2016, 28 de 3060 encuestados (0,92%) se identificaron como "neorreaccionarios". [24]

Usuarios destacados

LessWrong ha sido asociada con varios colaboradores influyentes. El fundador Eliezer Yudkowsky estableció la plataforma para promover la racionalidad y generar conciencia sobre los riesgos potenciales asociados con la inteligencia artificial. [25] Scott Alexander se convirtió en uno de los escritores más populares del sitio antes de comenzar su propio blog, Slate Star Codex, en el que contribuía a debates sobre la seguridad y la racionalidad de la IA. [25]

Otros usuarios destacados de LessWrong son Paul Christiano , Wei Dai y Zvi Mowshowitz . Una selección de publicaciones de estos y otros colaboradores, seleccionadas a través de un proceso de revisión de la comunidad, [26] se publicaron como parte de las colecciones de ensayos "Un mapa que refleja el territorio" [27] y "Los motores de la cognición". [28] [26] [29]

Referencias

  1. ^ "Preguntas frecuentes sobre Less Wrong". LessWrong. Archivado desde el original el 30 de abril de 2019. Consultado el 25 de marzo de 2014 .
  2. ^ ab Miller, James (28 de julio de 2011). "Puedes aprender a ser más racional". Business Insider . Archivado desde el original el 10 de agosto de 2018. Consultado el 25 de marzo de 2014 .
  3. ^ "¡Bienvenidos a LessWrong!". LessWrong . 14 de junio de 2019.
  4. ^ ab Lewis-Kraus, Gideon (9 de julio de 2020). «Slate Star Codex y la guerra de Silicon Valley contra los medios». The New Yorker . Archivado desde el original el 10 de julio de 2020. Consultado el 4 de agosto de 2020 .
  5. ^ "Secuencias destacadas". LessWrong. Archivado desde el original el 6 de julio de 2024. Consultado el 12 de julio de 2024 .
  6. ^ Burkeman, Oliver (9 de marzo de 2012). «Esta columna cambiará tu vida: ¿te hicieron una pregunta difícil? Responde una más fácil». The Guardian . Archivado desde el original el 26 de marzo de 2014. Consultado el 25 de marzo de 2014 .
  7. ^ ab Tiku, Nitasha (25 de julio de 2012). «Fe, esperanza y singularidad: entrar en Matrix con el conjunto futurista de Nueva York». Observer . Archivado desde el original el 12 de abril de 2019 . Consultado el 12 de abril de 2019 .
  8. ^ "¿De dónde surgió Less Wrong? (Preguntas frecuentes sobre LessWrong)". Archivado desde el original el 30 de abril de 2019. Consultado el 25 de marzo de 2014 .
  9. ^ ab Chivers, Tom (22 de noviembre de 2023). "Lo que hemos aprendido sobre el apocalipsis de los robots a partir de la debacle de OpenAI". Semafor . Archivado desde el original el 3 de marzo de 2024 . Consultado el 14 de julio de 2024 . Desde finales de la década de 1990, esas preocupaciones se han vuelto más específicas y se han agrupado en torno al libro de Nick Bostrom de 2014 Superinteligencia: caminos, peligros, estrategias y el blog de Eliezer Yudkowsky LessWrong.
  10. ^ Newport, Cal (15 de marzo de 2024). «¿Puede una IA hacer planes?». The New Yorker . ISSN  0028-792X . Consultado el 14 de julio de 2024 .
  11. ^ Cowdrey, Katherine (21 de septiembre de 2017). «W&N gana el debut de un reportero científico de Buzzfeed tras una subasta». The Bookseller . Archivado desde el original el 27 de noviembre de 2018. Consultado el 21 de septiembre de 2017 .
  12. ^ Chivers, Tom (2019). La IA no te odia . Weidenfeld & Nicolson. ISBN 978-1474608770.
  13. ^ Marriott, James (31 de mayo de 2019). "Reseña de The AI ​​Does Not Hate You de Tom Chivers: por qué los nerds están nerviosos". The Times . ISSN  0140-0460. Archivado desde el original el 23 de abril de 2020 . Consultado el 3 de mayo de 2020 .
  14. ^ de Lazari-Radek, Katarzyna; Singer, Peter (27 de septiembre de 2017). Utilitarismo: una introducción muy breve . Oxford University Press. pág. 110. ISBN 9780198728795.
  15. ^ ab Chivers, Tom (2019). "Capítulo 38: Los altruistas eficaces". La IA no te odia . Weidenfeld & Nicolson. ISBN 978-1474608770.
  16. ^ Moss, David (20 de mayo de 2021). «Encuesta de EA 2020: cómo se involucra la gente en EA». Foro de Altruismo Eficaz . Archivado desde el original el 28 de julio de 2021. Consultado el 28 de julio de 2021 .
  17. ^ Love, Dylan (6 de agosto de 2014). «ADVERTENCIA: el solo hecho de leer sobre este experimento mental podría arruinar tu vida». Business Insider . Archivado desde el original el 18 de noviembre de 2018. Consultado el 6 de diciembre de 2014 .
  18. ^ Auerbach, David (17 de julio de 2014). «El experimento mental más aterrador de todos los tiempos». Slate . Archivado desde el original el 25 de octubre de 2018. Consultado el 18 de julio de 2014 .
  19. ^ Sandifer, Elizabeth (2018). Neoreaction a Basilisk: Essays On and Around the Alt-Right (2.ª ed.). Eruditorum Press. Uno de los sitios donde [Moldbug] comenzó a comentar fue en Overcoming Bias, es decir, donde Yudkowsky escribía antes de LessWrong.
  20. ^ Hanson, Robin. "Mi debate sobre el moho". Superando el sesgo . Archivado desde el original el 24 de enero de 2010. Consultado el 13 de julio de 2024 .
  21. ^ Keep, Elmo (22 de junio de 2016). "Las extrañas y conflictivas visiones del mundo del multimillonario de Silicon Valley Peter Thiel". Fusion . Archivado desde el original el 13 de febrero de 2017 . Consultado el 5 de octubre de 2016 . Gracias a los debates de LessWrong sobre la eugenesia y la psicología evolutiva, ha atraído a algunos lectores y comentaristas afiliados a la extrema derecha y la neorreacción, esa amplia cohorte de trolls neofascistas, nacionalistas blancos y misóginos.
  22. ^ Riggio, Adam (23 de septiembre de 2016). "La violencia de la razón pura: Neorreacción: un basilisco". Social Epistemology Review and Reply Collective . 5 (9): 34–41. ISSN  2471-9560. Archivado desde el original el 5 de octubre de 2016. Consultado el 5 de octubre de 2016. Land y Yarvin son aliados abiertamente del nuevo movimiento reaccionario, mientras que Yudkowsky cuenta con muchos reaccionarios entre su base de seguidores a pesar de encontrar repugnante su política racista.
  23. ^ Eliezer Yudkowsky (8 de abril de 2016). "Sin título". Optimize Literally Everything (blog) . Archivado desde el original el 26 de mayo de 2019. Consultado el 7 de octubre de 2016 .
  24. ^ Hermansson, Patrik; Lawrence, David; Mulhall, Joe; Murdoch, Simon (2020). "La Ilustración oscura: neorreacción y Silicon Valley". La extrema derecha internacional. ¿Fascismo para el siglo XXI? . Abingdon-on-Thames, Inglaterra, Reino Unido: Routledge. ISBN 9781138363861Archivado desde el original el 13 de junio de 2022 . Consultado el 2 de octubre de 2020 .
  25. ^ ab Miller, JD (2017). "Reflexiones sobre el viaje de la singularidad". En Callaghan, V.; Miller, J.; Yampolskiy, R.; Armstrong, S. (eds.). La singularidad tecnológica . Colección Frontiers. Berlín, Heidelberg: Springer. págs. 225–226. ISBN 978-3-662-54033-6Yudkowsky ayudó a crear el Singularity Institute (ahora llamado Machine Intelligence Research Institute) para ayudar a la humanidad a lograr una Singularidad amigable. (Divulgación: he contribuido al Singularity Institute). Yudkowsky luego fundó el blog comunitario http://LessWrong.com, que busca promover el arte de la racionalidad, elevar el nivel de cordura y, en parte, convencer a las personas de que hagan donaciones caritativas racionales y consideradas, algunas de las cuales, Yudkowsky esperaba (correctamente), irían a su organización.
  26. ^ ab Gasarch, William (2022). Reseña de "Un mapa que refleja el territorio: ensayos de la comunidad LessWrong"". ACM SIGACT News . 53 (1): 13–24. doi :10.1145/3532737.3532741. Los usuarios escribieron reseñas de las mejores publicaciones de 2018 y votaron por ellas utilizando el sistema de votación cuadrática, popularizado por Glen Weyl y Vitalik Buterin. De las más de 2000 publicaciones publicadas ese año, la revisión seleccionó las 44 publicaciones más interesantes y valiosas.
  27. ^ Lagerros, J.; Pace, B.; LessWrong.com (2020). Un mapa que refleja el territorio: ensayos de la comunidad LessWrong. Centro de racionalidad aplicada. ISBN 9781736128503.
  28. ^ Pace, B.; LessWrong (2021). Los motores de la cognición: ensayos de la comunidad LessWrong. Centro de racionalidad aplicada. ISBN 9781736128510.
  29. ^ Gasarch, William (2022). "Reseña de "Los motores de la cognición: ensayos de la comunidad menos equivocada"". ACM SIGACT News . 53 (3): 6–16. doi :10.1145/3561066.3561064 (inactivo el 1 de noviembre de 2024).{{cite journal}}: CS1 maint: DOI inactivo a partir de noviembre de 2024 ( enlace )
Obtenido de "https://es.wikipedia.org/w/index.php?title=LessWrong&oldid=1257923691"