Tipo de sitio | Foro de Internet , blog |
---|---|
Disponible en | Inglés |
Creado por | Eliezer Yudkowsky |
URL | LessWrong.com |
Registro | Opcional, pero es necesario para contribuir con contenido. |
Lanzado | 1 de febrero de 2009 ( 01-02-2009 ) |
Estado actual | Activo |
Escrito en | JavaScript , CSS (con tecnología de React y GraphQL ) |
LessWrong (también escrito Less Wrong ) es un blog y foro comunitario centrado en la discusión de sesgos cognitivos , filosofía , psicología , economía , racionalidad e inteligencia artificial , entre otros temas. [1] [2]
LessWrong se describe a sí mismo como un foro y una comunidad en línea destinados a mejorar el razonamiento, la racionalidad y la toma de decisiones humanas, con el objetivo de ayudar a sus usuarios a tener creencias más precisas y lograr sus objetivos personales. [3] Las publicaciones más conocidas de LessWrong son "The Sequences", una serie de ensayos que tienen como objetivo describir cómo evitar los modos de falla típicos del razonamiento humano con el objetivo de mejorar la toma de decisiones y la evaluación de la evidencia. [4] [5] Una sugerencia es el uso del teorema de Bayes como herramienta de toma de decisiones. [2] También hay un enfoque en las barreras psicológicas que impiden una buena toma de decisiones, incluido el condicionamiento del miedo y los sesgos cognitivos que han sido estudiados por el psicólogo Daniel Kahneman . [6]
LessWrong también se ocupa de la inteligencia artificial, el transhumanismo , las amenazas existenciales y la singularidad . El New York Observer en 2019 señaló que "A pesar de describirse como un foro sobre 'el arte de la racionalidad humana', el grupo Less Wrong de Nueva York ... está obsesionado con una rama del futurismo que parecería más a gusto en un multicine 3D que en un seminario de posgrado: la terrible amenaza existencial -o, con un poco de suerte, la promesa utópica- conocida como la Singularidad tecnológica ... Marcarse a sí mismos como 'racionalistas', como ha hecho el equipo de Less Wrong, hace que sea mucho más difícil descartarlos como un ' culto del fin del mundo '". [7]
LessWrong surgió de Overcoming Bias , un blog grupal anterior centrado en la racionalidad humana, que comenzó en noviembre de 2006, con el investigador de inteligencia artificial Eliezer Yudkowsky y el economista Robin Hanson como los principales contribuyentes. En febrero de 2009, las publicaciones de Yudkowsky se utilizaron como material inicial para crear el blog comunitario LessWrong , y Overcoming Bias se convirtió en el blog personal de Hanson. [8] En 2013, una parte significativa de la comunidad racionalista cambió su enfoque al Slate Star Codex de Scott Alexander . [4]
Las discusiones sobre IA dentro de LessWrong incluyen la alineación de IA , la seguridad de IA , [9] y la conciencia de la máquina . [ cita requerida ] Los artículos publicados en LessWrong sobre IA han sido citados en los medios de comunicación. [9] [10] LessWrong y su trabajo de movimiento circundante sobre IA son los temas del libro de 2019 The AI Does Not Hate You , escrito por el ex corresponsal científico de BuzzFeed Tom Chivers. [11] [12] [13]
LessWrong jugó un papel importante en el desarrollo del movimiento de altruismo eficaz (EA), [14] y las dos comunidades están estrechamente entrelazadas. [15] : 227 En una encuesta de usuarios de LessWrong en 2016, 664 de 3060 encuestados, o el 21,7 %, se identificaron como "altruistas eficaces". Una encuesta separada de altruistas eficaces en 2014 reveló que el 31 % de los encuestados había oído hablar por primera vez del EA a través de LessWrong , [15] aunque ese número había caído al 8,2 % en 2020. [16]
En julio de 2010, Roko, colaborador de LessWrong, publicó un experimento mental en el sitio en el que un sistema de IA futuro, por lo demás benévolo, tortura a personas que oyeron hablar de la IA antes de que existiera y no trabajaron incansablemente para que existiera, con el fin de incentivar dicho trabajo. Esta idea llegó a conocerse como " el basilisco de Roko ", basada en la idea de Roko de que el mero hecho de oír hablar de la idea daría al hipotético sistema de IA un incentivo para intentar dicho chantaje . [17] [18] [7]
La sección de comentarios de Overcoming Bias atrajo a destacados neorreaccionarios como Curtis Yarvin (seudónimo de Mencius Moldbug), el fundador del movimiento neorreaccionario, [19] y Hanson publicó su versión de un debate contra Moldbug sobre la futarquía . [20] Después de que LessWrong se separara de Overcoming Bias , también atrajo a algunas personas afiliadas a la neorreacción con discusiones sobre eugenesia y psicología evolutiva . [21] Sin embargo, Yudkowsky ha rechazado firmemente la neorreacción. [22] [23] Además, en una encuesta entre usuarios de LessWrong en 2016, 28 de 3060 encuestados (0,92%) se identificaron como "neorreaccionarios". [24]
LessWrong ha sido asociada con varios colaboradores influyentes. El fundador Eliezer Yudkowsky estableció la plataforma para promover la racionalidad y generar conciencia sobre los riesgos potenciales asociados con la inteligencia artificial. [25] Scott Alexander se convirtió en uno de los escritores más populares del sitio antes de comenzar su propio blog, Slate Star Codex, en el que contribuía a debates sobre la seguridad y la racionalidad de la IA. [25]
Otros usuarios destacados de LessWrong son Paul Christiano , Wei Dai y Zvi Mowshowitz . Una selección de publicaciones de estos y otros colaboradores, seleccionadas a través de un proceso de revisión de la comunidad, [26] se publicaron como parte de las colecciones de ensayos "Un mapa que refleja el territorio" [27] y "Los motores de la cognición". [28] [26] [29]
Desde finales de la década de 1990, esas preocupaciones se han vuelto más específicas y se han agrupado en torno al libro de Nick Bostrom de 2014
Superinteligencia: caminos, peligros, estrategias
y el blog de Eliezer Yudkowsky LessWrong.
Uno de los sitios donde [Moldbug] comenzó a comentar fue en Overcoming Bias, es decir, donde Yudkowsky escribía antes de LessWrong.
Gracias a los debates de LessWrong sobre la eugenesia y la psicología evolutiva, ha atraído a algunos lectores y comentaristas afiliados a la extrema derecha y la neorreacción, esa amplia cohorte de trolls neofascistas, nacionalistas blancos y misóginos.
Land y Yarvin son aliados abiertamente del nuevo movimiento reaccionario, mientras que Yudkowsky cuenta con muchos reaccionarios entre su base de seguidores a pesar de encontrar repugnante su política racista.
ayudó a crear el Singularity Institute (ahora llamado Machine Intelligence Research Institute) para ayudar a la humanidad a lograr una Singularidad amigable. (Divulgación: he contribuido al Singularity Institute). Yudkowsky luego fundó el blog comunitario http://LessWrong.com, que busca promover el arte de la racionalidad, elevar el nivel de cordura y, en parte, convencer a las personas de que hagan donaciones caritativas racionales y consideradas, algunas de las cuales, Yudkowsky esperaba (correctamente), irían a su organización.
Los usuarios escribieron reseñas de las mejores publicaciones de 2018 y votaron por ellas utilizando el sistema de votación cuadrática, popularizado por Glen Weyl y Vitalik Buterin. De las más de 2000 publicaciones publicadas ese año, la revisión seleccionó las 44 publicaciones más interesantes y valiosas.
{{cite journal}}
: CS1 maint: DOI inactivo a partir de noviembre de 2024 ( enlace )