Parte de una serie sobre |
Inteligencia artificial |
---|
El argumento de la habitación china sostiene que una computadora que ejecuta un programa no puede tener una mente , entendimiento o conciencia , [a] independientemente de cuán inteligente o similar a lo humano pueda hacer el programa que la computadora se comporte. El argumento fue presentado en un artículo de 1980 por el filósofo John Searle titulado "Mentes, cerebros y programas" y publicado en la revista Behavioral and Brain Sciences . [1] Antes de Searle, argumentos similares habían sido presentados por figuras como Gottfried Wilhelm Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis (1974) y Ned Block (1978). La versión de Searle ha sido ampliamente discutida en los años posteriores. [2] La pieza central del argumento de Searle es un experimento mental conocido como la habitación china . [3]
El experimento mental comienza colocando un ordenador que puede conversar perfectamente en chino en una habitación y un humano que sólo sabe inglés en otra, con una puerta que los separa. Se escriben caracteres chinos y se colocan en un trozo de papel debajo de la puerta, y el ordenador puede responder con fluidez, deslizando la respuesta por debajo de la puerta. A continuación, el humano recibe instrucciones en inglés que replican las instrucciones y la función del programa informático para conversar en chino. El humano sigue las instrucciones y las dos habitaciones pueden comunicarse perfectamente en chino, pero el humano sigue sin entender realmente los caracteres, simplemente sigue las instrucciones para conversar. Searle afirma que tanto el ordenador como el humano están realizando tareas idénticas, siguiendo instrucciones sin comprender o "pensar" realmente.
El argumento se dirige contra las posiciones filosóficas del funcionalismo y el computacionalismo [4] , que sostienen que la mente puede ser vista como un sistema de procesamiento de información que opera sobre símbolos formales, y que la simulación de un estado mental dado es suficiente para su presencia. Específicamente, el argumento pretende refutar una posición que Searle llama la hipótesis de la IA fuerte : [b] "La computadora programada adecuadamente con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido en que los seres humanos tienen mente". [c]
Aunque sus defensores presentaron originalmente el argumento como reacción a las declaraciones de los investigadores de inteligencia artificial (IA), no es un argumento en contra de los objetivos de la investigación convencional sobre IA porque no muestra un límite en la cantidad de comportamiento inteligente que una máquina puede mostrar. [5] El argumento se aplica solo a las computadoras digitales que ejecutan programas y no se aplica a las máquinas en general. [6] Si bien se ha discutido ampliamente, el argumento ha sido objeto de críticas significativas y sigue siendo controvertido entre los filósofos de la mente y los investigadores de IA. [7] [8]
Supongamos que la investigación en inteligencia artificial ha logrado programar una computadora para que se comporte como si entendiera chino. La máquina acepta caracteres chinos como entrada, ejecuta cada instrucción del programa paso a paso y luego produce caracteres chinos como salida. La máquina hace esto tan perfectamente que nadie puede decir que se está comunicando con una máquina y no con un ser humano oculto.
Las preguntas en cuestión son las siguientes: ¿la máquina entiende realmente la conversación o simplemente está simulando la capacidad de entenderla? ¿Tiene la máquina una mente exactamente en el mismo sentido que la tenemos las personas o simplemente actúa como si la tuviera?
Ahora supongamos que Searle está en una habitación con una versión en inglés del programa, junto con suficientes lápices, papel, borradores y archivadores. Se deslizan caracteres chinos por debajo de la puerta, él sigue el programa paso a paso, que finalmente le indica que deslice otros caracteres chinos por debajo de la puerta. Si el ordenador hubiera pasado la prueba de Turing de esta manera, se deduce que Searle también lo haría, simplemente ejecutando el programa a mano.
Searle afirma que no existe una diferencia esencial entre el papel que desempeñan la computadora y él mismo en el experimento. Cada uno simplemente sigue un programa, paso a paso, produciendo un comportamiento que los hace parecer que comprenden. Sin embargo, Searle no sería capaz de entender la conversación. Por lo tanto, argumenta, se deduce que la computadora tampoco sería capaz de entender la conversación.
Searle sostiene que, sin “comprensión” (o “ intencionalidad ”), no podemos describir lo que hace la máquina como “pensamiento” y, puesto que no piensa, no tiene una “mente” en el sentido normal de la palabra. Por lo tanto, concluye que la hipótesis de la IA fuerte es falsa.
En 1714, Gottfried Leibniz formuló un argumento similar contra el mecanicismo (la idea de que todo lo que constituye a un ser humano podría, en principio, explicarse en términos mecánicos. En otras palabras, que una persona, incluida su mente, es simplemente una máquina muy compleja). Leibniz utilizó el experimento mental de expandir el cerebro hasta que tuviera el tamaño de un molino. [9] A Leibniz le resultaba difícil imaginar que una "mente" capaz de "percepción" pudiera construirse utilizando únicamente procesos mecánicos. [d]
Peter Winch planteó el mismo punto en su libro La idea de una ciencia social y su relación con la filosofía (1958), donde ofrece un argumento para demostrar que "un hombre que entiende chino no es un hombre que tenga una comprensión firme de las probabilidades estadísticas de la aparición de las diversas palabras del idioma chino" (p. 108).
En 1961, el cibernético soviético Anatoly Dneprov formuló un argumento esencialmente idéntico en forma de cuento corto " El juego ". En él, un estadio de personas actúa como interruptores y células de memoria que implementan un programa para traducir una frase en portugués, un idioma que ninguno de ellos conoce. [10] El juego fue organizado por un "profesor Zarubin" para responder a la pregunta "¿Pueden pensar las máquinas matemáticas?". Hablando a través de Zarubin, Dneprov escribe que "la única manera de demostrar que las máquinas pueden pensar es convertirse en una máquina y examinar su proceso de pensamiento" y concluye, como lo hace Searle, "Hemos demostrado que incluso la simulación más perfecta del pensamiento de una máquina no es el proceso de pensamiento en sí mismo".
En 1974, Lawrence H. Davis imaginó la posibilidad de duplicar el cerebro mediante líneas telefónicas y oficinas atendidas por personas, y en 1978 Ned Block imaginó a toda la población de China involucrada en una simulación cerebral de ese tipo. Este experimento mental se denomina el cerebro de China , también la "nación china" o el "gimnasio chino". [11]
La versión de Searle apareció en su artículo de 1980 "Minds, Brains, and Programs", publicado en Behavioral and Brain Sciences . [1] Con el tiempo se convirtió en el "artículo de mayor influencia" de la revista, [2] generando una enorme cantidad de comentarios y respuestas en las décadas siguientes, y Searle ha seguido defendiendo y refinando el argumento en muchos artículos, artículos populares y libros. David Cole escribe que "el argumento de la habitación china ha sido probablemente el argumento filosófico más discutido en la ciencia cognitiva que ha aparecido en los últimos 25 años". [12]
La mayor parte de la discusión consiste en intentos de refutarlo. "La abrumadora mayoría", señala el editor de Behavioral and Brain Sciences, Stevan Harnad , [e] "todavía piensa que el argumento de la habitación china es totalmente erróneo". [13] La gran cantidad de literatura que ha surgido en torno a él inspiró a Pat Hayes a comentar que el campo de la ciencia cognitiva debería redefinirse como "el programa de investigación en curso para demostrar que el argumento de la habitación china de Searle es falso". [14]
Según Harnad, el argumento de Searle se ha convertido en "una especie de clásico en la ciencia cognitiva". [13] Varol Akman está de acuerdo y ha descrito el artículo original como "un ejemplo de claridad y pureza filosófica". [15]
Aunque el argumento de la habitación china se presentó originalmente como reacción a las declaraciones de los investigadores de inteligencia artificial , los filósofos han llegado a considerarlo como una parte importante de la filosofía de la mente . Es un desafío al funcionalismo y a la teoría computacional de la mente , [f] y está relacionado con cuestiones como el problema mente-cuerpo , el problema de las otras mentes , el problema de la conexión a tierra de los símbolos y el difícil problema de la conciencia . [a]
Searle identificó una posición filosófica que llama "IA fuerte":
La computadora adecuadamente programada con las entradas y salidas correctas tendría entonces una mente exactamente en el mismo sentido en que los seres humanos tienen mente. [c]
La definición depende de la distinción entre simular una mente y realmente tener una. Searle escribe que “según la IA fuerte, la simulación correcta es realmente una mente. Según la IA débil, la simulación correcta es un modelo de la mente”. [22]
La afirmación está implícita en algunas de las declaraciones de los primeros investigadores y analistas de IA. Por ejemplo, en 1955, el fundador de la IA, Herbert A. Simon, declaró que "ahora hay en el mundo máquinas que piensan, que aprenden y crean". [23] Simon, junto con Allen Newell y Cliff Shaw , después de haber completado el primer programa que podía hacer razonamiento formal (el Logic Theorist ), afirmó que habían "resuelto el venerable problema mente-cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente". [24] John Haugeland escribió que "la IA solo quiere el artículo genuino: máquinas con mentes , en el sentido pleno y literal. Esto no es ciencia ficción, sino ciencia real, basada en una concepción teórica tan profunda como atrevida: a saber, somos, en el fondo, computadoras nosotros mismos ". [25]
Searle también atribuye las siguientes afirmaciones a los defensores de la IA fuerte:
En presentaciones más recientes del argumento de la habitación china, Searle ha identificado la "IA fuerte" como " funcionalismo informático " (un término que atribuye a Daniel Dennett ). [4] [30] El funcionalismo es una posición en la filosofía moderna de la mente que sostiene que podemos definir los fenómenos mentales (como creencias, deseos y percepciones) describiendo sus funciones en relación entre sí y con el mundo exterior. Debido a que un programa de computadora puede representar con precisión las relaciones funcionales como relaciones entre símbolos, una computadora puede tener fenómenos mentales si ejecuta el programa correcto, según el funcionalismo.
Stevan Harnad sostiene que las descripciones de Searle de la IA fuerte pueden reformularse como "principios reconocibles del computacionalismo , una posición (a diferencia de la "IA fuerte") que en realidad sostienen muchos pensadores y, por lo tanto, vale la pena refutar". [31] El computacionalismo [i] es la posición en la filosofía de la mente que sostiene que la mente puede describirse con precisión como un sistema de procesamiento de información .
Cada uno de los siguientes, según Harnad, es un "principio" del computacionalismo: [34]
Searle mantiene una postura filosófica que denomina " naturalismo biológico ": la conciencia [a] y el entendimiento requieren una maquinaria biológica específica que se encuentra en el cerebro. Escribe que "los cerebros causan mentes" [35] y que "los fenómenos mentales humanos reales [son] dependientes de las propiedades físico-químicas reales de los cerebros humanos reales". [35] Searle sostiene que esta maquinaria (conocida en neurociencia como los " correlatos neuronales de la conciencia ") debe tener algunos poderes causales que permitan la experiencia humana de la conciencia. [36] La creencia de Searle en la existencia de estos poderes ha sido criticada.
Searle no está en desacuerdo con la idea de que las máquinas pueden tener conciencia y entendimiento, porque, como él escribe, "somos precisamente esas máquinas". [6] Searle sostiene que el cerebro es, de hecho, una máquina, pero que el cerebro da lugar a la conciencia y al entendimiento utilizando una maquinaria específica. Si la neurociencia es capaz de aislar el proceso mecánico que da lugar a la conciencia, entonces Searle concede que puede ser posible crear máquinas que tengan conciencia y entendimiento. Sin embargo, sin la maquinaria específica requerida, Searle no cree que la conciencia pueda existir.
El naturalismo biológico implica que no se puede determinar si la experiencia de la conciencia está ocurriendo simplemente examinando cómo funciona un sistema, porque la maquinaria específica del cerebro es esencial. Por lo tanto, el naturalismo biológico se opone directamente tanto al conductismo como al funcionalismo (incluido el "funcionalismo informático" o la "IA fuerte"). [37] El naturalismo biológico es similar a la teoría de la identidad (la posición de que los estados mentales son "idénticos a" o "compuestos por" eventos neurológicos); sin embargo, Searle tiene objeciones técnicas específicas a la teoría de la identidad. [38] [j] El naturalismo biológico de Searle y la IA fuerte se oponen al dualismo cartesiano , [37] la idea clásica de que el cerebro y la mente están hechos de diferentes "sustancias". De hecho, Searle acusa a la IA fuerte de dualismo, escribiendo que "la IA fuerte solo tiene sentido dada la suposición dualista de que, cuando se trata de la mente, el cerebro no importa". [26]
La presentación original de Searle hizo hincapié en la comprensión (es decir, los estados mentales con intencionalidad ) y no abordó directamente otras ideas estrechamente relacionadas, como la "conciencia". Sin embargo, en presentaciones más recientes, Searle ha incluido la conciencia como el verdadero objetivo del argumento. [4]
Los modelos computacionales de la conciencia no son suficientes por sí mismos para la conciencia. El modelo computacional de la conciencia se relaciona con la conciencia de la misma manera que el modelo computacional de cualquier cosa se relaciona con el dominio que se está modelando. Nadie supone que el modelo computacional de las tormentas de Londres nos dejará a todos mojados. Pero cometen el error de suponer que el modelo computacional de la conciencia es de algún modo consciente. Es el mismo error en ambos casos. [39]
— John R. Searle, Conciencia y lenguaje , pág. 16
David Chalmers escribe: "Está bastante claro que la conciencia está en la raíz de la cuestión" de la habitación china. [40]
Colin McGinn sostiene que la habitación china ofrece pruebas sólidas de que el difícil problema de la conciencia es fundamentalmente insoluble. El argumento, para ser claros, no es si una máquina puede ser consciente, sino si se puede demostrar que es consciente (o cualquier otra cosa, en realidad). Es evidente que cualquier otro método para sondear al ocupante de una habitación china tiene las mismas dificultades en principio que el intercambio de preguntas y respuestas en chino. Simplemente no es posible adivinar si una agencia consciente o alguna simulación inteligente habita la habitación. [41]
Searle sostiene que esto sólo es cierto para un observador que se encuentra fuera de la habitación. El objetivo del experimento mental es poner a alguien dentro de la habitación, donde pueda observar directamente las operaciones de la conciencia. Searle afirma que desde su punto de vista dentro de la habitación no hay nada que pueda ver que pueda dar lugar a la conciencia, aparte de él mismo, y claramente no tiene una mente que pueda hablar chino. En palabras de Searle, "la computadora no tiene nada más de lo que yo tengo en el caso de que no entienda nada". [42]
Patrick Hew utilizó el argumento de la Habitación China para deducir los requisitos de los sistemas de mando y control militares si se pretende preservar la capacidad de acción moral de un comandante . Trazó una analogía entre un comandante en su centro de mando y la persona en la Habitación China, y la analizó bajo una lectura de las nociones de Aristóteles de "obligación" e "ignorancia" . La información podría ser "convertida a la baja" de significado a símbolos, y manipulada simbólicamente, pero la capacidad de acción moral podría verse socavada si hubiera una "conversión a la alta" inadecuada en significado. Hew citó ejemplos del incidente del USS Vincennes . [43]
El argumento de la habitación china es principalmente un argumento en la filosofía de la mente, y tanto los principales científicos informáticos como los investigadores de inteligencia artificial lo consideran irrelevante para sus campos. [5] Sin embargo, varios conceptos desarrollados por los científicos informáticos son esenciales para comprender el argumento, incluido el procesamiento de símbolos , las máquinas de Turing , la completitud de Turing y la prueba de Turing.
Los argumentos de Searle no suelen considerarse un problema para la investigación en IA. La misión principal de la investigación en inteligencia artificial es únicamente crear sistemas útiles que actúen de forma inteligente y no importa si la inteligencia es "meramente" una simulación. Los investigadores en IA Stuart J. Russell y Peter Norvig escribieron en 2021: "Nos interesan los programas que se comportan de forma inteligente. Los aspectos individuales de la conciencia (conciencia, autoconciencia, atención) se pueden programar y pueden ser parte de una máquina inteligente. El proyecto adicional de hacer que una máquina sea consciente exactamente como lo somos los humanos no es algo que estemos preparados para asumir". [5]
Searle no está en desacuerdo con que la investigación en IA pueda crear máquinas capaces de comportarse de manera sumamente inteligente. El argumento de la habitación china deja abierta la posibilidad de que se pueda construir una máquina digital que actúe de manera más inteligente que una persona, pero que no tenga mente ni intencionalidad como los cerebros.
La "hipótesis de la IA fuerte" de Searle no debe confundirse con la "IA fuerte" definida por Ray Kurzweil y otros futuristas, [44] [21] quienes utilizan el término para describir la inteligencia de las máquinas que rivaliza o supera a la inteligencia humana, es decir, inteligencia artificial general , IA de nivel humano o superinteligencia . Kurzweil se refiere principalmente a la cantidad de inteligencia que muestra la máquina, mientras que el argumento de Searle no establece ningún límite a esto. Searle sostiene que una máquina superinteligente no necesariamente tendría mente y conciencia.
La sala china implementa una versión del test de Turing. [46] Alan Turing introdujo el test en 1950 para ayudar a responder la pregunta "¿pueden pensar las máquinas?". En la versión estándar, un juez humano entabla una conversación en lenguaje natural con un humano y una máquina diseñada para generar un desempeño indistinguible del de un ser humano. Todos los participantes están separados unos de otros. Si el juez no puede distinguir de manera confiable la máquina del humano, se dice que la máquina ha pasado el test.
Turing consideró entonces cada posible objeción a la propuesta de que "las máquinas pueden pensar" y descubrió que hay respuestas simples y obvias si se desmitifica la pregunta de esta manera. Sin embargo, no pretendía que la prueba midiera la presencia de "conciencia" o "entendimiento". No creía que esto fuera relevante para las cuestiones que estaba abordando. Escribió:
No quiero dar la impresión de que creo que no hay ningún misterio en torno a la conciencia. Existe, por ejemplo, una especie de paradoja relacionada con cualquier intento de localizarla. Pero no creo que sea necesario resolver esos misterios antes de poder responder a la pregunta que nos ocupa en este artículo. [46]
Para Searle, como filósofo que investiga la naturaleza de la mente y la conciencia, estos son los misterios relevantes. La habitación china está diseñada para demostrar que la prueba de Turing es insuficiente para detectar la presencia de conciencia, incluso si la habitación puede comportarse o funcionar como lo haría una mente consciente.
Los ordenadores manipulan objetos físicos para realizar cálculos y simulaciones. Los investigadores de IA Allen Newell y Herbert A. Simon denominaron a este tipo de máquinas un sistema de símbolos físicos . También es equivalente a los sistemas formales utilizados en el campo de la lógica matemática .
Searle enfatiza el hecho de que este tipo de manipulación de símbolos es sintáctica (tomando prestado un término del estudio de la gramática ). La computadora manipula los símbolos utilizando una forma de sintaxis, sin ningún conocimiento de la semántica del símbolo (es decir, su significado ).
Newell y Simon habían conjeturado que un sistema de símbolos físicos (como una computadora digital) tenía toda la maquinaria necesaria para la "acción inteligente general", o, como se conoce hoy, inteligencia artificial general . Enmarcaron esto como una posición filosófica, la hipótesis del sistema de símbolos físicos : "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". [47] [48] El argumento de la habitación china no refuta esto, porque está enmarcado en términos de "acción inteligente", es decir, el comportamiento externo de la máquina, en lugar de la presencia o ausencia de comprensión, conciencia y mente.
Los programas de IA del siglo XXI (como el " aprendizaje profundo ") realizan operaciones matemáticas sobre enormes matrices de números no identificados y guardan poca semejanza con el procesamiento simbólico utilizado por los programas de IA en la época en que Searle escribió su crítica en 1980. Nils Nilsson describe sistemas como estos como "dinámicos" en lugar de "simbólicos". Nilsson señala que se trata esencialmente de representaciones digitalizadas de sistemas dinámicos: los números individuales no tienen una semántica específica, sino que son muestras o puntos de datos de una señal dinámica, y es la señal que se está aproximando la que tendría semántica. Nilsson sostiene que no es razonable considerar estas señales como "procesamiento de símbolos" en el mismo sentido que la hipótesis de los sistemas de símbolos físicos. [49]
La habitación china tiene un diseño análogo al de una computadora moderna. Tiene una arquitectura de Von Neumann , que consiste en un programa (el libro de instrucciones), algo de memoria (los papeles y archivadores), una máquina que sigue las instrucciones (el hombre), y un medio para escribir símbolos en la memoria (el lápiz y el borrador). Una máquina con este diseño es conocida en informática teórica como " Turing completa ", porque tiene la maquinaria necesaria para llevar a cabo cualquier cálculo que una máquina de Turing pueda hacer, y por lo tanto es capaz de hacer una simulación paso a paso de cualquier otra máquina digital, dada suficiente memoria y tiempo. Turing escribe, "todas las computadoras digitales son en cierto sentido equivalentes". [50] La tesis de Church-Turing, ampliamente aceptada, sostiene que cualquier función computable por un procedimiento efectivo es computable por una máquina de Turing.
La completitud de Turing de la habitación china implica que puede hacer todo lo que cualquier otro ordenador digital puede hacer (aunque mucho, mucho más lentamente). Por lo tanto, si la habitación china no contiene o no puede contener una mente que hable chino, entonces ningún otro ordenador digital puede contener una mente. Algunas respuestas a Searle comienzan argumentando que la habitación, tal como se describe, no puede tener una mente que hable chino. Los argumentos de esta forma, según Stevan Harnad , no son "ninguna refutación (sino más bien una afirmación)" [51] del argumento de la habitación china, porque estos argumentos en realidad implican que ningún ordenador digital puede tener una mente. [28]
Hay algunos críticos, como Hanoch Ben-Yami, que sostienen que la habitación china no puede simular todas las capacidades de una computadora digital, como la capacidad de determinar la hora actual. [52]
Searle ha elaborado una versión más formal del argumento del que forma parte la habitación china. Presentó la primera versión en 1984. La versión que se ofrece a continuación es de 1990. [53] [k] El experimento mental de la habitación china tiene por objeto demostrar el punto A3. [l]
Comienza con tres axiomas:
Searle postula que esto conduce directamente a esta conclusión:
Gran parte del argumento tiene como objetivo demostrar que la inteligencia artificial nunca puede producir una máquina con mente escribiendo programas que manipulen símbolos. El resto del argumento aborda una cuestión diferente. ¿El cerebro humano está ejecutando un programa? En otras palabras, ¿es correcta la teoría computacional de la mente ? [f] Comienza con un axioma que pretende expresar el consenso científico moderno básico sobre los cerebros y las mentes:
Searle afirma que podemos derivar "inmediatamente" y "trivialmente" [54] que:
Y de aquí deriva las conclusiones siguientes:
Las refutaciones del argumento de Searle adoptan muchas formas diferentes (véase más adelante). Los computacionalistas y funcionalistas rechazan A3, argumentando que la "sintaxis" (tal como la describe Searle) puede tener "semántica" si la sintaxis tiene la estructura funcional adecuada. Los materialistas eliminativos rechazan A2, argumentando que las mentes en realidad no tienen "semántica", que los pensamientos y otros fenómenos mentales carecen de significado inherentemente, pero sin embargo funcionan como si lo tuvieran.
Las respuestas al argumento de Searle pueden clasificarse según lo que pretenden demostrar: [m]
Algunos de los argumentos (la simulación de robots y cerebros, por ejemplo) caen en múltiples categorías.
Estas respuestas intentan responder a la pregunta: dado que el hombre en la sala no habla chino, ¿dónde está la mente que sí lo habla? Estas respuestas abordan las cuestiones ontológicas clave de la mente versus el cuerpo y la simulación versus la realidad. Todas las respuestas que identifican a la mente en la sala son versiones de "la respuesta del sistema".
La versión básica de la respuesta del sistema sostiene que es el "sistema completo" el que entiende el chino. [59] [n] Si bien el hombre sólo entiende inglés, cuando se lo combina con el programa, papel borrador, lápices y archivadores, forman un sistema que puede entender chino. "Aquí, la comprensión no se atribuye al mero individuo, sino a todo este sistema del que forma parte", explica Searle. [29]
Searle señala que (en esta versión simple de la respuesta) el "sistema" no es nada más que una colección de objetos físicos ordinarios; otorga el poder de comprensión y conciencia a "la conjunción de esa persona y trozos de papel" [29] sin hacer ningún esfuerzo por explicar cómo este montón de objetos se ha convertido en un ser consciente y pensante. Searle sostiene que ninguna persona razonable debería estar satisfecha con la respuesta, a menos que esté "bajo el control de una ideología"; [29] para que esta respuesta sea remotamente plausible, uno debe dar por sentado que la conciencia puede ser el producto de un "sistema" de procesamiento de información, y no requiere nada parecido a la biología real del cerebro.
Searle responde entonces simplificando esta lista de objetos físicos: pregunta qué sucede si el hombre memoriza las reglas y lleva un registro de todo en su cabeza. En ese caso, todo el sistema consiste en un solo objeto: el hombre mismo. Searle sostiene que si el hombre no entiende chino, entonces el sistema tampoco lo entiende porque ahora "el sistema" y "el hombre" describen exactamente el mismo objeto. [29]
Los críticos de la respuesta de Searle sostienen que el programa ha permitido al hombre tener dos mentes en una cabeza. [¿ Quién? ] Si asumimos que una "mente" es una forma de procesamiento de información, entonces la teoría de la computación puede explicar dos cálculos que ocurren a la vez, a saber: (1) el cálculo para la programabilidad universal (que es la función instanciada por la persona y los materiales de toma de notas independientemente de cualquier contenido particular del programa) y (2) el cálculo de la máquina de Turing que es descrita por el programa (que es instanciada por todo, incluido el programa específico). [61] La teoría de la computación, por lo tanto, explica formalmente la posibilidad abierta de que el segundo cálculo en la Habitación China pudiera implicar una comprensión semántica equivalente a la humana de las entradas chinas. El foco está en la máquina de Turing del programa más que en la de la persona. [62] Sin embargo, desde la perspectiva de Searle, este argumento es circular. La cuestión en cuestión es si la conciencia es una forma de procesamiento de información, y esta respuesta requiere que hagamos esa suposición.
Las versiones más sofisticadas de la respuesta de sistemas intentan identificar con mayor precisión qué es "el sistema" y difieren en la forma exacta en que lo describen. Según estas respuestas, [¿ quién? ] la "mente que habla chino" podría ser algo como: el "software", un "programa", un "programa en ejecución", una simulación de los "correlatos neuronales de la conciencia", el "sistema funcional", una "mente simulada", una " propiedad emergente " o "una mente virtual".
Marvin Minsky sugirió una versión de la respuesta del sistema conocida como la "respuesta de la mente virtual". [o] El término " virtual " se utiliza en informática para describir un objeto que parece existir "dentro" de una computadora (o red de computadoras) sólo porque el software hace que parezca existir. Los objetos "dentro" de las computadoras (incluidos los archivos, carpetas, etc.) son todos "virtuales", excepto los componentes electrónicos de la computadora. De manera similar, Minsky sostuvo que una computadora puede contener una "mente" que es virtual en el mismo sentido que las máquinas virtuales , las comunidades virtuales y la realidad virtual .
Para aclarar la distinción entre la respuesta de los sistemas simples dada anteriormente y la respuesta de la mente virtual, David Cole señala que podrían estar ejecutándose dos simulaciones en un sistema al mismo tiempo: una que hable chino y otra que hable coreano. Si bien sólo hay un sistema, puede haber múltiples "mentes virtuales", por lo que el "sistema" no puede ser la "mente". [66]
Searle responde que una mente así es, en el mejor de los casos, una simulación, y escribe: "Nadie supone que las simulaciones por ordenador de un incendio de cinco alarmas quemarán el vecindario o que una simulación por ordenador de una tormenta nos dejará a todos empapados". [67] Nicholas Fearn responde que, para algunas cosas, la simulación es tan buena como la realidad. "Cuando activamos la función de calculadora de bolsillo en un ordenador de sobremesa, aparece la imagen de una calculadora de bolsillo en la pantalla. No nos quejamos de que no sea realmente una calculadora, porque los atributos físicos del dispositivo no importan". [68] La cuestión es: ¿es la mente humana como la calculadora de bolsillo, compuesta esencialmente de información, donde una simulación perfecta de la cosa es simplemente la cosa? ¿O es la mente como la tormenta, una cosa en el mundo que es más que su simulación, y no realizable en su totalidad mediante una simulación por ordenador? Durante décadas, esta cuestión de la simulación ha llevado a los investigadores de la IA y a los filósofos a considerar si el término " inteligencia sintética " es más apropiado que la descripción común de tales inteligencias como "artificiales".
Estas respuestas proporcionan una explicación de quién es exactamente el que entiende chino. Si hay algo además del hombre en la sala que puede entender chino, Searle no puede argumentar que (1) el hombre no entiende chino, por lo tanto (2) nada en la sala entiende chino. Esto, según quienes dan esta respuesta, demuestra que el argumento de Searle no logra demostrar que la "IA fuerte" es falsa. [p]
Sin embargo, estas respuestas, por sí solas, no proporcionan ninguna prueba de que la IA fuerte sea cierta. No muestran que el sistema (o la mente virtual) entienda chino, más allá de la premisa hipotética de que pasa la prueba de Turing. Searle sostiene que, si hemos de considerar que la IA fuerte es remotamente plausible, la habitación china es un ejemplo que requiere explicación, y es difícil o imposible explicar cómo la conciencia podría "emerger" de la habitación o cómo el sistema tendría conciencia. Como escribe Searle, "la respuesta del sistema simplemente plantea la cuestión al insistir en que el sistema debe entender chino" [29] y, por lo tanto, está eludiendo la pregunta o es irremediablemente circular.
En lo que respecta a la persona que se encuentra en la habitación, los símbolos son simplemente "garabatos" sin sentido. Pero si la habitación china realmente "entiende" lo que está diciendo, entonces los símbolos deben obtener su significado de alguna parte. Estos argumentos intentan conectar los símbolos con las cosas que simbolizan. Estas respuestas abordan las preocupaciones de Searle sobre la intencionalidad , la base de los símbolos y la sintaxis frente a la semántica .
Supongamos que en lugar de una habitación, el programa se colocara en un robot que pudiera deambular e interactuar con su entorno. Esto permitiría una " conexión causal " entre los símbolos y las cosas que representan. [70] [q] Hans Moravec comenta: "Si pudiéramos injertar un robot en un programa de razonamiento, ya no necesitaríamos una persona que proporcionara el significado: vendría del mundo físico". [72] [r]
La respuesta de Searle es suponer que, sin que el individuo en la habitación china lo sepa, algunas de las entradas vinieron directamente de una cámara montada en un robot, y algunas de las salidas se usaron para manipular los brazos y las piernas del robot. Sin embargo, la persona en la habitación todavía está siguiendo las reglas y no sabe lo que significan los símbolos. Searle escribe "no ve lo que entra por los ojos del robot". [74]
Algunos responden que la habitación, tal como la describe Searle, está conectada con el mundo: a través de los hablantes chinos con los que "habla" y a través de los programadores que diseñaron la base de conocimientos en su archivador. Los símbolos que Searle manipula ya tienen significado, pero no lo tienen para él. [75] [s]
Searle dice que los símbolos sólo tienen un significado "derivado", como el significado de las palabras en los libros. El significado de los símbolos depende de la comprensión consciente de los hablantes chinos y de los programadores que están fuera de la sala. La sala, como un libro, no tiene comprensión propia. [t]
Algunos han argumentado que los significados de los símbolos provendrían de un vasto "fondo" de conocimiento de sentido común codificado en el programa y en los archivadores. Esto proporcionaría un "contexto" que daría a los símbolos su significado. [73] [u]
Searle está de acuerdo en que este fondo existe, pero no en que pueda incorporarse a los programas. Hubert Dreyfus también ha criticado la idea de que el "fondo" pueda representarse simbólicamente. [78]
A cada una de estas sugerencias, la respuesta de Searle es la misma: no importa cuánto conocimiento esté escrito en el programa y no importa cómo esté conectado el programa con el mundo, él sigue estando en la habitación manipulando símbolos de acuerdo con reglas. Sus acciones son sintácticas y esto nunca puede explicarle lo que representan los símbolos. Searle escribe que "la sintaxis es insuficiente para la semántica". [79] [v]
Sin embargo, para quienes aceptan que las acciones de Searle simulan una mente separada de la suya, la pregunta importante no es qué significan los símbolos para Searle, sino qué significan para la mente virtual. Mientras Searle está atrapado en la habitación, la mente virtual no lo está: está conectada al mundo exterior a través de los hablantes chinos con los que habla, a través de los programadores que le dieron el conocimiento del mundo y a través de las cámaras y otros sensores que los expertos en robótica pueden proporcionar.
Todos estos argumentos son versiones de la respuesta de sistemas que identifican un tipo particular de sistema como importante; identifican alguna tecnología especial que crearía comprensión consciente en una máquina. (Las respuestas de "robot" y "conocimiento de sentido común" mencionadas anteriormente también especifican un cierto tipo de sistema como importante).
Supongamos que el programa simulara con gran detalle la acción de cada neurona del cerebro de un hablante chino. [81] [w] Esto refuerza la intuición de que no habría ninguna diferencia significativa entre el funcionamiento del programa y el funcionamiento de un cerebro humano vivo.
Searle responde que una simulación de este tipo no reproduce las características importantes del cerebro, es decir, sus estados causales e intencionales. Es categórico al afirmar que "los fenómenos mentales humanos dependen de las propiedades físico-químicas reales de los cerebros humanos reales". [26] Además, sostiene:
[I]maginemos que en lugar de un hombre monolingüe en una habitación mezclando símbolos, tenemos al hombre operando un elaborado conjunto de tuberías de agua con válvulas que las conectan. Cuando el hombre recibe los símbolos chinos, busca en el programa, escrito en inglés, qué válvulas tiene que abrir y cerrar. Cada conexión de agua corresponde a una sinapsis en el cerebro chino, y todo el sistema está diseñado de manera que después de hacer todos los disparos correctos, es decir, después de abrir todos los grifos correctos, las respuestas chinas aparecen en el extremo de salida de la serie de tuberías. Ahora bien, ¿dónde está la comprensión en este sistema? Toma el chino como entrada, simula la estructura formal de las sinapsis del cerebro chino y da chino como salida. Pero el hombre ciertamente no entiende chino, y las tuberías de agua tampoco, y si nos sentimos tentados a adoptar lo que creo que es la visión absurda de que de alguna manera la conjunción del hombre y las tuberías de agua entiende, recordemos que en principio el hombre puede internalizar la estructura formal de las tuberías de agua y hacer todos los "disparos neuronales" en su imaginación. [83]
¿Qué sucedería si le pidiéramos a cada ciudadano de China que simulara una neurona, utilizando el sistema telefónico para simular las conexiones entre axones y dendritas ? En esta versión, parece obvio que ningún individuo tendría la menor comprensión de lo que el cerebro podría estar diciendo. [84] [x] También es obvio que este sistema sería funcionalmente equivalente a un cerebro, por lo que si la conciencia es una función, este sistema sería consciente.
En este caso, se nos pide que imaginemos que los ingenieros han inventado una pequeña computadora que simula la acción de una neurona individual. ¿Qué sucedería si reemplazáramos una neurona a la vez? Reemplazar una claramente no haría nada para cambiar la conciencia. Reemplazarlas todas crearía una computadora digital que simula un cerebro. Si Searle tiene razón, entonces la conciencia debe desaparecer durante el procedimiento (ya sea gradualmente o de una sola vez). Los críticos de Searle argumentan que no habría ningún momento durante el procedimiento en el que él pudiera afirmar que la conciencia termina y comienza la simulación sin sentido. [86] [y] [z] (Véase La nave de Teseo para un experimento mental similar).
Estos argumentos (y las respuestas del robot o del sentido común) identifican alguna tecnología especial que ayudaría a crear comprensión consciente en una máquina. Pueden interpretarse de dos maneras: o bien afirman (1) que esta tecnología es necesaria para la conciencia, la habitación china no implementa o no puede implementar esta tecnología y, por lo tanto, no puede pasar la prueba de Turing o (incluso si la pasara) no tendría comprensión consciente. O bien pueden afirmar que (2) es más fácil ver que la habitación china tiene una mente si visualizamos esta tecnología como utilizada para crearla.
En el primer caso, en el que se requieren características como un cuerpo de robot o una arquitectura conexionista, Searle afirma que la IA fuerte (tal como él la entiende) ha sido abandonada. [ac] La habitación china tiene todos los elementos de una máquina completa de Turing y, por lo tanto, es capaz de simular cualquier computación digital. Si la habitación de Searle no puede pasar la prueba de Turing, entonces no hay otra tecnología digital que pueda pasar la prueba de Turing. Si la habitación de Searle pudiera pasar la prueba de Turing, pero aún no tiene una mente, entonces la prueba de Turing no es suficiente para determinar si la habitación tiene una "mente". De cualquier manera, niega una u otra de las posiciones que Searle considera como "IA fuerte", lo que prueba su argumento.
Los argumentos a favor del cerebro, en particular, niegan la existencia de una IA fuerte si suponen que no existe una forma más sencilla de describir la mente que crear un programa que sea tan misterioso como lo era el cerebro. Escribe: "Pensé que la idea de la IA fuerte era que no necesitamos saber cómo funciona el cerebro para saber cómo funciona la mente". [27] Si la computación no proporciona una explicación de la mente humana, entonces la IA fuerte ha fracasado, según Searle.
Otros críticos sostienen que la habitación tal como la describió Searle, de hecho, tiene una mente, pero sostienen que es difícil de ver: la descripción de Searle es correcta, pero engañosa. Al rediseñar la habitación de manera más realista, esperan hacer que esto sea más obvio. En este caso, estos argumentos se utilizan como apelaciones a la intuición (véase la siguiente sección).
De hecho, la habitación puede ser rediseñada con la misma facilidad para debilitar nuestras intuiciones. El argumento Blockhead de Ned Block [92] sugiere que el programa podría, en teoría, ser reescrito en una simple tabla de búsqueda de reglas de la forma "si el usuario escribe S , responde con P y pasa a X". Al menos en principio, cualquier programa puede ser reescrito (o " refactorizado ") en esta forma, incluso una simulación cerebral. [ad] En el escenario de Blockhead, todo el estado mental está oculto en la letra X, que representa una dirección de memoria , un número asociado con la siguiente regla. Es difícil visualizar que un instante de la experiencia consciente de uno pueda ser capturado en un solo número grande, pero esto es exactamente lo que afirma la "IA fuerte". Por otro lado, una tabla de búsqueda de este tipo sería ridículamente grande (hasta el punto de ser físicamente imposible), y los estados podrían, por lo tanto, ser demasiado específicos.
Searle sostiene que, independientemente de cómo esté escrito el programa o de cómo esté conectada la máquina al mundo, la mente está siendo simulada por una simple máquina (o máquinas) digital paso a paso. Estas máquinas son siempre como el hombre de la habitación: no entienden nada y no hablan chino. Se limitan a manipular símbolos sin saber lo que significan. Searle escribe: "Puedo tener cualquier programa formal que quieras, pero aun así no entiendo nada". [93]
Los argumentos que siguen (y las interpretaciones intuitivas de los argumentos anteriores) no explican directamente cómo podría existir una mente que habla chino en la habitación de Searle, o cómo los símbolos que manipula podrían adquirir significado. Sin embargo, al plantear dudas sobre las intuiciones de Searle, respaldan otras posiciones, como las del sistema y las respuestas del robot. Estos argumentos, si se aceptan, impiden que Searle afirme que su conclusión es obvia al socavar las intuiciones que su certeza requiere.
Varios críticos creen que el argumento de Searle se basa enteramente en intuiciones. Block escribe: "El argumento de Searle depende, para su fuerza, de intuiciones de que ciertas entidades no piensan". [94] Daniel Dennett describe el argumento de la habitación china como una " bomba de intuición " engañosa [95] y escribe: "El experimento mental de Searle depende, ilícitamente, de que imagines un caso demasiado simple, un caso irrelevante, y extraigas de él la conclusión obvia". [95]
Algunos de los argumentos anteriores también funcionan como apelaciones a la intuición, especialmente aquellos que pretenden hacer que parezca más plausible que la habitación china contiene una mente, que puede incluir el robot, el conocimiento de sentido común, la simulación cerebral y las respuestas conexionistas. Varias de las respuestas anteriores también abordan la cuestión específica de la complejidad. La respuesta conexionista enfatiza que un sistema de inteligencia artificial funcional tendría que ser tan complejo y tan interconectado como el cerebro humano. La respuesta del conocimiento de sentido común enfatiza que cualquier programa que pasara una prueba de Turing tendría que ser "un sistema extraordinariamente flexible, sofisticado y multicapa, repleto de 'conocimiento del mundo' y metaconocimiento y meta-metaconocimiento", como explica Daniel Dennett . [77]
Muchas de estas críticas enfatizan la velocidad y complejidad del cerebro humano, [ae] que procesa información a 100 mil millones de operaciones por segundo (según algunas estimaciones). [97] Varios críticos señalan que el hombre en la habitación probablemente tardaría millones de años en responder a una pregunta simple, y requeriría "archivadores" de proporciones astronómicas. [98] Esto pone en duda la claridad de la intuición de Searle.
Una versión especialmente vívida de la respuesta sobre velocidad y complejidad es la de Paul y Patricia Churchland . Proponen este experimento mental análogo: "Consideremos una habitación oscura en la que hay un hombre que sostiene una barra imantada o un objeto cargado. Si el hombre mueve el imán hacia arriba y hacia abajo, entonces, según la teoría de Maxwell de la luminancia artificial (AL), iniciará un círculo de propagación de ondas electromagnéticas y, por lo tanto, será luminoso. Pero como todos los que hemos jugado con imanes o bolas cargadas sabemos bien, sus fuerzas (o cualquier otra fuerza, en realidad), incluso cuando se ponen en movimiento, no producen luminancia en absoluto. ¡Es inconcebible que se pueda generar luminancia real simplemente moviendo fuerzas!" [85] El punto de Churchland es que el problema es que tendría que mover el imán hacia arriba y hacia abajo algo así como 450 billones de veces por segundo para poder ver algo. [99]
Stevan Harnad critica las respuestas rápidas y complejas cuando no responden a nuestras intuiciones. Escribe: "Algunos han hecho un culto a la velocidad y al tiempo, sosteniendo que, cuando se acelera a la velocidad adecuada, lo computacional puede hacer una transición de fase hacia lo mental. Debería quedar claro que no se trata de un contraargumento sino de una mera especulación ad hoc (como lo es la opinión de que todo es sólo una cuestión de aumentar hasta el grado correcto de 'complejidad')". [100] [af]
Searle sostiene que sus críticos también se basan en intuiciones, pero que las intuiciones de sus oponentes no tienen ninguna base empírica. Escribe que, para considerar la "respuesta del sistema" como remotamente plausible, una persona debe estar "bajo el control de una ideología". [29] La respuesta del sistema sólo tiene sentido (para Searle) si se supone que cualquier "sistema" puede tener conciencia, sólo en virtud de ser un sistema con el comportamiento y las partes funcionales adecuadas. Esta suposición, sostiene, no es sostenible dada nuestra experiencia de la conciencia.
Varias respuestas sostienen que el argumento de Searle es irrelevante porque sus suposiciones sobre la mente y la conciencia son erróneas. Searle cree que los seres humanos experimentan directamente su conciencia, intencionalidad y la naturaleza de la mente todos los días, y que esta experiencia de la conciencia no está abierta a discusión. Escribe que debemos "presuponer la realidad y cognoscibilidad de lo mental". [103] Las respuestas a continuación cuestionan si Searle está justificado al usar su propia experiencia de la conciencia para determinar que es más que un procesamiento mecánico de símbolos. En particular, la respuesta sobre las otras mentes sostiene que no podemos usar nuestra experiencia de la conciencia para responder preguntas sobre otras mentes (incluso la mente de una computadora); las respuestas epifenómenales cuestionan si podemos hacer algún argumento sobre algo como la conciencia que, por definición, no puede detectarse mediante ningún experimento; y la respuesta materialista eliminativa sostiene que la propia conciencia personal de Searle no "existe" en el sentido en que Searle cree que existe.
La "Respuesta de las otras mentes" señala que el argumento de Searle es una versión del problema de las otras mentes , aplicado a las máquinas. No hay forma de determinar si la experiencia subjetiva de otras personas es la misma que la nuestra. Sólo podemos estudiar su comportamiento (es decir, aplicándoles nuestra propia prueba de Turing). Los críticos de Searle argumentan que él está exigiendo a la habitación china un estándar más alto que el que le exigiríamos a una persona común. [104] [ag]
Nils Nilsson escribe: "Si un programa se comporta como si estuviera multiplicando, la mayoría de nosotros diría que, de hecho, se está multiplicando. Por lo que sé, Searle puede estar comportándose sólo como si estuviera pensando profundamente sobre estos asuntos. Pero, aunque no estoy de acuerdo con él, su simulación es bastante buena, así que estoy dispuesto a reconocerle un pensamiento real". [106]
Turing anticipó la línea de argumentación de Searle (a la que llamó "El argumento de la conciencia") en 1950 y hace que las otras mentes respondan. [107] Observó que las personas nunca consideran el problema de las otras mentes cuando tratan entre sí. Escribe que "en lugar de discutir continuamente sobre este punto, es habitual tener la convención cortés de que todo el mundo piensa". [108] La prueba de Turing simplemente extiende esta "convención cortés" a las máquinas. No pretende resolver el problema de las otras mentes (para máquinas o personas) y no cree que sea necesario. [ah]
Si aceptamos la descripción de Searle de la intencionalidad, la conciencia y la mente, nos vemos obligados a aceptar que la conciencia es epifenoménica : que "no proyecta sombra", es decir, que es indetectable en el mundo exterior. Las "propiedades causales" de Searle no pueden ser detectadas por nadie fuera de la mente, de lo contrario, la habitación china no podría pasar la prueba de Turing: las personas de afuera podrían decir que no había un hablante chino en la habitación detectando sus propiedades causales. Como no pueden detectar propiedades causales, no pueden detectar la existencia de lo mental. Por lo tanto, las "propiedades causales" de Searle y la conciencia en sí son indetectables, y cualquier cosa que no pueda detectarse o bien no existe o bien no importa.
Mike Alder llama a esto la "respuesta de la espada láser llameante de Newton". Sostiene que todo el argumento es frívolo, porque no es verificacionista : no sólo la distinción entre simular una mente y tener una mente está mal definida, sino que también es irrelevante porque no se han propuesto, ni pueden proponerse, experimentos para distinguir entre ambos. [110]
Daniel Dennett ofrece esta ilustración: supongamos que, por alguna mutación, nace un ser humano que no tiene las "propiedades causales" de Searle pero que, sin embargo, actúa exactamente como un ser humano. Se trata de un zombi filosófico , tal como se formula en la filosofía de la mente . Este nuevo animal se reproduciría como cualquier otro humano y, con el tiempo, habría más zombis de este tipo. La selección natural favorecería a los zombis, ya que su diseño es (podríamos suponer) un poco más simple. Con el tiempo, los humanos se extinguirían. Por lo tanto, si Searle tiene razón, lo más probable es que los seres humanos (tal como los vemos hoy) sean en realidad "zombis", que, sin embargo, insisten en que son conscientes. Es imposible saber si todos somos zombis o no. Incluso si todos fuéramos zombis, seguiríamos creyendo que no lo somos. [111]
Varios filósofos sostienen que la conciencia, tal como la describe Searle, no existe. Daniel Dennett describe la conciencia como una " ilusión del usuario ". [112]
Esta postura se conoce a veces como materialismo eliminativo : la visión de que la conciencia no es un concepto que pueda "disfrutar de la reducción" a una descripción estrictamente mecánica, sino que es un concepto que simplemente será eliminado una vez que se comprenda completamente la forma en que funciona el cerebro material , de la misma manera que el concepto de demonio ya ha sido eliminado de la ciencia en lugar de disfrutar de la reducción a una descripción estrictamente mecánica. Otras propiedades mentales, como la intencionalidad original (también llamada "significado", "contenido" y "carácter semántico"), también se consideran comúnmente como propiedades especiales relacionadas con las creencias y otras actitudes proposicionales. El materialismo eliminativo sostiene que las actitudes proposicionales como las creencias y los deseos, entre otros estados mentales intencionales que tienen contenido, no existen. Si el materialismo eliminativo es la explicación científica correcta de la cognición humana, entonces debe rechazarse la suposición del argumento de la habitación china de que "las mentes tienen contenidos mentales ( semántica )". [113]
Searle no está de acuerdo con este análisis y sostiene que "el estudio de la mente comienza con hechos como que los humanos tienen creencias, mientras que los termostatos, los teléfonos y las máquinas sumadoras no... lo que queríamos saber es qué distingue a la mente de los termostatos y los hígados". [74] Él considera obvio que podemos detectar la presencia de la conciencia y descarta estas respuestas por estar fuera de lugar.
Margaret Boden argumentó en su artículo "Escapar de la sala china" que incluso si la persona que está en la sala no entiende chino, eso no significa que no haya comprensión en la sala. La persona que está en la sala al menos entiende el libro de reglas que se utiliza para proporcionar respuestas de salida. [114]
{{cite book}}
: CS1 maint: postscript (link)y Floridi, Luciano (2014), La cuarta revolución: cómo la infoesfera está transformando la realidad humana , Oxford University Press, ISBN 978-0-19-960672-6