Este artículo tiene varios problemas. Ayúdenos a mejorarlo o a discutir estos problemas en la página de discusión . ( Aprenda cómo y cuándo eliminar estos mensajes )
|
La neurofilosofía o filosofía de la neurociencia es el estudio interdisciplinario de la neurociencia y la filosofía que explora la relevancia de los estudios neurocientíficos para los argumentos tradicionalmente categorizados como filosofía de la mente . La filosofía de la neurociencia intenta aclarar los métodos y resultados neurocientíficos utilizando el rigor conceptual y los métodos de la filosofía de la ciencia .
A continuación se presenta una lista de cuestiones específicas importantes para la filosofía de la neurociencia:
Muchos de los métodos y técnicas centrales para el descubrimiento neurocientífico se basan en suposiciones que pueden limitar la interpretación de los datos. Los filósofos de la neurociencia han discutido tales suposiciones en el uso de la resonancia magnética funcional (fMRI), [6] [7] la disociación en la neuropsicología cognitiva , [8] [9] el registro de unidad única , [10] y la neurociencia computacional . [11] A continuación se describen muchas de las controversias y debates actuales sobre los métodos empleados en la neurociencia.
Muchos estudios de fMRI se basan en gran medida en el supuesto de localización de la función [12] (lo mismo que la especialización funcional).
La localización de la función significa que muchas funciones cognitivas pueden localizarse en regiones cerebrales específicas. Un ejemplo de localización funcional proviene de estudios de la corteza motora. [13] Parece haber diferentes grupos de células en la corteza motora responsables de controlar diferentes grupos de músculos.
Muchos filósofos de la neurociencia critican la fMRI por basarse demasiado en esta suposición. Michael Anderson señala que la fMRI basada en el método de sustracción omite mucha información cerebral que es importante para los procesos cognitivos. [14] La fMRI basada en sustracción solo muestra las diferencias entre la activación de la tarea y la activación del control, pero muchas de las áreas cerebrales activadas en el control son obviamente también importantes para la tarea.
Algunos filósofos rechazan por completo cualquier noción de localización de la función y, por lo tanto, creen que los estudios fMRI son profundamente equivocados. [15] Estos filósofos sostienen que el procesamiento cerebral actúa de manera holística, que grandes secciones del cerebro están involucradas en el procesamiento de la mayoría de las tareas cognitivas (véase el holismo en neurología y la sección sobre modularidad a continuación).Una forma de entender su objeción a la idea de la localización de la función es el experimento mental del reparador de radios. [16] En este experimento mental, un reparador de radios abre una radio y arranca un tubo. La radio comienza a silbar fuerte y el reparador de radios declara que debe haber arrancado el tubo anti-silbido. No hay tubo anti-silbido en la radio y el reparador de radios ha confundido función con efecto. Esta crítica estaba dirigida originalmente a la lógica utilizada por los experimentos neuropsicológicos de lesión cerebral, pero la crítica todavía es aplicable a la neuroimagen. Estas consideraciones son similares a la crítica de Van Orden y Paap a la circularidad en la lógica de la neuroimagen. [17] Según ellos, los neuroimagenólogos asumen que su teoría de parcelación de componentes cognitivos es correcta y que estos componentes se dividen limpiamente en módulos de retroalimentación. Estas suposiciones son necesarias para justificar su inferencia de la localización cerebral. La lógica es circular si el investigador luego usa la apariencia de activación de la región cerebral como prueba de la corrección de sus teorías cognitivas.
Otro supuesto metodológico problemático en la investigación con fMRI es el uso de la inferencia inversa. [18] Una inferencia inversa es cuando la activación de una región cerebral se utiliza para inferir la presencia de un proceso cognitivo dado. Poldrack señala que la fuerza de esta inferencia depende críticamente de la probabilidad de que una tarea dada emplee un proceso cognitivo dado y de la probabilidad de ese patrón de activación cerebral dado ese proceso cognitivo. En otras palabras, la fuerza de la inferencia inversa se basa en la selectividad de la tarea utilizada, así como en la selectividad de la activación de la región cerebral.
Un artículo publicado en 2011 en el New York Times ha sido duramente criticado por hacer un mal uso de la inferencia inversa. [19] En el estudio, a los participantes se les mostraron fotos de sus iPhones y los investigadores midieron la activación de la ínsula . Los investigadores tomaron la activación de la ínsula como evidencia de sentimientos de amor y concluyeron que la gente amaba sus iPhones. Los críticos se apresuraron a señalar que la ínsula no es una parte muy selectiva de la corteza y, por lo tanto, no es susceptible de inferencia inversa.
El neuropsicólogo Max Coltheart llevó los problemas de la inferencia inversa un paso más allá y desafió a los neuroimagenólogos a dar un ejemplo en el que la neuroimagen hubiera informado la teoría psicológica. [20] Coltheart considera que la carga de la prueba es un ejemplo en el que los datos de las imágenes cerebrales son consistentes con una teoría pero inconsistentes con otra.
Roskies sostiene que la posición ultracognitiva de Coltheart hace que su desafío sea imposible de ganar. [21] Dado que Coltheart sostiene que la implementación de un estado cognitivo no tiene relación con la función de ese estado cognitivo, entonces es imposible encontrar datos de neuroimagen que puedan comentar las teorías psicológicas en la forma en que Coltheart exige. Los datos de neuroimagen siempre serán relegados al nivel inferior de implementación y no podrán determinar selectivamente una u otra teoría cognitiva.
En un artículo de 2006, Richard Henson sugiere que la inferencia hacia adelante se puede utilizar para inferir la disociación de la función a nivel psicológico. [22] Sugiere que este tipo de inferencias se pueden realizar cuando hay activaciones cruzadas entre dos tipos de tareas en dos regiones del cerebro y no hay cambio en la activación en una región de control mutuo.
Un último supuesto es el supuesto de inserción pura en fMRI. [23] El supuesto de inserción pura es el supuesto de que un solo proceso cognitivo puede insertarse en otro conjunto de procesos cognitivos sin afectar el funcionamiento del resto. Por ejemplo, para encontrar el área de comprensión lectora del cerebro, los investigadores podrían escanear a los participantes mientras se les presenta una palabra y mientras se les presenta una no-palabra (por ejemplo, "Floob"). Si los investigadores luego infieren que la diferencia resultante en el patrón cerebral representa las regiones del cerebro involucradas en la comprensión lectora, han asumido que estos cambios no reflejan cambios en la dificultad de la tarea o el reclutamiento diferencial entre tareas. El término inserción pura fue acuñado por Donders como una crítica a los métodos de tiempo de reacción.
Recientemente, los investigadores han comenzado a utilizar una nueva técnica de imágenes funcionales llamada resonancia magnética funcional de conectividad en estado de reposo . [24] Se escanea el cerebro de los sujetos mientras estos permanecen sentados sin hacer nada frente al escáner. Al observar las fluctuaciones naturales del patrón dependiente del nivel de oxígeno en sangre (BOLD) mientras el sujeto está en reposo, los investigadores pueden ver qué regiones del cerebro varían en cuanto a su activación. Después, pueden utilizar los patrones de covarianza para construir mapas de áreas cerebrales funcionalmente vinculadas.
El nombre "conectividad funcional" es un tanto engañoso, ya que los datos solo indican covariación. Aun así, se trata de un método eficaz para estudiar grandes redes en todo el cerebro.
Hay un par de cuestiones metodológicas importantes que deben abordarse. En primer lugar, existen muchos mapas cerebrales posibles que podrían utilizarse para definir las regiones cerebrales de la red. Los resultados podrían variar significativamente según la región cerebral elegida.
En segundo lugar, ¿qué técnicas matemáticas son las mejores para caracterizar estas regiones del cerebro?
Las regiones cerebrales de interés están algo limitadas por el tamaño de los vóxeles . Rs-fcMRI utiliza vóxeles que tienen solo unos pocos milímetros cúbicos, por lo que las regiones cerebrales deberán definirse a una escala mayor. Dos de los métodos estadísticos que se aplican comúnmente al análisis de redes pueden funcionar en la escala espacial de un solo vóxel, pero los métodos de teoría de grafos son extremadamente sensibles a la forma en que se definen los nodos.
Las regiones cerebrales pueden dividirse según su arquitectura celular , según su conectividad o según medidas fisiológicas . Otra posibilidad es adoptar un enfoque "neutral en cuanto a la teoría" y dividir aleatoriamente la corteza en particiones de un tamaño arbitrario.
Como se mencionó anteriormente, existen varios enfoques para el análisis de redes una vez que se han definido las regiones cerebrales. El análisis basado en semillas comienza con una región semilla definida a priori y encuentra todas las regiones que están conectadas funcionalmente con esa región. Wig et al. advierten que la estructura de red resultante no brindará ninguna información sobre la interconectividad de las regiones identificadas o las relaciones de esas regiones con regiones distintas a la región semilla.
Otro enfoque consiste en utilizar el análisis de componentes independientes (ICA) para crear mapas de componentes espacio-temporales, y los componentes se clasifican en aquellos que contienen información de interés y aquellos que son causados por el ruido . Wigs et al. advierte una vez más que la inferencia de comunidades de regiones cerebrales funcionales es difícil con el ICA. El ICA también tiene el problema de imponer ortogonalidad a los datos. [25]
La teoría de grafos utiliza una matriz para caracterizar la covarianza entre regiones, que luego se transforma en un mapa de red. El problema con el análisis de la teoría de grafos es que el mapeo de la red está fuertemente influenciado por la región cerebral y la conectividad a priori (nodos y aristas). Esto pone al investigador en riesgo de seleccionar regiones y conexiones según sus propias teorías preconcebidas. Sin embargo, el análisis de la teoría de grafos todavía se considera extremadamente valioso, ya que es el único método que proporciona relaciones por pares entre nodos.
Si bien el ICA puede tener la ventaja de ser un método bastante basado en principios, parece que el uso de ambos métodos será importante para comprender mejor la conectividad de la red del cerebro. Mumford et al. esperaban evitar estos problemas y utilizar un enfoque basado en principios que pudiera determinar relaciones por pares utilizando una técnica estadística adoptada del análisis de redes de coexpresión genética.
La neuropsicología cognitiva estudia a los pacientes con daño cerebral y utiliza los patrones de deterioro selectivo para hacer inferencias sobre la estructura cognitiva subyacente. La disociación entre funciones cognitivas se considera una prueba de que estas funciones son independientes. Los teóricos han identificado varias suposiciones clave que son necesarias para justificar estas inferencias: [26]
Existen tres tipos principales de evidencia en la neuropsicología cognitiva: asociación, disociación simple y disociación doble. [27] Las inferencias de asociación observan que es probable que ciertos déficits se presenten simultáneamente. Por ejemplo, hay muchos casos que tienen déficits tanto en la comprensión de palabras abstractas como concretas después de un daño cerebral. Los estudios de asociación se consideran la forma más débil de evidencia, porque los resultados podrían explicarse por el daño a las regiones cerebrales vecinas y no por el daño a un solo sistema cognitivo. [28] Las inferencias de disociación simple observan que una facultad cognitiva puede ser preservada mientras que otra puede ser dañada después de un daño cerebral. Este patrón indica que a) las dos tareas emplean diferentes sistemas cognitivos b) las dos tareas ocupan el mismo sistema y la tarea dañada está aguas abajo de la tarea preservada o c) que la tarea preservada requiere menos recursos cognitivos que la tarea dañada. El "estándar de oro" para la neuropsicología cognitiva es la disociación doble. La doble disociación ocurre cuando el daño cerebral afecta la tarea A en el Paciente 1 pero no afecta la tarea B, y el daño cerebral afecta la tarea A en el Paciente 2 pero no afecta la tarea B. Se supone que una instancia de doble disociación es prueba suficiente para inferir módulos cognitivos separados en el desempeño de las tareas.
Muchos teóricos critican la neuropsicología cognitiva por su dependencia de las disociaciones dobles. En un estudio ampliamente citado, Joula y Plunkett utilizaron un sistema conexionista modelo para demostrar que los patrones de comportamiento de doble disociación pueden ocurrir a través de lesiones aleatorias de un solo módulo. [29] Crearon un sistema conexionista multicapa entrenado para pronunciar palabras. Simularon repetidamente la destrucción aleatoria de nodos y conexiones en el sistema y trazaron el rendimiento resultante en un diagrama de dispersión . Los resultados mostraron déficits en la pronunciación de sustantivos irregulares con pronunciación de verbos regulares respetada en algunos casos y déficits en la pronunciación de verbos regulares con pronunciación de sustantivos irregulares respetada. Estos resultados sugieren que una única instancia de doble disociación es insuficiente para justificar la inferencia a múltiples sistemas. [30]
Charter ofrece un caso teórico en el que la lógica de la doble disociación puede ser errónea. [31] Si dos tareas, la tarea A y la tarea B, utilizan casi todos los mismos sistemas pero difieren en un módulo mutuamente excluyente cada una, entonces la lesión selectiva de esos dos módulos parecería indicar que A y B utilizan sistemas diferentes. Charter utiliza el ejemplo de alguien que es alérgico a los cacahuetes pero no a los camarones y alguien que es alérgico a los camarones pero no a los cacahuetes. Sostiene que la lógica de la doble disociación lleva a inferir que los cacahuetes y los camarones son digeridos por sistemas diferentes. John Dunn ofrece otra objeción a la doble disociación. [32] Afirma que es fácil demostrar la existencia de un déficit verdadero pero difícil demostrar que otra función está verdaderamente a salvo. A medida que se acumulan más datos, el valor de sus resultados convergerá en un tamaño del efecto de cero, pero siempre habrá un valor positivo mayor que cero que tenga más poder estadístico que cero. Por lo tanto, es imposible estar completamente seguro de que una doble disociación dada realmente exista.
En otro orden de cosas, Alphonso Caramazza ha dado una razón de principios para rechazar el uso de estudios de grupo en neuropsicología cognitiva. [33] Los estudios de pacientes con daño cerebral pueden adoptar la forma de un estudio de caso único, en el que se caracteriza el comportamiento de un individuo y se utiliza como prueba, o estudios de grupo, en los que se caracteriza y promedia el comportamiento de un grupo de pacientes que muestran el mismo déficit. Para justificar la agrupación de un conjunto de datos de pacientes, el investigador debe saber que el grupo es homogéneo, que su comportamiento es equivalente en todos los sentidos teóricamente significativos. En los pacientes con daño cerebral, esto sólo se puede lograr a posteriori analizando los patrones de comportamiento de todos los individuos del grupo. Por lo tanto, según Caramazza, cualquier estudio de grupo es equivalente a un conjunto de estudios de caso único o no está justificado teóricamente. Newcombe y Marshall señalaron que hay algunos casos (usan el síndrome de Geschwind como ejemplo) y que los estudios de grupo todavía podrían servir como una heurística útil en los estudios neuropsicológicos cognitivos. [34]
En neurociencia, se entiende comúnmente que la información está codificada en el cerebro por los patrones de activación de las neuronas. [35] Muchas de las cuestiones filosóficas que rodean el código neuronal están relacionadas con cuestiones sobre la representación y la computación que se analizan a continuación. Existen otras cuestiones metodológicas, como si las neuronas representan la información a través de una tasa de activación promedio o si existe información representada por la dinámica temporal. Existen preguntas similares sobre si las neuronas representan la información de forma individual o como población.
Muchas de las controversias filosóficas que rodean a la neurociencia computacional involucran el papel de la simulación y el modelado como explicación. Carl Craver ha sido especialmente explícito en relación con tales interpretaciones. [36] Jones y Love escribieron un artículo especialmente crítico dirigido al modelado conductual bayesiano que no restringía los parámetros de modelado por consideraciones psicológicas o neurológicas. [37] Eric Winsberg ha escrito sobre el papel del modelado y la simulación por computadora en la ciencia en general, pero su caracterización es aplicable a la neurociencia computacional. [38]
La teoría computacional de la mente se ha difundido en la neurociencia desde la revolución cognitiva de la década de 1960. Esta sección comenzará con una descripción histórica de la neurociencia computacional y luego analizará varias teorías y controversias en competencia dentro del campo.
La neurociencia computacional comenzó en las décadas de 1930 y 1940 con dos grupos de investigadores. [ cita requerida ] El primer grupo estaba formado por Alan Turing , Alonzo Church y John von Neumann , que trabajaban para desarrollar máquinas de computación y los fundamentos matemáticos de la informática . [39] Este trabajo culminó en el desarrollo teórico de las llamadas máquinas de Turing y la tesis de Church-Turing , que formalizó las matemáticas subyacentes a la teoría de la computabilidad . El segundo grupo estaba formado por Warren McCulloch y Walter Pitts, que trabajaban para desarrollar las primeras redes neuronales artificiales. McCulloch y Pitts fueron los primeros en plantear la hipótesis de que las neuronas podrían utilizarse para implementar un cálculo lógico que pudiera explicar la cognición. Utilizaron sus neuronas de juguete para desarrollar puertas lógicas que pudieran realizar cálculos. [40] Sin embargo, estos desarrollos no lograron afianzarse en las ciencias psicológicas y la neurociencia hasta mediados de los años 1950 y 1960. El conductismo había dominado la psicología hasta la década de 1950, cuando nuevos desarrollos en una variedad de campos derribaron la teoría conductista en favor de una teoría cognitiva. Desde el comienzo de la revolución cognitiva, la teoría computacional jugó un papel importante en los desarrollos teóricos. El trabajo de Minsky y McCarthy en inteligencia artificial, las simulaciones por computadora de Newell y Simon y la importación de la teoría de la información a la lingüística por parte de Noam Chomsky dependían en gran medida de supuestos computacionales. [41] A principios de la década de 1960, Hilary Putnam argumentaba a favor del funcionalismo de la máquina en el que el cerebro instanciaba las máquinas de Turing. En este punto, las teorías computacionales estaban firmemente arraigadas en la psicología y la neurociencia. A mediados de la década de 1980, un grupo de investigadores comenzó a utilizar redes neuronales analógicas de alimentación hacia adelante de múltiples capas que podían ser entrenadas para realizar una variedad de tareas. El trabajo de investigadores como Sejnowski, Rosenberg, Rumelhart y McClelland fue etiquetado como conexionismo, y la disciplina ha continuado desde entonces. [42] La mentalidad conexionista fue adoptada por Paul y Patricia Churchland, quienes luego desarrollaron su "semántica del espacio de estados" utilizando conceptos de la teoría conexionista. El conexionismo también fue condenado por investigadores como Fodor, Pylyshyn y Pinker. La tensión entre los conexionistas y los clasicistas todavía se debate hoy en día.
Una de las razones por las que las teorías computacionales son atractivas es que las computadoras tienen la capacidad de manipular representaciones para producir resultados significativos. Las computadoras digitales utilizan cadenas de 1 y 0 para representar el contenido. La mayoría de los científicos cognitivos postulan que el cerebro utiliza alguna forma de código representacional que se transporta en los patrones de activación de las neuronas. Las teorías computacionales parecen ofrecer una manera fácil de explicar cómo los cerebros humanos transportan y manipulan las percepciones, pensamientos, sentimientos y acciones de los individuos. [43] Si bien la mayoría de los teóricos sostienen que la representación es una parte importante de la cognición, la naturaleza exacta de esa representación es muy debatida. Los dos argumentos principales provienen de los defensores de las representaciones simbólicas y de los defensores de las representaciones asociacionistas .
Fodor y Pinker han defendido con gran éxito las teorías de la representación simbólica. La representación simbólica significa que los objetos están representados por símbolos y se procesan mediante manipulaciones regidas por reglas que son sensibles a la estructura constitutiva. El hecho de que la representación simbólica sea sensible a la estructura de las representaciones es una parte importante de su atractivo. Fodor propuso la hipótesis del lenguaje del pensamiento , en la que las representaciones mentales se manipulan de la misma manera que el lenguaje se manipula sintácticamente para producir pensamiento. Según Fodor, la hipótesis del lenguaje del pensamiento explica la sistematicidad y la productividad que se observan tanto en el lenguaje como en el pensamiento. [44]
Las representaciones asociativistas se describen con mayor frecuencia con sistemas conexionistas . En los sistemas conexionistas, las representaciones se distribuyen entre todos los nodos y pesos de conexión del sistema y, por lo tanto, se dice que son subsimbólicas. [45] Un sistema conexionista es capaz de implementar un sistema simbólico. Hay varios aspectos importantes de las redes neuronales que sugieren que el procesamiento paralelo distribuido proporciona una mejor base para las funciones cognitivas que el procesamiento simbólico. En primer lugar, la inspiración para estos sistemas provino del propio cerebro, lo que indica una relevancia biológica. En segundo lugar, estos sistemas son capaces de almacenar memoria direccionable de contenido, lo que es mucho más eficiente que las búsquedas de memoria en sistemas simbólicos. En tercer lugar, las redes neuronales son resistentes al daño, mientras que incluso un daño menor puede inhabilitar un sistema simbólico. Por último, las restricciones suaves y la generalización al procesar estímulos nuevos permiten que las redes se comporten de manera más flexible que los sistemas simbólicos.
Churchland describió la representación en un sistema conexionista en términos de espacio de estados. El contenido del sistema se representa mediante un vector n-dimensional donde n = el número de nodos en el sistema y la dirección del vector está determinada por el patrón de activación de los nodos. Fodor rechazó este método de representación con el argumento de que dos sistemas conexionistas diferentes no podían tener el mismo contenido. [46] Un análisis matemático posterior del sistema conexionista reveló que los sistemas conexionistas que podían contener contenido similar podían representarse gráficamente para revelar grupos de nodos que eran importantes para representar el contenido. [47] Sin embargo, la comparación de vectores en el espacio de estados no era susceptible de este tipo de análisis. Recientemente, Nicholas Shea ha ofrecido su propia explicación del contenido dentro de los sistemas conexionistas que emplea los conceptos desarrollados a través del análisis de grupos.
El computacionalismo , una especie de filosofía funcionalista de la mente, está comprometido con la posición de que el cerebro es una especie de computadora, pero ¿qué significa ser una computadora? La definición de una computación debe ser lo suficientemente estrecha como para limitar el número de objetos que pueden llamarse computadoras. Por ejemplo, podría parecer problemático tener una definición lo suficientemente amplia como para permitir que los estómagos y los sistemas meteorológicos participen en los cálculos. Sin embargo, también es necesario tener una definición lo suficientemente amplia como para permitir que todas las amplias variedades de sistemas computacionales calculen. Por ejemplo, si la definición de computación se limita a la manipulación sintáctica de representaciones simbólicas, entonces la mayoría de los sistemas conexionistas no podrían calcular. [48] Rick Grush distingue entre la computación como una herramienta para la simulación y la computación como una postura teórica en la neurociencia cognitiva. [49] Para el primero, cualquier cosa que pueda modelarse computacionalmente cuenta como computación. En el último caso, el cerebro es una función computacional que es distinta de sistemas como los sistemas de dinámica de fluidos y las órbitas planetarias en este sentido. El desafío de cualquier definición computacional es mantener los dos sentidos distintos.
Alternativamente, algunos teóricos optan por aceptar una definición estrecha o amplia por razones teóricas. El pancomputacionalismo es la postura según la cual se puede decir que todo es computacional. Esta visión ha sido criticada por Piccinini con el argumento de que tal definición hace que el cálculo sea trivial hasta el punto de privarlo de su valor explicativo. [50]
La definición más simple de computación es que se puede decir que un sistema está computando cuando una descripción computacional puede ser mapeada sobre la descripción física. Esta es una definición extremadamente amplia de computación y termina apoyando una forma de pancomputacionalismo. Putnam y Searle, a quienes a menudo se les atribuye este punto de vista, sostienen que la computación está relacionada con el observador. En otras palabras, si quieres ver un sistema como computando entonces puedes decir que está computando. Piccinini señala que, en esta perspectiva, no solo todo está computando, sino que también todo está computando en un número indefinido de formas. [51] Dado que es posible aplicar un número indefinido de descripciones computacionales a un sistema dado, el sistema termina computando un número indefinido de tareas.
La visión más común de la computación es la explicación semántica de la computación. Los enfoques semánticos utilizan una noción de computación similar a la de los enfoques de mapeo con la restricción adicional de que el sistema debe manipular representaciones con contenido semántico. Nótese de la discusión anterior sobre la representación que tanto los sistemas conexionistas de Churchland como los sistemas simbólicos de Fodor utilizan esta noción de computación. De hecho, a Fodor se le atribuye la famosa frase "No hay computación sin representación". [52] Los estados computacionales pueden individualizarse mediante una apelación externalizada al contenido en un sentido amplio (es decir, el objeto en el mundo externo) o mediante una apelación internalista al contenido en sentido estricto (contenido definido por las propiedades del sistema). [53] Para fijar el contenido de la representación, a menudo es necesario apelar a la información contenida dentro del sistema. Grush ofrece una crítica de la explicación semántica. [49] Señala que la apelación al contenido informativo de un sistema demuestra la representación por parte del sistema. Grush utiliza su taza de café como ejemplo de un sistema que contiene información, como la conductividad térmica de la taza y el tiempo transcurrido desde que se sirvió el café, pero que es demasiado mundano para ser computado en un sentido sólido. Los computacionalistas semánticos tratan de escapar de esta crítica apelando a la historia evolutiva del sistema. Esto se llama explicación biosemántica. Grush utiliza el ejemplo de sus pies, diciendo que según esta explicación sus pies no estarían computando la cantidad de comida que había comido porque su estructura no había sido seleccionada evolutivamente para ese propósito. Grush responde a la apelación a la biosemántica con un experimento mental. Imagine que un rayo cae en un pantano en algún lugar y crea una copia exacta de usted. Según la explicación biosemántica, este pantano-usted sería incapaz de realizar cálculos porque no hay una historia evolutiva con la que justificar la asignación de contenido representacional. La idea de que para dos estructuras físicamente idénticas se puede decir que una está computando mientras que la otra no debería ser inquietante para cualquier fisicalista.
También existen explicaciones sintácticas o estructurales para la computación. Estas explicaciones no necesitan depender de la representación. Sin embargo, es posible utilizar tanto la estructura como la representación como restricciones en el mapeo computacional. Oron Shagrir identifica a varios filósofos de la neurociencia que defienden explicaciones estructurales. Según él, Fodor y Pylyshyn requieren algún tipo de restricción sintáctica en su teoría de la computación. Esto es consistente con su rechazo de los sistemas conexionistas sobre la base de la sistematicidad. También identifica a Piccinini como estructuralista citando su artículo de 2008: "la generación de cadenas de salida de dígitos a partir de cadenas de entrada de dígitos de acuerdo con una regla general que depende de las propiedades de las cadenas y (posiblemente) del estado interno del sistema". [54] Aunque Piccinini indudablemente defiende puntos de vista estructuralistas en ese artículo, afirma que las explicaciones mecanicistas de la computación evitan la referencia tanto a la sintaxis como a la representación. [53] Es posible que Piccinini piense que hay diferencias entre las explicaciones sintácticas y estructurales de la computación que Shagrir no respeta.
En su visión de la computación mecanicista, Piccinini afirma que los mecanismos funcionales procesan los vehículos de una manera sensible a las diferencias entre las distintas partes del vehículo y, por lo tanto, se puede decir que calculan de manera genérica. Afirma que estos vehículos son independientes del medio, lo que significa que la función de mapeo será la misma independientemente de la implementación física. Los sistemas informáticos se pueden diferenciar en función de la estructura del vehículo y la perspectiva mecanicista puede dar cuenta de los errores en el cálculo.
La teoría de sistemas dinámicos se presenta como una alternativa a las explicaciones computacionales de la cognición. Estas teorías son firmemente anticomputacionales y antirrepresentacionales. Los sistemas dinámicos se definen como sistemas que cambian con el tiempo de acuerdo con una ecuación matemática. La teoría de sistemas dinámicos afirma que la cognición humana es un modelo dinámico en el mismo sentido en que los computacionalistas afirman que la mente humana es una computadora. [55] Una objeción común que se le hace a la teoría de sistemas dinámicos es que los sistemas dinámicos son computables y, por lo tanto, un subconjunto del computacionalismo. Van Gelder se apresura a señalar que existe una gran diferencia entre ser una computadora y ser computable. Hacer que la definición de computación sea lo suficientemente amplia como para incorporar modelos dinámicos abarcaría efectivamente el pancomputacionalismo.