La neurociencia computacional (también conocida como neurociencia teórica o neurociencia matemática ) es una rama de la neurociencia que emplea las matemáticas , la informática , el análisis teórico y las abstracciones del cerebro para comprender los principios que gobiernan el desarrollo , la estructura , la fisiología y las capacidades cognitivas del sistema nervioso . [1] [2] [3] [4]
La neurociencia computacional emplea simulaciones computacionales [5] para validar y resolver modelos matemáticos, por lo que puede considerarse un subcampo de la neurociencia teórica; sin embargo, los dos campos suelen ser sinónimos. [6] El término neurociencia matemática también se utiliza a veces para enfatizar la naturaleza cuantitativa del campo. [7]
La neurociencia computacional se centra en la descripción de neuronas biológicamente plausibles (y sistemas neuronales ) y su fisiología y dinámica, y por lo tanto no se ocupa directamente de los modelos biológicamente poco realistas utilizados en el conexionismo , la teoría del control , la cibernética , la psicología cuantitativa , el aprendizaje automático , las redes neuronales artificiales , la inteligencia artificial y la teoría del aprendizaje computacional ; [8] [9] [10] aunque existe una inspiración mutua y a veces no hay un límite estricto entre los campos, [11] [12] [13] con la abstracción del modelo en la neurociencia computacional dependiendo del alcance de la investigación y la granularidad con la que se analizan las entidades biológicas.
Los modelos de la neurociencia teórica tienen como objetivo captar las características esenciales del sistema biológico en múltiples escalas espacio-temporales, desde las corrientes de membrana y el acoplamiento químico a través de las oscilaciones de la red , la arquitectura columnar y topográfica, los núcleos, hasta las facultades psicológicas como la memoria, el aprendizaje y el comportamiento. Estos modelos computacionales enmarcan hipótesis que pueden probarse directamente mediante experimentos biológicos o psicológicos.
El término "neurociencia computacional" fue introducido por Eric L. Schwartz , quien organizó una conferencia, celebrada en 1985 en Carmel, California , a petición de la Fundación para el Desarrollo de Sistemas para proporcionar un resumen del estado actual de un campo que hasta ese momento se conocía con una variedad de nombres, como modelado neuronal, teoría del cerebro y redes neuronales. Las actas de esta reunión de definición se publicaron en 1990 como el libro Computational Neuroscience . [14] La primera de las reuniones internacionales abiertas anuales centradas en la neurociencia computacional fue organizada por James M. Bower y John Miller en San Francisco, California, en 1989. [15] El primer programa educativo de posgrado en neurociencia computacional se organizó como el programa de doctorado en sistemas neuronales y computacionales en el Instituto de Tecnología de California en 1985.
Las primeras raíces históricas del campo [16] se pueden rastrear hasta el trabajo de personas como Louis Lapicque , Hodgkin & Huxley , Hubel y Wiesel y David Marr . Lapicque introdujo el modelo de integración y disparo de la neurona en un artículo seminal publicado en 1907, [17] un modelo aún popular para los estudios de redes neuronales artificiales debido a su simplicidad (ver una revisión reciente [18] ).
Unos 40 años después, Hodgkin y Huxley desarrollaron la pinza de voltaje y crearon el primer modelo biofísico del potencial de acción . Hubel y Wiesel descubrieron que las neuronas de la corteza visual primaria , la primera área cortical en procesar información procedente de la retina , tienen campos receptivos orientados y están organizadas en columnas. [19] El trabajo de David Marr se centró en las interacciones entre neuronas, sugiriendo enfoques computacionales para el estudio de cómo los grupos funcionales de neuronas dentro del hipocampo y el neocórtex interactúan, almacenan, procesan y transmiten información. El modelado computacional de neuronas y dendritas biofísicamente realistas comenzó con el trabajo de Wilfrid Rall , con el primer modelo multicompartimental utilizando la teoría del cable .
La investigación en neurociencia computacional puede clasificarse, a grandes rasgos, en varias líneas de investigación. La mayoría de los neurocientíficos computacionales colaboran estrechamente con los experimentalistas en el análisis de nuevos datos y la síntesis de nuevos modelos de fenómenos biológicos.
Incluso una sola neurona tiene características biofísicas complejas y puede realizar cálculos (p. ej., [20] ). El modelo original de Hodgkin y Huxley solo empleaba dos corrientes sensibles al voltaje (los canales iónicos sensibles al voltaje son moléculas de glicoproteína que se extienden a través de la bicapa lipídica, lo que permite que los iones atraviesen el axolema en determinadas condiciones), la corriente de sodio de acción rápida y la corriente de potasio de rectificación interna. Aunque tuvo éxito en la predicción del momento y las características cualitativas del potencial de acción, no logró predecir una serie de características importantes como la adaptación y la derivación . Los científicos ahora creen que existe una amplia variedad de corrientes sensibles al voltaje, y las implicaciones de las diferentes dinámicas, modulaciones y sensibilidad de estas corrientes es un tema importante de la neurociencia computacional. [21]
Las funciones computacionales de las dendritas complejas también están siendo objeto de una intensa investigación. Existe una gran cantidad de literatura sobre cómo interactúan las diferentes corrientes con las propiedades geométricas de las neuronas. [22]
Existen numerosos paquetes de software, como GENESIS y NEURON , que permiten modelar de forma rápida y sistemática neuronas realistas mediante silico . Blue Brain , un proyecto fundado por Henry Markram de la Escuela Politécnica Federal de Lausana , tiene como objetivo construir una simulación biofísicamente detallada de una columna cortical en la supercomputadora Blue Gene .
El modelado de la riqueza de las propiedades biofísicas a escala de una sola neurona puede proporcionar mecanismos que sirvan como bloques de construcción para la dinámica de redes. [23] Sin embargo, las descripciones detalladas de las neuronas son computacionalmente costosas y este costo computacional puede limitar la búsqueda de investigaciones realistas de redes, donde se necesita simular muchas neuronas. Como resultado, los investigadores que estudian circuitos neuronales grandes generalmente representan cada neurona y sinapsis con un modelo artificialmente simple, ignorando gran parte del detalle biológico. Por lo tanto, existe un impulso para producir modelos neuronales simplificados que puedan mantener una fidelidad biológica significativa con una sobrecarga computacional baja. Se han desarrollado algoritmos para producir modelos neuronales sustitutos simplificados, fieles y de ejecución más rápida a partir de modelos neuronales detallados y computacionalmente costosos. [24]
Las células gliales participan de manera significativa en la regulación de la actividad neuronal tanto a nivel celular como de red. El modelado de esta interacción permite esclarecer el ciclo del potasio , [25] [26] tan importante para mantener la homeostasis y prevenir las convulsiones epilépticas. El modelado revela el papel de las protuberancias gliales que pueden penetrar en algunos casos la hendidura sináptica para interferir en la transmisión sináptica y así controlar la comunicación sináptica. [27]
La neurociencia computacional pretende abordar una amplia gama de cuestiones, entre ellas: ¿Cómo se forman los axones y las dendritas durante el desarrollo? ¿Cómo saben los axones a dónde apuntar y cómo alcanzar esos objetivos? ¿Cómo migran las neuronas a la posición adecuada en los sistemas central y periférico? ¿Cómo se forman las sinapsis? Sabemos por la biología molecular que distintas partes del sistema nervioso liberan señales químicas distintas, desde factores de crecimiento hasta hormonas que modulan e influyen en el crecimiento y el desarrollo de conexiones funcionales entre neuronas.
Las investigaciones teóricas sobre la formación y el patrón de la conexión sináptica y la morfología aún están en sus inicios. Una hipótesis que ha ganado cierta atención recientemente es la hipótesis del cableado mínimo , que postula que la formación de axones y dendritas minimiza de manera efectiva la asignación de recursos mientras mantiene el almacenamiento máximo de información. [28]
Los primeros modelos sobre el procesamiento sensorial entendidos dentro de un marco teórico se atribuyen a Horace Barlow . De manera algo similar a la hipótesis del cableado mínimo descrita en la sección anterior, Barlow entendió que el procesamiento de los primeros sistemas sensoriales era una forma de codificación eficiente , donde las neuronas codificaban información que minimizaba el número de picos. Desde entonces, el trabajo experimental y computacional ha apoyado esta hipótesis de una forma u otra. En el ejemplo del procesamiento visual, la codificación eficiente se manifiesta en las formas de codificación espacial eficiente, codificación de color, codificación temporal/de movimiento, codificación estéreo y combinaciones de ellas. [29]
Más adelante en la vía visual, incluso la información visual codificada de manera eficiente es demasiada para la capacidad del cuello de botella de información, el cuello de botella de la atención visual. [30] Se ha desarrollado una teoría posterior, la Hipótesis de Saliencia V1 (V1SH) , sobre la selección atencional exógena de una fracción de la entrada visual para su posterior procesamiento, guiada por un mapa de saliencia de abajo hacia arriba en la corteza visual primaria. [31]
La investigación actual sobre el procesamiento sensorial se divide entre un modelo biofísico de diferentes subsistemas y un modelo más teórico de la percepción. Los modelos actuales de percepción han sugerido que el cerebro realiza alguna forma de inferencia bayesiana e integración de diferentes informaciones sensoriales para generar nuestra percepción del mundo físico. [32] [33]
Se han desarrollado muchos modelos sobre la forma en que el cerebro controla el movimiento. Entre ellos se incluyen modelos de procesamiento en el cerebro, como el papel del cerebelo en la corrección de errores, el aprendizaje de habilidades en la corteza motora y los ganglios basales, o el control del reflejo vestíbulo-ocular. También se incluyen muchos modelos normativos, como los de tipo bayesiano o de control óptimo, que se basan en la idea de que el cerebro resuelve sus problemas de manera eficiente.
Los primeros modelos de memoria se basaban principalmente en los postulados del aprendizaje hebbiano . Se han desarrollado modelos biológicamente relevantes, como la red de Hopfield, para abordar las propiedades del estilo asociativo (también conocido como "direccionable por contenido") de memoria que se da en los sistemas biológicos. Estos intentos se centran principalmente en la formación de la memoria a medio y largo plazo , que se localiza en el hipocampo .
Uno de los principales problemas de la memoria neurofisiológica es cómo se mantiene y cambia a través de múltiples escalas de tiempo. Las sinapsis inestables son fáciles de entrenar, pero también propensas a la interrupción estocástica. Las sinapsis estables olvidan con menos facilidad, pero también son más difíciles de consolidar. Es probable que las herramientas computacionales contribuyan en gran medida a nuestra comprensión de cómo funcionan las sinapsis y cómo cambian en relación con el estímulo externo en las próximas décadas.
Las neuronas biológicas están conectadas entre sí de una manera compleja y recurrente. Estas conexiones son, a diferencia de la mayoría de las redes neuronales artificiales , dispersas y, por lo general, específicas. No se sabe cómo se transmite la información a través de estas redes escasamente conectadas, aunque se conocen con cierto detalle áreas específicas del cerebro, como la corteza visual . [34] También se desconoce cuáles son las funciones computacionales de estos patrones de conectividad específicos, si es que existen.
Las interacciones de las neuronas en una red pequeña pueden reducirse a menudo a modelos simples como el modelo de Ising . La mecánica estadística de estos sistemas simples está bien caracterizada teóricamente. Algunas evidencias recientes sugieren que la dinámica de redes neuronales arbitrarias puede reducirse a interacciones por pares. [35] Sin embargo, no se sabe si esta dinámica descriptiva imparte alguna función computacional importante. Con la aparición de la microscopía de dos fotones y la obtención de imágenes de calcio , ahora tenemos métodos experimentales poderosos con los que probar las nuevas teorías sobre las redes neuronales.
En algunos casos, las interacciones complejas entre neuronas inhibidoras y excitadoras se pueden simplificar utilizando la teoría del campo medio , que da lugar al modelo poblacional de redes neuronales. [36] Si bien muchos neuroteóricos prefieren estos modelos con una complejidad reducida, otros sostienen que descubrir relaciones estructurales y funcionales depende de incluir la mayor cantidad posible de estructura neuronal y de red. Los modelos de este tipo se construyen típicamente en grandes plataformas de simulación como GENESIS o NEURON. Ha habido algunos intentos de proporcionar métodos unificados que conecten e integren estos niveles de complejidad. [37]
La atención visual puede describirse como un conjunto de mecanismos que limitan cierto procesamiento a un subconjunto de estímulos entrantes. [38] Los mecanismos de atención dan forma a lo que vemos y a aquello sobre lo que podemos actuar. Permiten la selección simultánea de cierta información (preferiblemente, relevante) y la inhibición de otra información. Para tener una especificación más concreta del mecanismo subyacente a la atención visual y la vinculación de características, se han propuesto varios modelos computacionales que apuntan a explicar los hallazgos psicofísicos. En general, todos los modelos postulan la existencia de un mapa de prominencia o prioridad para registrar las áreas potencialmente interesantes de la entrada retiniana, y un mecanismo de compuerta para reducir la cantidad de información visual entrante, de modo que los recursos computacionales limitados del cerebro puedan manejarla. [39] Un ejemplo de teoría que se está probando ampliamente desde el punto de vista conductual y fisiológico es la Hipótesis de Prominencia V1 , que establece que se crea un mapa de prominencia de abajo hacia arriba en la corteza visual primaria para guiar la atención de manera exógena. [31] La neurociencia computacional proporciona un marco matemático para estudiar los mecanismos implicados en la función cerebral y permite la simulación y predicción completa de síndromes neuropsicológicos.
El modelado computacional de las funciones cognitivas superiores ha comenzado hace poco [ ¿cuándo? ] . Los datos experimentales provienen principalmente de registros de unidades individuales en primates . El lóbulo frontal y el lóbulo parietal funcionan como integradores de información de múltiples modalidades sensoriales. Existen algunas ideas tentativas sobre cómo circuitos funcionales simples mutuamente inhibidores en estas áreas pueden llevar a cabo cálculos biológicamente relevantes. [40]
El cerebro parece tener una capacidad de discriminación y adaptación particularmente buena en determinados contextos. Por ejemplo, los seres humanos parecen tener una enorme capacidad para memorizar y reconocer rostros . Uno de los objetivos clave de la neurociencia computacional es analizar cómo los sistemas biológicos llevan a cabo estos cálculos complejos de manera eficiente y, potencialmente, replicar estos procesos en la construcción de máquinas inteligentes.
Los principios organizativos a gran escala del cerebro han sido esclarecidos por muchos campos, entre ellos la biología, la psicología y la práctica clínica. La neurociencia integradora intenta consolidar estas observaciones mediante modelos descriptivos unificados y bases de datos de mediciones y registros de conducta. Estas son las bases para algunos modelos cuantitativos de la actividad cerebral a gran escala. [41]
La Comprensión Representacional Computacional de la Mente ( CRUM ) es otro intento de modelar la cognición humana a través de procesos simulados como sistemas adquiridos basados en reglas en la toma de decisiones y la manipulación de representaciones visuales en la toma de decisiones.
Uno de los objetivos últimos de la psicología y la neurociencia es poder explicar la experiencia cotidiana de la vida consciente. Francis Crick , Giulio Tononi y Christof Koch intentaron formular marcos coherentes para el trabajo futuro en correlatos neuronales de la conciencia (NCC), aunque gran parte del trabajo en este campo sigue siendo especulativo. [42]
La neurociencia clínica computacional es un campo que reúne a expertos en neurociencia, neurología , psiquiatría , ciencias de la decisión y modelado computacional para definir e investigar cuantitativamente problemas en enfermedades neurológicas y psiquiátricas , y para formar científicos y médicos que deseen aplicar estos modelos al diagnóstico y tratamiento. [43] [44]
La neurociencia computacional predictiva es un campo reciente que combina el procesamiento de señales, la neurociencia, los datos clínicos y el aprendizaje automático para predecir el cerebro durante el coma [45] o la anestesia. [46] Por ejemplo, es posible anticipar estados cerebrales profundos utilizando la señal EEG. Estos estados se pueden utilizar para anticipar la concentración hipnótica que se administrará al paciente.
La psiquiatría computacional es un nuevo campo emergente que reúne a expertos en aprendizaje automático , neurociencia , neurología , psiquiatría y psicología para proporcionar una comprensión de los trastornos psiquiátricos. [47] [48] [49]
Un ordenador/chip neuromórfico es cualquier dispositivo que utiliza neuronas artificiales físicas (fabricadas a partir de silicio) para realizar cálculos (véase: computación neuromórfica , red neuronal física ). Una de las ventajas de utilizar un ordenador modelo físico como este es que absorbe la carga computacional del procesador (en el sentido de que los elementos estructurales y algunos de los funcionales no tienen que programarse ya que están en el hardware). En los últimos tiempos, [50] la tecnología neuromórfica se ha utilizado para construir superordenadores que se utilizan en colaboraciones internacionales en neurociencia. Algunos ejemplos incluyen el superordenador SpiNNaker del Proyecto Cerebro Humano y el ordenador BrainScaleS. [51]
{{cite journal}}
: CS1 maint: DOI inactive as of September 2024 (link)