¿Tendremos alguna vez una comprensión del cerebro humano donde, si conocemos las condiciones iniciales exactas, podemos modelar con precisión todo el comportamiento?

En última instancia, esto depende de lo que entendemos por “comprensión”.

Si la comprensión simplemente significa la capacidad de simular y predecir la dinámica de un sistema, entonces la pregunta se responde a sí misma en virtud de preguntar acerca de una tautología. Cuando podamos modelar con precisión todo el comportamiento … ¡podremos modelar con precisión todo el comportamiento! 🙂

Así que la pregunta solo se vuelve no trivial si asumimos que la comprensión significa algo más que esto.

Considere la diferencia entre el sistema solar geocéntrico ptolemaico y el modelo heliocéntrico copernicano. Inicialmente, el sistema ptolemaico era igual de bueno para modelar / predecir las posiciones de la luna y los planetas. Entonces, ¿qué mejoró cuando ocurrió la revolución copernicana? Comprensión. Ciertos parámetros libres ad hoc en el modelo de Ptolemaic se restringieron con la ayuda del modelo heliocéntrico. Y la simplicidad conceptual del modelo heliocéntrico ayudó a los físicos a descubrir nuevos patrones en el movimiento planetario, como las leyes de Kepler.

Ahora consideremos un ejemplo más reciente: redes neuronales artificiales. Estos métodos, de los cuales el Aprendizaje Profundo es el ejemplo más famoso, se han convertido en lo último en aprendizaje automático. Pero cada pocas semanas alguien escribe un artículo de opinión sobre cómo entendemos estos modelos de manera bastante deficiente [math] ^ 1 [/ math]. Claramente, el concepto de comprensión significa mucho más que un modelado preciso: en un sistema computacional artificial, tenemos acceso completo a cada parámetro único y una constante determinación de la dinámica del sistema. Además, el sistema es determinista por diseño, por lo que no tenemos que preocuparnos por la indeterminación cuántica.

Si un sistema determinista que nosotros mismos diseñamos aún tiene propiedades que no entendemos, entonces deberíamos preguntarnos si los sistemas que no diseñamos (como los cerebros) se volverán transparentes incluso si tenemos simulaciones computacionales precisas.

Nadie lo sabe con certeza, pero parece que nuestra falta de comprensión de las redes neuronales artificiales se deriva de nuestro control flojo en la relación entre las redes y sus entradas . Los datos que introducimos en un algoritmo de aprendizaje automático rara vez están bajo nuestro control. Suponemos que las muestras de datos que utilizamos para entrenar nuestros algoritmos son representativos de una población mayor, pero nunca podemos estar seguros. El estudio de la relación entre las muestras y las poblaciones en realidad nos obliga a enfrentar preguntas filosóficas profundas sin respuestas sobre probabilidad y estadísticas [matemáticas] ^ 2 [/ matemáticas].

También hay problemas prácticos para explorar el espacio de datos posibles . Incluso para un conjunto de datos moderadamente complejo, explorar todas las posibilidades es extraordinariamente difícil. A menudo nos enfrentamos a una explosión combinatoria: en muchos problemas, la cantidad de posibilidades puede exceder la cantidad de átomos en el universo observable, ¡o la cantidad de segundos transcurridos desde el Big Bang! Ningún método computacional de fuerza bruta puede funcionar en tales situaciones. (La teoría de la complejidad computacional cubre temas de este tipo.)

Todo esto es relevante para futuros modelos hipotéticos del cerebro, porque no podemos modelar las entradas al cerebro de manera suficientemente exhaustiva como para anticipar todas las posibles condiciones iniciales . En cualquier caso, el término “condiciones iniciales” es engañoso: el cerebro está recibiendo constantemente entradas del mundo, por lo que no es un sistema aislado. Para exagerar la situación solo un poco: un modelo del cerebro perfectamente preciso requiere un modelo del universo perfectamente preciso .

En la práctica, todo esto puede ser una especulación sin sentido de todos modos. No existe tal cosa como “el” cerebro humano. No hay dos cerebros iguales. Y el cerebro de una persona está cambiando constantemente: varias formas de plasticidad sináptica y no sináptica están funcionando.

Y en el futuro previsible, será imposible recopilar una exploración cerebral precisa a la resolución de las sinapsis, incluso para un cerebro humano estático y muerto . Considere los intentos actuales de escanear el cerebro de un ratón utilizando microscopía electrónica automatizada. La cantidad de datos generados a partir de un milímetro cúbico de tejido cerebral es astronómica:

“Se necesita aproximadamente un petabyte de memoria de computadora para almacenar las imágenes necesarias para formar una imagen de un cubo de un milímetro de cerebro de ratón, dicen los científicos. En comparación, Facebook necesita alrededor de un petabyte de espacio de almacenamiento de datos para almacenar 40 mil millones fotos. “- The New York Times: en busca de un mapa mental, Slice by Slice [Un petabyte es igual a un millón de gigabytes.]

Si escaneamos un solo cerebro humano en esta resolución, tendríamos más datos que toda la capacidad de almacenamiento del mundo . Y escanear un solo cerebro probablemente no sea suficiente para una verdadera comprensión, es solo una instantánea temporal de uno de varios miles de millones de cerebros. Y la reconstrucción 3D requerida para hacer que el escaneo sea realmente útil está aún más allá de las capacidades de nuestros algoritmos de reconocimiento de objetos más avanzados [math] ^ 3 [/ math].

Además, ¿ quién sabe si la resolución de la microscopía electrónica es suficiente para comprender todos los fenómenos neuronales relevantes? Los microscopios electrónicos pueden obtener imágenes de vesículas sinápticas individuales, pero no pueden distinguir moléculas de neutrotransmisores o receptores. ¿Quizás los eventos moleculares de bajo nivel determinan la dinámica precisa de los fenómenos neuronales y psicológicos de nivel superior? Dado lo que sabemos sobre la teoría del caos, esto es completamente posible. Muchos tipos de sistemas complejos son extremadamente sensibles a pequeños cambios en los parámetros y condiciones iniciales, cambios que son potencialmente demasiado pequeños para ser medidos con precisión.

En algún momento también nos veremos obligados a enfrentar la indeterminación cuántica. Las biomoléculas operan en la escala donde la rareza cuántica puede manifestarse , por lo que todas nuestras suposiciones convenientes sobre el determinismo clásico saldrán por la ventana con cierto nivel de detalle.

De hecho, creo que el camino hacia la comprensión no conduce a través de la interminable jungla de simulación hiper-precisa. Como el estadístico George Box dijo una vez, todos los modelos están equivocados, pero algunos son útiles. La física newtoniana fue y es útil aunque no es tan precisa como la física relativista.

El objetivo de la neurociencia no es aterrizar repentinamente en una simulación precisa del cerebro, sino reconstruir gradualmente una concepción de lo que está sucediendo que nos ayuda a comprender [math] ^ 4 [/ math]. Esta búsqueda progresiva y nunca tan completa de comprensión puede no lograr una predicción perfecta en cualquier momento en el futuro previsible, pero puede ofrecer inspiración para futuras investigaciones, ideas sobre cómo tratar trastornos neurológicos y psiquiátricos, y conocimiento sobre la condición humana.


Notas

[math] ^ 1 [/ math] Algunos ejemplos de los artículos de tipo “mire cuán desconcertante es el aprendizaje automático”:

  • Hay un gran problema con la IA: incluso sus creadores no pueden explicar cómo funciona
  • No entendemos cómo la IA toma la mayoría de las decisiones, por lo que ahora los algoritmos se explican por sí mismos.
  • Nuestras máquinas ahora tienen conocimiento que nunca entenderemos

[math] ^ 2 [/ math] He escrito un par de ensayos sobre probabilidad y aleatoriedad:

La aleatoriedad: ¿el fantasma en la máquina?

Las variedades de la experiencia probabilística

[math] ^ 3 [/ math] Para obtener más información sobre los desafíos de la exploración cerebral automatizada a nivel del microscopio electrónico, vea lo siguiente:

La respuesta de Yohan John a ¿Cómo encajan los datos grandes en la investigación de la neurociencia y la interfaz cerebro-computadora?

[math] ^ 4 [/ math] El significado de “comprensión” todavía se discute ampliamente en la ciencia y la filosofía. Parece posible tener entendimiento sin predicción. La teoría de la evolución por selección natural típicamente no hace predicciones precisas, pero claramente cuenta como comprensión e informa a casi todos los temas de la biología. Además, la predicción cuantitativa, incluso cuando ocurre, puede no contar como comprensión. Dentro de la física, por ejemplo, hay mucho debate sobre el valor de las explicaciones reduccionistas en lugar de las explicaciones basadas en la emergencia. Si, por ejemplo, el movimiento de onda se produce en dos sistemas físicamente distintos, entonces una explicación puramente reduccionista, en términos de átomos particulares, etc., no explica necesariamente por qué un comportamiento cualitativamente similar ocurre en medios físicos radicalmente diferentes. Los modelos estrechamente reduccionistas siempre sufrirán este problema: no serán muy útiles para generalizar y para discernir las características comunes de los sistemas no relacionados. Para aquellos interesados ​​en la filosofía de la física, echa un vistazo a estos libros:

El diablo en los detalles: Razonamiento asintótico en explicación, reducción y emergencia

Un universo diferente

Esta respuesta también puede ser de interés:

La respuesta de Yohan John a la complejidad: ¿Se pueden describir matemáticamente los fenómenos emergentes?

El matemático Laplace hizo una pregunta similar sobre el mundo físico. Fueron sus nociones deterministas sobre la predicción de resultados a partir de condiciones iniciales que darían lugar a la hipotética demonio de Laplace, similar a la contraparte de Boltzmann en la termodinámica estadística, en la cual un ser miniaturizado podría mantener el orden y evitar el inevitable aumento de la entropía.

En un momento dado, no era irrazonable imaginar algún pequeño detector mecánico, en lugar de un ser sobrenatural, que realmente podría desempeñar este papel. Por lo tanto, estos fueron experimentos de pensamiento sobre lo que podría haber sido, en principio, el caso. Ahora sabemos que la naturaleza es un juego probabilístico a pesar de nuestros mejores esfuerzos para intervenir.

El problema fue tratado más tarde en biología por Stephen Jay Gould cuando propuso el famoso experimento mental sobre “rebobinar la cinta” de la evolución. Nos preguntamos, ¿obtendríamos los mismos resultados o somos nosotros, y el mundo que vemos a nuestro alrededor, subproductos de contingencias, eventos aleatorios? Concluyó (basándose en su evaluación del registro fósil) que, al igual que con los demonios de Laplace y Boltzmann, la aleatoriedad se consolidará y las diferencias observadas de lo predicho. Los seres humanos son, por lo tanto, contingencias notables, vinculados como nosotros, a un ataque de asteroides al azar.

Por motivos similares, no podremos modelar con precisión el comportamiento humano a partir de estados cerebrales, incluso si permitimos hipótesis que permitan un conocimiento absoluto de las conexiones cerebrales y las condiciones químicas. La aleatoriedad se apoderará, las predicciones inevitablemente perderán la marca. Sin embargo, esto no significa que el comportamiento sea impredecible. Simplemente estoy diciendo que hay una incertidumbre persistente en la medición. La física de los últimos 50 años ha consistido en aceptar la necesidad del azar en la ciencia. La neurociencia no es un valor atípico.

No. Esta visión determinista ha demostrado ser falsa en los sistemas autoorganizados. Ahora el cerebro es el sistema más autoorganizado. Un nivel de organización crea una recursión, una retroacción del conjunto sobre sus constituyentes, que no está determinada por las propiedades de los constituyentes. La causalidad no es solo ascendente. Un fragmento de intención aparece en todos los niveles mucho antes de la etapa consciente. La amplia gama de posibilidades que experimentamos en la conciencia proviene del apilamiento de un gran número de estas acciones retroactivas. Una pila que llamamos «libre albedrío». No tan libre como eso por supuesto. Pero sin embargo, tiene una relativa independencia con respecto a los datos ascendentes. Entonces, incluso con un modelo ideal del cerebro no es posible proyectar un comportamiento a partir de los datos iniciales. Siempre sabrá con plena conciencia que debe decir “sí”, y optar por decir “no”. Porque una mariposa se dio la vuelta mientras estabas pensando. O que ayer un evento te irritó, sin relación alguna con el tema de hoy. O por haber disparado una moneda.

Los oráculos nunca existirán. Pero ya tenemos excelentes meteorólogos del «yo».