¿Cuándo podremos construir un cerebro como el nuestro?

Autor: Terry Sejnowski

Cuando los físicos intentan descifrar el funcionamiento de cualquier pieza de la naturaleza, el conocimiento adquirido se puede utilizar para crear cosas increíbles –aviones que vuelan, radios que llegan a millones de oyentes. Cuando lleguemos a comprender cómo funciona el cerebro, deberíamos ser capaces de construir objetos asombrosos con capacidades cognitivas –como coches cognitivos que conducen mejor que nosotros porque se comunican con otros coches y conocen las condiciones de la carretera. En 2008, la National Academy of Engineering escogió como uno de sus grandes retos la ingeniería inversa del cerebro humano. ¿Cuándo ocurrirá esto? Algunos predicen que tendremos los primeros resultados en una década, acelerados por los rápidos avances tanto en la ciencia cerebral como en la informática. Esto puede parecer increíble, pero cada vez es más factible. Tan factible, de hecho, que la carrera para conseguirlo está dando lugar a disputas sobre los primeros en lograrlo.

Los neurocientíficos están desmontando cerebros en sus componentes, hasta la última molécula, e intentando entender cómo funcionan de abajo a arriba. Los investigadores están compitiendo para conocer los esquemas con los que funcionan los grandes cerebros, comenzando por los ratones, gatos y finalmente humanos, en un nuevo campo llamado conectomía. Nuevas técnicas están haciendo posible grabar datos desde muchas neuronas simultáneamente y estimular o silenciar de forma selectiva neuronas específicas. Se nota en el aire una gran emoción y un sentimiento de que estemos comenzando a comprender cómo funciona el cerebro a un nivel muy detallado. Los que realizan modelos del cerebro sólo han podido modelar pequeñas redes con unos pocos miles de neuronas hasta el momento, pero esto mejora rápidamente.

Cerebro humano

Cerebro humano. Wikipedia

Mientras tanto, los ordenadores digitales incrementan de forma exponencial su poder de procesamiento, el almacenamiento de memoria y el ancho de banda de las comunicaciones. Hasta hace poco, esto se conseguía acelerando la velocidad del reloj, que pasó de kHz a GHz en pocos años. Pero los relojes de los ordenadores ya no avanzan tan rápido, los avances en la potencia de computación vienen dados por incrementos en el número de procesadores y la capacidad para distribuir el problema a través de ellos. Los superordenadores más rápidos tienen cientos de miles de procesadores y las GPUs (Graphic Process Units) dan a ordenadores personales la misma capacidad de computación que los supercomputadores tenían hace 10 años. Si la Ley de Moore de crecimiento exponencial en el poder de computación se cumple, en algún punto los ordenadores deberían ser suficientemente potentes, y nuestro conocimiento del cerebro suficientemente completo, como para construir dispositivos basados en los principios de computación neuronal. Como los cerebros, estos dispositivos se basarán en probabilidades más que en lógica determinística y razonarán de forma inductiva más que deductiva.

La disputa conocida por todos como “catfight” (juego de palabras entre “pelea por el gato” y “pelea de chicas”), se originó cuando el pasado noviembre, el investigador de IBM Dharmendra Modha anunció en una conferencia de supercomputación que su equipo había escrito un programa que simulaba un cerebro gatuno. La noticia cogió a muchos por sorpresa, dado que se había saltado el cerebro del ratón y ganado a otros grupos en este hito. Por este trabajo, Modha ganó el prestigioso ACM Gordon Bell, que se concede para reconocer sobresalientes méritos en la investigación de aplicaciones computacionales.

Ratón

Los científicos se saltaron el cerebro del ratón y pasaron directamente al del gato. Wikipedia.

Sin embargo, su reivindicación fue puesta en duda por Henry Makram, un neurocientífico del Ecole Polytechnique Fédérale de Lausanne y el líder del proyecto Blue Brain, quien había anunciado en 2009 que “no es imposible construir un cerebro humano y lo podemos hacer en 10 años”. En una carta abierta a la Oficina del Jefe Técnico de IBM, Bernard Meyerson, Makram acusó a Modha de “gran decepción” y llamó a su artículo “bulo” y “estafa”. Esto se convirtió en un tema caliente en la blogosfera y sigue siendo interesante para los que vivimos en la intersección del cerebro y la informática.

El quiz de esta disputa es: ¿Qué significa modelar el cerebro de un gato? Ambos grupos están simulando un gran número de modelos neuronales y conexiones entre ellos. Ambos modelos funcionan de forma mucho, mucho más lenta que el tiempo real. Las neuronas del modelo de Modha sólo tienen un soma –el cuerpo celular que contiene las células del núcleo– y picos simples. En contraste, el modelo de Markram ha hecho una reconstrucción detallado de las neuronas, con sistemas complejos de conexiones entre ramas llamadas dendritas e incluso una gran cantidad de mecanismos de comunicación e interconexión como canales de iones. La sinapsis y las conexiones entre las neuronas del modelo de Modha están simplificadas si las comparamos con las detalladas sinapsis biofísicas del modelo de Markram. Estos dos modelos están en los extremos de simplicidad y complejidad.

Esta controversia pone en perspectiva la tensión existente entre los partidarios de utilizar modelos simplificados de neuronas, para conseguir simulaciones más rápidas, y los partidarios de incluir detalles biológicos para poder entenderlos. Mirando a la misma neurona, los físicos y los ingenieros tienden a ver la simplicidad donde los biólogos tienden a ver la complejidad. El problema con los modelos simplificados es que el número de detalles es casi infinito y una gran parte de ellos son desconocidos. ¿Cuánta función cerebral se pierde al utilizar neuronas y circuitos simplificados? Esta es una de las cuestiones que podríamos responder si pudiésemos comparar directamente ambos modelos.

Neurona

Neurona. Wikipedia.

Desgraciadamente, las simulaciones a gran escala para ambos grupos se parecen a los ritmos de sueño o epilepsia mucho más que al comportamiento de un gato, ya que ni tiene entradas por sensores ni salidas motoras. También se pierden estructuras subcórticas esenciales -como el cerebelo que organiza los movimientos, la amígdala que crea estados emocionales y la columna vertebral que mueve la muscultaura. A pesar de todo, con el modelo de Modha estamos aprendiendo cómo programar arquitecturas paralelas de gran escala para realizar simulaciones que lleguen al gran número de neuronas y sinapsis del cerebro real. Con el modelo de Markram estamos aprendiendo cómo integrar muchos niveles de detalle en estos modelos. En su artículo, Modha predice que el superordenador más grande será capaz de simular los elementos básicos del cerebro humano en tiempo real en 2019, así que aparentemente él y Markran están de acuerdo en la fecha; sin embargo, estas simulaciones se parecerán como mucho a las de un bebé. El cerebro humano es mucho más que la suma de sus partes.

Por supuesto, podría no ser necesario o deseable construir el cerebro de un gato o de un humano, ya que tenemos gatos y humanos completamente funcionales. Esta tecnología, sin embargo, podría habilitar otras aplicaciones. En 2005, Simon Haykin, director del Laboratorio de Sistemas Cognitivos de la Universidad McMaster, escribió un interesante artículo llamado “Cognitive radio: Brain-empowered wireless communications” que sentó la base para una nueva generación de redes sin cables que utilizan principios computacionales del cerebro para modelar de forma predictiva la utilización del espectro electromagnético y utilizar de forma más eficiente el ancho de banda. Esto no es una tontería. Planes para utilizar versiones iniciales de estos sistemas de comunicación interligentes en la próxima subasta federal del espectro electromagnético se han discutido en una reunión del Council of Advisors on Science and Technology con el President Obama.

Pronto se encontrarán otras utilidades, como la “red eléctrica cognitiva” y otros dispositivos como el coche cognitivo. Los sensores y motores de estos sistemas cognitivos serán la infraestructura del mundo. Los sensores envíaran información –sobre el uso de la electricidad, condiciones del asfalto, lluvia, enfermedades– y la utilizarán para optimizar sus objetivos, como reducir la utilización de la potencia y el tiempo de viaje regulando el flujo de recursos. Partes de estos sistemas ya están tomando posiciones pero aún no hay un sistema nervioso central que integre este torrente de información y lleve a cabo las acciones adecuadas. Algún día, según parece pronto, las habrá. Y gradualmente, según vayan imitando nuestro cerebro, el mundo alrededor nuestro se convertirá en mejor y más eficiente. Según evoluciona esta infraestructura cognitiva, quizá algún día llegue al punto en que rivalice en sofisticación con nuestro cerebro. La inteligencia heredará la tierra.

Este artículo ha sido traducido de Scientific American y publicado bajo licencia CC by-sa

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: