Hola a todos, después de un paréntesis un poco más largo de lo que me hubiera gustado motivado por las fiestas navideñas, vuelvo con una serie de artículos alrededor del primer enfoque de la inteligencia artificial.

Vimos en un artículo anterior que una de las maneras de concebir la inteligencia artificial es como la construcción de máquinas que tratan de

Realizar actividades asociadas con pensar de manera humana, como la toma de decisiones, la solución de problemas o el aprendizaje (Bellman, 1978).

Para entender el significado de la frase anterior hemos de ser capaces de responder a dos preguntas: ¿Por qué el pensar humano es clave en nuestra búsqueda de la comprensión de la inteligencia?…. y, además, una segunda pregunta no menos relevante, ¿qué nos lleva a afirmar que este conocimiento nos permitirá construir una máquina (artificial) que sea capaz de llevar a cabo los mismos procesos que el cerebro humano?

La respuesta a la primera pregunta implica que hemos de pensar que, desde el punto de vista de la inteligencia tal y como la definimos en el artículo inicial de esta serie, el pensamiento humano es la cumbre de la evolución natural de las especies. Como vimos allí, el pensamiento humano tiene unas características únicas que no se encuentran en ningún otro ser vivo,  como por ejemplo tener una herencia cultural, manejar la representación simbólica, tener capacidad de generalización, disponer de un proceso de educación de las personas (que nos aparta de los instintos estableciendo una serie de reglas sobre lo que se puede hacer y lo que no), o el aprendizaje cooperativo y en masa a que se refiere el historiador Yuval Harari.

Así pues, para comprender la manera de pensar humana, hemos de entender a fondo cómo son los procesos de pensamiento del órgano que los hace posible: el cerebro humano. El razonamiento de esta enfoque de la IA es más o menos así: «si somos capaces de reproducir las formas de funcionamiento del cerebro humano en una máquina, en la medida que consideramos a los seres humanos inteligentes, también lo serán las máquinas que funcionen así (o de manera similar al menos)». A este enfoque se le llama, de forma más precisa, neurociencia computacional.

Sobre esta primera cuestión, existen numerosos equipos internacionales de investigadores llevando a cabo diferentes aproximaciones al cerebro humano. De entre todas la iniciativas existentes, que son muchas, voy a destacar tres por su relevancia:

  1. La iniciativa «blue  brain project«, una colaboración entre IBM y la Escuela Politécnica Federal de Lausanne, que pretende construir una simulación biofísica detallada de una columna cortical (i.e. agrupación de neuronas) en el superordenador Blue Gene  de IBM.
  2. El proyecto de ingeniería inversa (deconstrucción) del cerebro de Ray Kurzweil en Google.
  3. El chip cognitivo SyNAPSE de IBM

En este artículo me voy a centrar en esta primera iniciativa para ir desarrollando en artículos posteriores las otras dos, junto con la segunda pregunta que planteamos un poco más arriba en este artículo y que vuelvo a reproducir para fijar esta importante idea: ¿qué nos lleva a afirmar que este conocimiento nos permitirá construir una máquina (artificial) que sea capaz de llevar a cabo los mismos procesos que el cerebro humano?

Blue brain project

La iniciativa blue brain project pretende construir un cerebro digital a partir de la simulación de un cerebro completo (el neocórtex y el cerebro primitivo: el hipocampo, la amígdala y el cerebelo).

Blue Brain Project: Simulación de una columna cortical de neuronas

De estos trabajos tan detallados, que llegan hasta el nivel molecular, se ha conseguido encontrar que la mínima unidad de reconocimiento de patrones no es la neurona como se creía, sino una estructura consistente en varias docenas de neuronas (hasta totalizar unas cien), que se repiten a lo largo del neocórtex (o nuevo cerebro que es el que nos ha hecho «distintos» a la mayoría de animales) y que esta estructura es donde se realiza el aprendizaje. Se espera que este trabajo arroje luz sobre la naturaleza de la conciencia, uno de los puntos clave que pretende alcanzar la llamada Inteligencia Artificial Fuerte (Strong AI).

Por el momento, como toda disciplina científica que se basa en el uso masivo de tecnologías de la información ha avanzado a un ritmo exponencial. Así ha evolucionado el proyecto blue brain:

año Memoria necesaria (Bytes) Velocidad de procesamiento (cps) Observaciones
2.005 2,E+06 (2MB) 2,E+09 (2 GFlops) Modelo una neurona
2.008 8,E+10 (80GB) 1,E+13 (20 GFlops) Columna neocortical (1e4 neuronas)
2.011 1,E+12  (1 TB) 1,E+14 (1 PFlops) Mesocircuito neocortical (100 columnas corticales)
2.014 2,E+13 (20TB) 1,E+15 (10PFlops) Cerebro de una rata (100 mesocircuitos)
2.023 1,E+17 (100PB) 1,E+18 (1EFlops) Cerebro humano completo (1000x cerebro rata)

(Fte: elaboración propia a partir de datos del proyecto blue brain)

Como puede observarse, se espera que para 2023 sea posible realizar una simulación de un cerebro humano completo.

Es importante darse cuenta del uso de técnicas de inteligencia artificial y aprendizaje automático para conseguir este incremento exponencial en la capacidad de computación en las simulaciones. Los modelos se basan en análisis detallados de la estructura anatómica y electroquímica de las neuronas reales. Para realizar estos análisis han desarrollado un robot capaz de registrar en un cerebro vivo, los canales iónicos, neurotransmisores y enzimas, mediante un procedimiento denominado patch-clamping (para ver un explicación del procedimiento ver este video).

Técnica de patch clamping para obtener datos de un cerebro in vivo

La diferencia con el uso anterior de esta técnica, que era manual y era como una forma de arte de los pocos especialistas que hay en el mundo de esta técnica, es que aquí es un algoritmo de aprendizaje automático (machine learning) el que detecta automáticamente dónde hay neuronas con actividad y registra esta actividad eléctrica y «recolecta» su composición molecular con una alta efectividad y con una mejor precisión que la de cualquier humano, permitiendo realizar treinta años de análisis en sólo seis meses (de acuerdo con el líder de este proyecto Henry Markham).

Este es un ejemplo muy ilustrativo del efecto doblemente exponencial que tiene la Inteligencia Artificial cuando se aplica sobre un proceso que ya se ha convertido en una tecnología de la información más. De hecho, la propia existencia de esa unidad de aprendizaje de alrededor de 100 neuronas ha sido puesta de manifiesto por la propia inteligencia artificial utilizada en el proceso de recolección y análisis de los datos, antes que por los investigadores, lo cual es de por sí un hecho muy notable.

Pero la segunda parte del proyecto es todavía si cabe más interesante, para que el cerebro simulado por el blue brain project pueda «hablar y tener una inteligencia y un comportamiento parecidos a los de un ser humano» (Kurzweil dixit), debe ser capaz de aprender, ya que tendrá que llenar su neocórtex de suficiente contenido para realizar esas tareas ‘humanas’. Si alguna vez el lector ha tratado de mantener una conversación con una recién nacido, seguro que tiene claro de qué hablo, ¡hay que aprender un montón de cosas antes de que sea posible algo parecido a una conversación!.

Hay dos maneras inmediatas de  abordar este proceso de  aprendizaje con un cerebro simulado:

1- De la misma manera que se hace con los cerebros humanos ( el proceso de aprendizaje de cualquier recién nacido y el de un niño pequeño). El problema es que la capacidad computacional requerida para simular un cerebro en tiempo real[1] no espera que esté disponible hasta dentro de unos años (principios de la década de 2020) e incluso si el aprendizaje es en tiempo real puede requerir una o dos décadas para alcanzar una paridad intelectual con un adulto humano (como sucede en el proceso desde el jardín de infancia hasta la universidad). Este proceso puede verse acelerado, no obstante, por el incremento en la potencia computacional que se deriva de la «Ley» de Moore y de forma más general, aplicado a la tecnología en general, de la Ley de Rendimientos Acelerados de Kurzweil. También podría verse acelerado por desarrollos significativos en la computación cuántica.

2.- La otra manera es coger un cerebro humano adulto, que ya tiene todas esas capacidades y copiar sus patrones neuronales en el cerebro simulado. El problema de este método es que requiere de una tecnología de escaneo del cerebro no invasiva y no destructiva con una resolución espacio-temporal  y una velocidad suficientemente elevada como para realizar esta tarea rápida y completamente.  En este caso no se espera que esta tecnología  de carga del cerebro (uploading) esté disponible hasta alrededor de 2040, no por la capacidad computacional necesaria, que sería alcanzable hacia principios de los década de 2020 según Kurzweil, sino  por las necesarias tecnologías de escaneado no destructivo que están por desarrollarse. Nuevamente, como en el caso anterior, es posible que iniciativas como la de Neuralink de Elon Musk, puedan acelerar estas previsiones (hacia 2027 o 2030 depende de la velocidad a que avance la regulación y lo útil que se demuestren estos dispositivos aplicados a discapacitados).

Bueno, para no alargar excesivamente el artículo lo dejo aquí. En el próximo capítulo hablaré de la segunda iniciativa: la deconstrucción de las funciones de un cerebro humano, paso necesaria para volver a construirlo en un sustrato inorgánico (en principio, silicio).

¡Seguimos el año el año que viene desentrañando el fascinante mundo de la IA! Que tengáis una feliz entrada en 2018.

 

Notas

[1]: El informático Dharmendra Moda y su equipo de IBM han creado una simulación célula a célula de una parte del córtex visual  humano con 160.000 millones de neuronas virtuales y 9 billones de sinapsis, que es equivalente al neocórtex de un gato. Corre 100 veces más lento que el tiempo real un una supercomputadora IBM BlueGene/P con 147.456 procesadores.

Posted by santiago

Deja un comentario