En artículos anteriores examinamos dos maneras de simular el cerebro humano desde el punto de vista del algoritmo que trata de emularlo (el software). En este artículo vamos a explorar, por qué puede ser interesante simular el cerebro humano también a través del hardware y cómo podría hacerse esto.

La arquitectura de ordenadores actual consume muchísima energía

Como examinaremos más a fondo en el siguiente artículo, dedicado a contestar a la segunda pregunta que inició la serie sobre los caminos hacia la IA de este enfoque de «pensar como un ser humano», los ordenadores actuales se basan en una arquitectura conocida como de Von Neumann, en honor a uno de los padres de la computación. Lo que nos interesa saber aquí de esta arquitectura es que utiliza un reloj que marca la velocidad de procesamiento y en la formación de largas secuencias de instrucciones que se procesan una detrás de otra.

El problema es que debido a las leyes de la termodinámica, toda operación  irreversible  en un bit de información, supone una disipación de energía muy pequeña, pero que cuando se realiza mil millones de veces por segundo o más, libera en conjunto un gran energía. Como quiera que los circuitos integrados tienen unas dimensiones muy pequeñas y albergan millones de elementos susceptibles de realizar operaciones irreversibles (como por ejemplo una puerta lógica XOR o disyunción exclusiva), las densidades de energía por unidades de superficie o de volumen, son muy elevadas, como puede apreciarse en la figura (aunque es un poco antigua sigue siendo correcta, pero no he podido encontrar ninguna fuente más actualizada).

Como puede verse con esta  arquitectura secuencial de Von Neumann se están alcanzando unas densidades energéticas en las obleas de silicio (1KW/cm2) que son poco menos que «pequeños soles» (10KW/cm2 el Sol).

Una simulación a «escala humana» con 100 billones de sinapsis (con un modelo relativamente simple de neuronas y sinapsis) realizada por IBM, requirió 96 Blue Gene/Q racks del Laboratorio de Supercomputación Sequoia Lawrence Livermore y aun así, corrió  1.500 veces más lento que el tiempo real. Una hipotética simulación en tiempo real hubiera necesitado  12GW (12.000 millones de Vatios), mientras que el cerebro humano apenas consume 20W.

Densidad energética CPU frente a frecuencia de reloj (Fte:IBM SyNAPSE project)

El propio padre de la arquitectura de los ordenadores modernos, Von Neumann en un libro  no finalizado, The Computer and the Brain (El ordenador y el cerebro), publicado un año después de su muerte en 1957, se maravilló del tamaño, eficiencia y poder de los cerebros comparados con los ordenadores (que, irónicamente, él ayudó a concebir).

Es decir, como puede apreciarse en esta figura de arriba, la evolución de las arquitecturas de computación que llevamos hasta la fecha nos está llevando en dirección contraria de lo que son las características  del cerebro humano desde el punto de vista del procesamiento de la información y la densidad energética. Y si el cerebro humano es nuestra referencia para la inteligencia artificial, es evidente que nos estamos alejando de ella y que necesitamos disponer de un hardware que al menos se aproxime a la eficiencia con la que lo hace el cerebro.

Con esto hemos respondido al por qué  es interesante simular el cerebro humano también a través del hardware y no sólo vía software, ahora vamos a intentar responder a cómo podría hacerse esto.

El chip cognitivo SyNAPSE de DARPA e IBM

Esta iniciativa de IBM, surgió realmente por contrato con la DARPA (la Agencia de Proyectos de Investigación Avanzados de Defensa de los EEUU) responsable del desarrollo de nuevas tecnologías para uso militar (de la que salió, por ejemplo, ARPANET la red precursora de  la Internet).

SyNAPSE proviene de (Systems of Neuromorphic Adaptive Plastic Scalable Electronics) que comenzó  en 2008. Su objetivo último es construir un sistema electrónico por microprocesador equiparable al de un cerebro de un mamífero en funciones, tamaño y consumo de energía. Debería recrear 10.000 millones de neuronas, 100 billones de sinapsis, consumir  1 KW y ocupar menos de 2L de espacio.

El informático teórico Carver Mead demostró a finales de los años 1980, que se pueden emular directamente los métodos analógicos del cerebro en una oblea de silicio, lo que él denominó chip neuromórfico y que estos chips tienen eficiencias miles de veces mejores que la emulación digital de los procesos analógicos del cerebro.

Esta arquitectura neuromórfica  (ver figura) contiene 766 neuronas artificiales por impulsos dispuestas en capas de manera similar a la jerarquía que se encuentra en el cerebro humano. Es capaz de un reconocimiento visual de objetos robusto, detección del movimiento, atención hacia objetos importantes y salidas de control motor. Esto ya ha sido probado en simulaciones de red en una computadora normal.

Con este encargo del DARPA, las reflexiones anteriores sobre la densidad energética en relación con las del cerebro y con el conocimiento del trabajo de Mead, Dharmendra Modha del Grupo de Computación Cognitiva de IBM y su equipo, se preguntaron: ¿Por qué hay esta disparidad con el cerebro humano?

Existen dos factores: la tecnología y la arquitectura. Sobre el primero, baste decir que hoy en día la tecnología de los circuitos integrados se basa en el silicio, mientras que el cerebro, usa wetware orgánico, así que hasta que la nanotecnología no encuentre materiales con las propiedades adecuadas, nos tenemos que centrar en el segundo factor, la arquitectura de computación. Así que se enfocaron en este factor, específicamente en la minimización de la potencia, área y retardo de las señales, que pudiera ser implementado con la mejor tecnología basado en el silicio disponible.

Tal y como describimos en el artículo anterior, con la iniciativa de Kurzweil y Google, se había hipotetizado que el córtex cerebral está comprendido de unas estructuras corticales (de alrededor de unas 100 neuronas) que se repiten, sienda esta la unidad mínima de reconocimiento de patrones (Kurzweil dixit), no la neurona. Con esta idea en mente la gente de IBM creó TrueNorth, el chip más grande fabricado por ellos hasta la fecha, con 5.400 millones de transistores, que simulan una complejas redes neuronales recurrentes. Consume menos 100mW y tiene una densidad energética de 20mW/cm2. Es decir,  es 10.000 veces más eficiente energéticamente realizando la misma tarea, que un ordenador siguiendo la arquitectura de Von Neumann.

Los números de SyNAPSE

TrueNorth  tiene una arquitectura paralela, distribuida, modular, escalable, tolerante a fallos y flexible que integra computación, comunicación y memoria y que no tiene reloj. Se puede concluir que redefine completamente lo que ahora es posible en el campo de los ordenadores inspirados en el cerebro humano, en términos de eficiencia, escalabilidad y técnicas de diseño de chips e incluso  ha implicado el desarrollo de un nuevo simulador, un nuevo lenguaje de programación, un nuevo IDE (Entorno Integrado de Programación), nuevas librerías, nuevos (y viejos)  algoritmos, así como aplicaciones y un nuevo currículum de aprendizaje («la Universidad SyNAPSE”).

Además del importante paso que supone en la búsqueda de la emulación de un cerebro humano (al que después habría que dotar de contenido a través del aprendizaje o copiando un cerebro humano como vimos en un artículo anterior), esta arquitectura puede resolver una amplia clase de problemas de visión, audición y fusión multisensorial y tiene el potencial de revolucionar el campo de la IA, integrando capacidades como las del cerebro en dispositivos donde la computación está restringida por potencia y velocidad, ya que puede procesar eficientemente data en tiempo real, que provienen de sensores con ruido y con una alta dimensionalidad(i.e. muchas variables), al tiempo que consumen varios órdenes de magnitud menos de potencia que las arquitecturas de ordenadores convencionales. Estas características son especialmente relevantes en  teléfonos inteligentes, redes de sensores, vehículos autónomos, análisis de video en tiempo real, procesamiento de señales, detección olfativa, etc.

En resumen, la suma de las tres iniciativas comentadas en estos tres artículos, nos ha proporcionado una visión bastante amplia del «cerco» al que está siendo sometido el conocimiento del cerebro humano, sino para replicarlo, sí para crear mecanismos de funcionamiento similares, que pudieran permitir desbrozar el camino hacia una Inteligencia artificial General (AGI). Dado el crecimiento exponencial a que está sometido este proceso, caben pocas dudas, al menos para mí, de que es una cuestión de tiempo (está previsto hacia 2023, otra cosa es el proceso de aprendizaje posterior del que ya hablamos).

Ya sólo nos queda desvelar en el último artículo dedicado al «pensar como un ser humano», los principios básicos que garantizan que esta búsqueda pueda conducir al desarrollo de una AGI y que todo experto generalista debe conocer.

 

 

Posted by santiago

Deja un comentario