En el artículo anterior examinamos las dos formas más intuitivas de conseguir que un cerebro digital (es decir, una máquina que simula un cerebro humano) aprenda. ¿Cuánto ha de aprender? el objetivo para una Inteligencia Artificial General (conocida como AGI por siglas en inglés) es llegar a situarse en paridad con un cerebro humano adulto.
No se agotan con las anteriores las posibilidades de aprendizaje. Existe al menos otra alternativa, que explora un importante principio básico de la ciencia en general y de la ingeniería en particular: simular un proceso con el nivel correcto de detalle.

Escalas del cerebro humano. Fte: Karlheinz Meier – Neuromorphic Computing – Extreme Approaches to weak and strong scaling
Además de difundir un conocimiento general sobre Inteligencia Artificial, otro de los objetivos de este blog es la formar expertos generalistas, por lo que voy a dedicar un poco de espacio en este artículo a desgranar este concepto básico. ¿Por qué es importante que haya expertos generalistas? vivimos en un contexto de hiperespecialización a nivel de dominios de conocimiento e incluso sectorial, por lo que como suele decirse, «las ramas no nos dejan ver el bosque». La transformación digital de las empresas en general y la Inteligencia Artificial en particular son temas muy multidisciplinares, por lo que resulta imprescindible disponer de personas que sean capaces de «deconstruir» una disciplina, encontrando y razonando sobre los principios básicos de una serie de dominios y transferirlos con las debidas adaptaciones a los dominios de los que son especialistas, produciendo con ello nuevas miradas innovadoras. O, alternativamente, transferir estos principios a otros dominios con la ayuda de especialistas en esos dominios para implementar los detalles, ejerciendo en este último caso de «directores de orquesta». En pocas palabras, es necesario que hayan muchos más expertos generalistas de los que hay en la actualidad.
Así, volviendo al proceso de aprendizaje de un cerebro digital, existe otra opción consistente en realizar una simulación de las funciones del cerebro a distintos niveles de detalle, de manera que se pueda responder con las mismas salidas (acciones) a las mismas entradas (estímulos) que suceden en los cerebros humanos reales. Es lo que se denomina un modelo funcional del cerebro. Esto tiene la ventaja sobre los enfoques que vimos en el anterior artículo, de que la velocidad de aprendizaje puede incrementarse un factor de centenares o miles de veces respecto a una simulación completa a nivel celular.
Para ilustrar esto, vimos en el artículo anterior (ver nota a pie de artículo) que en IBM usando un supercomputador con cerca de 150.000 procesadores, han conseguido una simulación a nivel celular (modelo NEURON, ver figura) de una parte del neocórtex humano (equivalente al neocórtex entero de un gato), a una velocidad una centésima parte (1/100) de lo que se considera tiempo real. En este supuesto, si estudiamos un proceso de pensamiento que tiene una duración en tiempo real de 100ms (cien milisegundos o una décima de segundo), por ejemplo el reconocimiento de una persona, la simulación a nivel celular tardaría unos 10s en reproducirla (recordemos que corre a 1/100 de la velocidad real). Todo ello sin tener en cuenta los requerimientos de memoria y FLOPS de la figura, que de hecho pueden hacer inabordable esta simulación por sí solos.

Diferentes escalas y herramientas de simulación del cerebro: NEST es la más simple (neuronas son puntos, hasta GROMACS que es una simulación dinámica molecular). Fte: Karlheinz Meier – Neuromorphic Computing – Extreme Approaches to weak and strong scaling
Si en vez de realizar esta simulación en el nivel celular (modelo NEST), la llevamos a cabo en el nivel molecular (modelo GROMACS en la figura de arriba), es evidente que la complejidad de los cálculos del modelo crecerá en muchísimos órdenes de magnitud (concretamente 9, o sea x1.000.000.000). Supongamos para ilustrar el concepto con un ejemplo, que es nueve órdenes de magnitud más compleja,( en términos de cantidad de cálculos necesarios), es decir mil millones de veces (x1e9) la cantidad de cálculos que el modelo celular. Para la misma potencia computacional (i.e. hardware), la nueva simulación correrá a (1/100 x 1/1e9 = 1e-11 o cien mil millones veces más lenta que el tiempo real). es decir que ese mismo proceso real de 100ms, tardará en simularse ¡11d 13h y casi 47 min!. Otra forma equivalente de ver esta situación que necesitaríamos multiplicar por x1e9 nuestra capacidad computacional (medida en FLOPS o operaciones por segundo en coma flotante), para simular el modelo molecular a la misma velocidad que el modelo original a nivel celular.
Esto nos lleva a la conclusión de que por mucho que aumente exponencialmente la capacidad de cálculo, simular un cerebro humano entero a nivel molecular es completamente inabordable, por lo que los análisis a este nivel de detalle deben ser de zonas pequeñas para que sean manejables computacionalmente.
Por este motivo, resulta muy sensato tratar de rebajar el nivel de detalle del modelo, para permitir que con el hardware actual podamos obtener un modelo que realice las mismas funciones que el cerebro humano, que es el objetivo, mientras que realmente no resulta tan interesante que funcione exactamente como el cerebro humano, que tiene un sustrato biológico y unos mecanismos evolutivos muy diferentes. De esta manera con un modelo funcional podríamos simular el cerebro en tiempo real o incluso «a cámara rápida».
Para que se entienda la importancia de esto, voy a utilizar una analogía. Si la aeronáutica fuera el estudio detallado de «cómo los pájaros pueden volar», por ser el mejor ejemplo que nos proporciona la biología de capacidad de vuelo de un ser vivo para tratar de reproducir estos mecanismos de manera artificial, ésta no sería el enorme éxito a todos los niveles que es hoy esta disciplina. Si ha evolucionado de esta manera es porque se ha centrado en el conocimiento de las leyes de la aerodinámica, no en cómo vuelan los pájaros, si bien este conocimiento puede contribuir a ello. La ingeniería en particular se encarga, de la amplificación y control de pequeñas diferencias, en el caso de la aerodinámica las pequeñas diferencias de presión entre la superficie superior e inferior de un ala, en el caso de la IA, conocer las funciones en que se descompone un cerebro humano, para luego integrar las distintas funciones en la forma que más convenga a nuestros intereses, no tanto en simularlo con enorme precisión.
El proyecto de ingeniería inversa del cerebro de Kurzweil en Google
Es más, puede usarse este modelo funcional para acelerar el aprendizaje y usar los resultados de éste de nuevo en el modelo a nivel molecular cuyo ritmo de aprendizaje es muchísimo más lento, porque si el modelo a corto plazo es, como hemos visto mucho más lento (del orden de 1e9 más lento), los procesos de plasticidad, aprendizaje o desarrollo intelectual, son procesos del cerebro que toman mucho tiempo (entre x10-x1000, ver flecha a la derecha de la siguiente figura),

Escalas temporales y de simulación del cerebro humano. En la flecha de la derecha se ven los factores de los procesos a largo plazo.
Con esta simulación a nivel funcional, de hecho lo que producimos es un efecto de aceleración en el ritmo de aprendizaje. La IA a nivel humano usará un modelo funcional como el que describe Kurzweil en su libro «Cómo crear una mente«, pero es importante continuar alimentando las simulaciones detalladas a nivel molecular de porciones más pequeñas del cerebro, de manera que nos ayude a perfeccionar los modelos funcionales para que nos permitan entender qué detalles son los importantes y de cuáles se puede prescindir en el modelo funcional.
Este es precisamente el enfoque del gurú de la Singularidad, Kurzweil, que ahora cuenta con los recursos computacionales de Google para conseguir este objetivo. Piénsese que de la misma manera que el neocórtex permitió acelerar la velocidad de aprendizaje de la Evolución muchos órdenes de magnitud, pasando de un aprendizaje codificado en el ADN a lo largo de miles de generaciones a años, meses (o menos), ahora estamos en los albores de poder volver a acelerar este proceso de aprendizaje nuevamente miles o millones de veces, al pasar de una inteligencia biológica a otra no biológica, además con una flexibilidad mucho mayor, puesto que podrá transferir su conocimiento en minutos o segundos a otra inteligencia no biológica (un poco como los protagonistas de la película «Matrix«, aprendían artes marciales o a pilotar un helicóptero en unos minutos de transferencia a su cerebro de ese conocimiento). Además, un cerebro digital no estará constreñido por los límites físicos de capacidad de un cerebro biológico, por lo que no existirán límites teóricos a cuánto podremos aprender.
El término «Singularidad» hace referencia al momento, que Kurzweil fija alrededor de 2045, en el cual existirán máquinas con una potencia computacional mayor que la de toda la humanidad junta y a partir del cual no es posible prever el horizonte de sucesos que pueden tener lugar (denominado así por paralelismo con una singularidad matemática o física), primero por el elevadísimo ritmo de cambio de los acontecimientos y, segundo, porque ya no estará en nuestra manos su dirección y control, pero en cualquier caso, nuestra vida, sus usos y costumbres, quedarán irreversible y profundamente alterados. En palabras del autor, «lo que emergerá será una inteligencia indudablemente humana, pero probablemente no biológica» (ver «La singularidad está cerca«, p.30).
Anders Sandberg neurocientífico y Nick Bostrom filósofo, ambos de la Universidad de Oxford establecieron la hoja de ruta (Roadmap)para poder llegar a crear una simulación del cerebro humano:

Hoja de Ruta para desarrollar una simulación completa de un cerebro humano (Extraído de: «brain emulation roadmap report«)
El lector interesado en los detalles debe dirigirse al documento, referenciado, dado que cubrirlos en este post extendería el tiempo de lectura más allá de lo aconsejable. Por lo que respecta a las capacidades tecnológicas necesarias para cubrir esta hoja de ruta, Sandberg y Bostrom las resumen en el siguiente cuadro (nuevamente invito al lector curioso a leer la explicación de cada uno de los cuadros en el informe referenciado). Muchos de los ítems considerados en este informe son extensiones de técnicas o tecnologías ya disponibles.
Naturalmente más allá de los retos técnicos contenidos en esta visión de «deconstrucción» del cerebro humano, para poder emularlo, hay otras muchas cuestiones económicas, legales y filosóficas de gran interés, que se deberían empezar a discutir abiertamente. A pesar de parecer hoy en día ciencia ficción, si no comenzamos a hacerlo, la aceleración exponencial de la IA «decidirá por nosotros», como postula el propio Nickstrom en su libro: «Superinteligencia: caminos, peligros, estrategias» . No en vano la ciencia ficción suele basarse en escenarios utópicos o distópicos de lo que un uso adecuado o inadecuado de la tecnología podría traer sobre la Humanidad.
Para cerrar este artículo, dejo para la reflexión del lector alguno de los interrogantes que esta deconstrucción del cerebro humano plantea: si la emulación de un cerebro en particular resulta algún día posible, esa emulación permitiría tener copia digitales de uno mismo y abriría paso a la «inmortalidad digital». También permitiría probar ideas sobre la mente, o la identidad, por no mencionar las enormes implicaciones económicas, legales y sociales de disponer de copias del cerebro de uno mismo y, en general de las personas.
Y con estas preguntas termino, ¡nos vemos en el siguiente artículo con la aceleración del hardware del cerebro digital!