De la serie de tres artículos anteriores, dedicada al enfoque de la Inteligencia Artificial (IA) basado en crear máquinas que piensan como los seres humanos, nos ha quedado una pregunta por resolver: supongamos que somos capaces de simular el cerebro humano, que hemos deconstruido su funcionamiento a un nivel adecuado de detalle y que disponemos de un hardware apropiado para hacerlo funcionar, ¿por qué los partidarios de este enfoque están tan seguros que vía aprendizaje (por alguna de las formas que exploramos en un artículo anterior) podremos obtener un cerebro digital con una inteligencia equiparable a la de un ser humano?
Para responder a esta pregunta, hemos de adentrarnos en los cuatro principios básicos en los que se asienta la confianza «ciega» en alcanzar el objetivo anterior que tienen los partidarios de este enfoque. Así pues, he de advertir al lector, que este artículo aunque habla en parte de IA, va más allá y trata de principios básicos que todo aspirante a experto generalista debe conocer con cierta suficiencia. La confianza proviene de que estos principios también se encuentran en el cerebro humano, por lo que si nuestro cerebro digital hace uso de ellos, en principio hay altas probabilidades de que se comporte de manera similar a un cerebro humano aunque puedan existir algunas diferencias entre ellos.
Como señala Kurzweil en su libro «How to create a mind» (Cómo crear una mente), la base de todo está en la universalidad de la computación y en su viabilidad, así como en la aplicabilidad de estos conceptos a nuestro pensamiento. Por universalidad se entiende el concepto de que una máquina de propósito general (esto es, que no se ha diseñado para una tarea específica) puede, en principio, implementar cualquier algoritmo (concepto que ya vimos aqui).
Merece la pena examinar siquiera brevemente los cuatro principios básicos en que se asienta esta universalidad, pues el cerebro hace uso de todos ellos, sin ir más allá de una muy breve enumeración. El aspirante a experto generalista deberá a hacer este trabajo de profundización y deconstrucción (esta es una de las labores necesarias para convertirse realmente en uno).
Así, los principios básicos son:
- La capacidad de comunicar, recordar y calcular información de forma fiable: la computación consiste en tres elementos: comunicación, memoria y puertas lógicas. Durante los años 40-60 del siglo XX, las computadoras eran analógicas, los números se representaban por diferentes niveles de voltaje, con una precisión de una parte por un centenar y existían elementos especializados en realizar operaciones como la suma o la multiplicación. La cuestión es que estos dispositivos tenían todo tipo de problemas de precisión y de acumulación de errores según se necesitaba realizar más y más operaciones (cualquier persona de suficiente edad que hay escuchado una cinta de cassette de un grupo de música que hubiera sido copiada varias veces, puede recordar la pérdida de calidad respecto de la grabación original, hasta hacerla inaudible).
Pero las computadoras, hoy en día, son digitales y en la arquitectura actual (que discutiremos un poco más adelante) la comunicación entre los distintos elementos (memoria, puertas lógicas, etc.) tiene lugar por todas partes entre chips (de memoria a unidad central, por ejemplo) y dentro de ellos (registros). Así, para un canal de comunicación con un 10% de error, supongamos que se almacena en memoria y se lee un fichero de 10.000 bits, el número de bits que cambian de estado (pasan de «0» a «1» o viceversa) será de 1.000 bits±30 bits[1]. Puesto de otra forma, la probabilidad de enviar dos bits correctamente por ese canal es (0,9)^2=0,81 y 1 Byte (8 bits) = 0,43. Así la probabilidad de enviar correctamente 5 Bytes (=40 bits) es de cerca del 1%.

Canal simétrico con f% de errores. Fuente: «Information Theory, Inference, and Learning Algorithms», David, J.C.Mackay
Para superar esta limitación fundamental se hace uso de la redundancia, es decir, el envío de información «de más» a través del canal de comunicación de manera que nos aseguramos la recuperación de la información original enviada, no importa cómo de grande sea la tasa de errores del canal. Gracias al trabajo de Claude Shannon sabemos que esto es posible no importa cuánto de poco fiable sea el canal y cuál sea la fiabilidad exigida en la reproducción del mensaje y también sabemos cómo codificar esta información redundante para conseguirlo, aunque el precio a pagar es que la velocidad de transmisión de bits con información real (la tasa de bits de información), será más baja.

transmisión con redundancia (R3= enviar la información por triplicado, se decide el bit recibido por mayoría de votos). Fuente: «Information Theory, Inference, and Learning Algorithms», David, J.C.Mackay
Si no fuera por esto la comunicación digital sería completamente inservible por su falta de fiabilidad, como demuestra el pequeño cálculo de arriba.
El cerebro humano es una mezcla de procesamiento analógico y digital. La información en él está repetida, en formas distintas, entre unas decenas de veces para sucesos casuales, como una persona desconocida con la que nos hemos cruzado en nuestro último paseo, hasta miles de veces de veces para aquellos acontecimientos más importantes de nuestra vida, como la cara de la persona amada. Esta es la solución que la Evolución ha «encontrado» para asegurarse poder acceder fiablemente a los recuerdos y al reconocimiento de patrones dada la poca fiabilidad de los circuitos neuronales. La redundancia media del cerebro se puede estimar en un factor de 100:1. Muchas de estas repeticiones (que son patrones de reconocimiento) son básicamente la misma imagen, pero otras muchas son diferentes perspectivas de la misma imagen, con diferentes iluminaciones, diferentes expresiones, etc.
2. El segundo de los principios básicos es el de la universalidad de la computación: este principio se debe al trabajo del matemático Alan Turing, quien con un experimento mental describió su máquina de Turing y estableció junto con su antiguo profesor Alonzo Church la tesis de que, a pesar de su sencillez y de que procesa un solo bit cada vez, si una máquina cualquiera es «Turing completa» entonces puede computar cualquier algoritmo (cualquier procedimiento que podamos definir) siguiendo la ley natural.
En este enlace se puede profundizar sobre este tema (en inglés).
En definitiva, Turing demostró que la computación está basada en un mecanismo muy simple. Como es capaz de basar su curso futuro de acción en los resultados que ya ha calculado, es capaz de tomar decisiones y modelar jerarquías de información arbitrariamente complejas, exactamente como los neurocientíficos han demostrado que hace el cerebro humano.
Y eso nos lleva directamente a la idea clave aquí, para lo que nos ocupa en relación con la IA: lo que se denomina la interpretación «fuerte» de la Tesis de Church-Turing que propone la equivalencia esencial entre lo que un ser humano puede pensar o saber y lo que una máquina puede calcular. Si el cerebro humano se rige por la ley natural, entonces sus capacidades de procesamiento de la información no pueden exceder las de una máquina de Turing.
Otro descubrimiento que hizo Turing es que encontró que existen problemas bien definidos para los que se puede probar que existe una solución, pero que no son resolubles, es decir que no son computables por una máquina de Turing, o lo que es lo mismo, por ninguna máquina y que hay tantos de este tipo como de los que sí son solucionables. ¿Significa eso que una parte del conocimiento está fuera de nuestro alcance?
3. El tercer principio básico es de la máquina de Von Neumann: que está presente en (casi) todas las modernas arquitecturas de ordenadores de los últimos 60 años (hasta que algunos como IBM con su chip TrueNorth siguieron otro camino). El modelo de Von Neumann incluye una unidad central de proceso (la «CPU») donde se llevan a cabo las operaciones aritméticas y lógicas, una unidad de memoria donde se almacenan los programas y los datos, el almacenamiento masivo, un programa contador y canales de entrada y salida.

Arquitectura de Von Neumann. Fte: By Kapooht – Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=25789639
Este modelo a diferencia del de Turing que no tenía ese propósito, es una máquina viable, que en vez de procesar bit a bit lo hace en paralelo a través de palabras (agrupación de bits, habitualmente múltiplos de 8 bits). La memoria es de acceso aleatorio, por lo que puede recuperarse inmediatamente cualquier dato. Cada instrucción incluye un código de operación especificando la operación lógica o aritmética a realizar y la dirección de un operando de la memoria.
Fundamental para nosotros es que introduce el concepto de programa almacenado, por lo que se puede reprogramar para diferentes tareas así como para automodificarse su código (instrucciones), permitiendo la recursión o recurrencia, que es un poderoso mecanismo para programar acciones complejas de una manera sencilla.
Esta característica tiene una traslación inmediata con el cerebro humano, pues somos capaces de abordar diversas tareas a partir de la misma red neuronal, incluso realizando varias de ellas en paralelo.
4. El cuarto principio básico es la noción de la existencia de un algoritmo clave de aprendizaje del cerebro, encontrarlo y usarlo para convertir un ordenador en un cerebro, de la misma manera que un ordenador con un procesador de textos se convierte en una máquina de escribir o en una calculadora con una hoja de cálculo (sólo que mucho más potentes y flexibles en ambos casos).
Esta idea fue introducida por Alan Turing en 1950 en su trabajo académico «Computer Machinery and Intelligence» (Maquinaria computacional e Inteligencia), donde planteó la conocida prueba de Turing (test de Turing) para determinar si una IA había alcanzado un nivel de inteligencia humana y a la que dedicaré el siguiente artículo pues es el punto de arranque de otro enfoque hacia la inteligencia artificial como la construcción de máquinas que actúan como un ser humano. En todo caso, existen investigadores como Pedro Domingos, quien plantea la existencia de un algoritmo maestro de aprendizaje del cerebro y encuentran argumentos de la informática, la física, la estadística, la neurociencia y la evolución para apoyar esta tesis. Se trata, en todo caso, de un enfoque muy interesante.
Pero además de Turing, merece el crédito nuevamente Von Neumann que en un trabajo publicado en 1958 después de su muerte «The computer and the brain» (los ordenadores y el cerebro), uno de los más brillantes matemáticos del S.XX y pionero de la edad de las computadoras, examinó la inteligencia en sí misma, conectando dos campos hasta la fecha sin conexión alguna, la informática y la neurociencia, permaneciendo en el tiempo como un brillante y profético anuncio de lo que algunos consideran como el más sobrecogedor e importante proyecto de la Humanidad y que, dicho sea de paso, ha sido uno de los motivos fundacionales de «crónicas de un humano en la era digital».
Y con esto cierro, al menos por el momento, la serie de artículos dedicada a la IA como «el pensar como un ser humano». En el próximo artículo examinaremos el enfoque denominado «actuar como un ser humano».
[1]: para el lector curioso con conocimientos de estadística, la distribución de errores de una secuencia de bits cuyos bits se envían independientemente se comporta como una distribución binomial cuya media es N*f = 10.000*0,1=1000 y su desviación estándar es √(N*p*q)=√(10.000*0,1*0,9)=30 de ahí el ±30bits.