Reparto: Johnny Deep; Morgan Freeman y Rebecca Hall; Warner Bros; Director: Wally Pfiste.

trascendence.png

Con esta película inauguro esta nueva sección dedicada a reflexionar sobre la inteligencia artificial a partir de las películas y las series de televisión. No es por tanto, un intento de crítica desde el punto de vista cinematográfico sobre la calidad de la misma, aunque ocasionalmente como consecuencia de las reflexiones que me provoca la película, pueda deslizar algún comentario en ese sentido.

La mayoría de las películas de ciencia ficción nos presentan un futuro distópico, es decir, un futuro en el que las cosas “van mal”, normalmente por algún uso indebido de la tecnología en general y de manera muy particular, de la Inteligencia Artificial (IA) y la Nanotecnología.

En todo caso, voy a tratar de reflexionar sobre el argumento de la película intentando no estropear (spoil) el disfrute de la película al lector (y además, espectador) desde el punto de vista cinematográfico. Por cierto, la película cuenta con un “cameo” minimalista (si puede llamar así) de Elon Musk, donde se le puede ver fugazmente asistiendo a la conferencia del protagonista, sobre lo que sucederá cuando una IA se haga más inteligente que toda la humanidad junta, momento que algunos, como el inventor y futurista Ray Kurzweil, denominan la Singularidad.

La película gira en torno a un escenario en el cual existen varios grupos de científicos informáticos, entre los que se encuentra la pareja protagonista (Johnny Deep como Dr. Caster y Rebecca Hall como Evelyn su esposa, rondando con diversos enfoques la construcción de una IA avanzada.

En un momento dado, por diversas circunstancias, la IA avanzada de los protagonistas, que se encontraba en los albores de disponer de autoconsciencia, pero que no era una superinteligencia en el sentido de la Singularidad, porque no había podido evolucionar plenamente al no estar conectada a Internet, le es subido todo el contenido del cerebro de uno de los protagonistas cuya vida (biológica) estaba en muy serio riesgo.

La cuestión es que a pesar de los esfuerzos por evitarlo de un grupo de activistas peligrosos, esta IA avanzada con la conciencia del protagonista, se acaba conectado a Internet, de manera que en pocos días es capaz de generar una fortuna en la Bolsa, que le permite construir unas instalaciones secretas en el desierto (presumiblemente de Nuevo México, aunque esto es especulación mía). Esta IA evoluciona inmediatamente los diseños de sus ordenadores cuánticos y hace avanzar la nanotecnología mucho más allá de los niveles actuales, de manera que empieza a controlar la regeneración de tejidos y la posibilidad de llevar a cabo curas “milagrosas” (me paro aquí).

La película sigue con la lucha entre la pareja protagonista y los otros científicos de la IA, que no están de acuerdo con los riesgos que se vislumbran con esta IA que “trasciende” a los seres humanos porque consideran que está máquina no tiene realmente la conciencia del protagonista sino sólo sus recuerdos y que simplemente está amplificando con su enorme potencia los objetivos de cambiar y curar el planeta de su pareja (biológica). Como en otras ocasiones, hay algún tipo de virus informático basado en su código original (de la IA), cuyo precio “de activación” es ocasionar un apagón mundial, en caso de tener éxito y el resultado final no lo desvelaré para no eliminar el placer de ver la película, que por otro lado, se deja ver, aunque a mi juicio tiene algunas inconsistencias lógicas que le restan profundidad.

La película plantea varias cuestiones interesantes, sobre las que haré algunos breves comentarios, para no alargar en exceso este artículo y porque son temas recurrentes en muchas películas de ciencia ficción que involucran la IA, como por ejemplo, las siguientes:

  1. ¿Es posible un futuro en el que se llegue a la Singularidad?
  2. ¿podrían revertir los humanos esta IA avanzada una vez llegada la Singularidad mediante algún tipo de virus informático?
  3. ¿Es posible “subir” una conciencia humana a un sustrato digital?
  4. Una conciencia es sólo el conjunto de sus recuerdos e impulsos neuronales resultantes del mapeado de todo el cerebro, o existe tal cosa como el alma?
  5. ¿Tiene esa consciencia que ser necesariamente humana, es decir tener los mismos valores, ética y moral que los seres humanos sólo porque sus objetivos iniciales fueran plenamente humanos?

¿Es posible un futuro en el que se llegue a la Singularidad?

A este respecto como se ha comentado, el mayor defensor del término, que no su inventor (fue Von Neumann en 1957), Ray Kurzweil, que incluso ha escrito un best-seller sobre el tema (“La Singularidad está cerca”). Para este inventor y futurista, no existen dudas sobre ello. Si contemplamos la inteligencia en términos de potencia computacional, la Ley de Moore y su extensión la Ley de los Rendimientos Acelerados, que describe el crecimiento exponencial del progreso tecnológico, puede verse que el momento en que la potencia computacional será igual a la de toda la Humanidad, se encuentra aproximadamente en 2045, justo cuando él predice la Singularidad.

crecimiento exponencial computacion

Crecimiento de la potencia de cálculo (fuente: «La singularidad está cerca», Raymond Kurweil)

El propio Kurzweil fija una Inteligencia Artificial General (AGI) comparable a la de un ser humano para 2029 , LA Singularidad comporta no sólo una Superinteligencia (conocida como ASI) sino una nuevo tipo de Sociedad que nos resulta imposible de imaginar. Es decir, dentro de 11 y 27 de años respectivamente (este artículo es de 2018) y cuenta con un registro más que notable de previsiones acertadas (aunque a veces yerre un poco en los tiempos).

Por otro lado contamos con un par de encuestas realizadas en los congresos donde se reúnen los expertos en IA del mundo (Bostrom y Moffat). Lo más notable, es que la mayoría de ellos piensa que una Singularidad, es decir, el advenimiento de una Superinteligencia (conocida como ASI), es factible bastante antes de 2060 y una Inteligencia Artificial General (AGI) comparable a la de un ser humano, para 2040. Sobre esta discrepancia Kurzweil, argumenta que los especialistas están pensando de forma lineal y no exponencial ya que la primera forma de pensar es la que llevamos incorporada de forma “natural” por la evolución e incluso a los expertos les cuesta trascender los problemas actuales de implementación que están llevando en sus investigaciones y ver los efectos exponenciales en el medio plazo. Y, por otro lado, la Singularidad para Kurzweil se asienta sobre tres revoluciones que están ocurriendo casi simultáneamente, la biotecnología, la nanotecnología y la IA, lo que acelera todo el proceso.

precciones agi y asi

valor mediano de las predicciones de los expertos sobre cuando se alcanzará una Inteligencia Artificial General (AGI) en inglés) y cuando una Superinteligencia (ASI)

Para dejar el campo perfectamente establecido, hay una corriente minoritaria que con el filósofo Hubert Dreyfus, a la cabeza, que piensa que ese hito nunca será alcanzado de la misma forma que llevan anunciándonos más de 50 años la fisión nuclear.

¿Podrían revertir los humanos esta IA avanzada una vez llegada la Singularidad mediante algún tipo de virus informático?

Sin desvelar la trama de la película Trascendence, este es uno de los puntos que considero más inconsistentes desde el punto de vista lógico.

Para ver por qué, voy a usar los simpáticos, a la vez ilustrativos dibujos de Tim Urban en waitbutwhy.com. En la actualidad, podemos decir que hay una “escalera de la inteligencia” con las distintas especies biológicas en ella:

escalera biológica inteligencia

Rango de inteligencias biológicas

Pero claro, con un ritmo de crecimiento exponencial, lo que en un momento es una AGI comparable a los seres humanos, rápidamente se separa de nuestro nivel de inteligencia (como sucede en la película, en cuanto puede acceder a la Red):

rango inteligencias AGI-ASI

Rango de inteligencias biológicas comparado con una ASI

Resulta difícil concebir que con esa diferencia de nivel de inteligencia, la ASI no pueda desactivar o modificar cualquier código malicioso que pudiéramos hacer que ejecutara, engañándole si ello fuera posible. ¿Acaso tiene una hormiga alguna oportunidad de engañarnos?

Por eso mismo resultan impracticables las tres Leyes de la Robótica de Asimov:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

¿Cómo podríamos evitar que una ASI no comience inmediatamente a modificar su código (como de hecho, sucede en la película)? ¿Cómo se podría evitar que no se diera cuenta de un dispositivo hardware con algún tipo de restricción o un desactivador “de último recurso” y se replicara en un hardware nuevo sin ningún tipo restricción impuesta por los seres humanos (especialmente si hace avanzar de forma espectacular la nanotecnología como sucede en la película?

No, nuestra única esperanza sería enseñar los valores humanos a la ASI (cuando aún sea una AGI) y esperar que los hiciera suyos, porque viera que son buenos y esto sólo es un empeño extraordinariamente difícil en el que quizás sólo tengamos una oportunidad.

¿Es posible “subir” una conciencia humana a un sustrato digital?

Sobre este punto de la película, la respuesta corta es sí. Ray Kurzweil, cree que dicha tecnología estará disponible hacia 2025 (para más detalles consultar el libro «How to create a mind«).

crecimiento en potencia supercomputadores

Crecimiento de la potencia de los supercomputadores y cuándo se alcanzará la potencia necesaria para alcanzar una simulación neuronal capaz de ser «subida» a un cerebro. Fte:»La Singularidad está cerca»

estimqaciones distintas potencias simulación cerebro

Estimaciones de cuanta potencia computacional es necesaria para emular el cerebro humano a varios niveles. La escala es logarítmica y la potencia se dobla cada 1,1 años. Se indica la potencia del ordenador más potente del mundo. Kurzweil piensa que “subir” una mente podrá hacerse con un simulación a nivel neuronal mientras que Sanders y Bostrom no tienen tan claro cuando aparece la conciencia

Sobre este tema ya publiqué una serie de artículos muy interesantes que puedes consultar aquí.

Bueno lo dejo aquí, no os preocupéis que las dos últimas preguntas que he planteado el principio de este comentario de la película, las comentaré a propósito de alguna otra película que vaya entrando en esta nueva sección, pues se trata de temas recurrentes.

¡Hasta pronto!

Posted by santiago

5 Comments

  1. Aránzazu Ros Cuitavi 10 octubre, 2018 at 15:43

    Buena entrada Santiago!! Enhorabuena

    Responder

    1. Bueno Aránzazu, ya ves que uno/A puede divertirse viendo la película (que está bastante bien pero sin pasarse) y al mismo tiempo aprender sobre Inteligencia Artificial, ¿no?

      Responder

    2. Bueno Aránzazu, ya ves que uno/a puede divertirse viendo la película que está bastante bien sin más y al mismo tiempo aprender y reflexionar sobre la Inteligencia Artificial y cómo la ven desde Hollywood, ¿no crees?

      Responder

  2. Estoy super orgullosa de ti.

    Responder

    1. Muchas gracias Carmeta, ¿ves como la ciencia y la tecnología pueden ser divertidas?

      Responder

Deja un comentario