Portada del libro en tapa dura.

Editorial: Allen Lane (2019). Penguin Books

Autor: Stuart J. Russell


Para despedir 2019, quiero comentar un libro de divulgación sobre Inteligencia Artificial (IA). “Human Compatible: the artificial intelligence and the problem of control”. Este libro no sólo es, sin duda, el más importante del año sobre divulgación de la IA, sino que probablemente pueda serlo de la década.

El autor es Stuart Russell, uno de los investigadores de IA más prominentes de las últimas décadas y uno de los líderes mundiales sobre ética en la IA. Lamentablemente, por el momento, el libro está sólo en inglés  y exige un nivel alto de este idioma para su comprensión, dado que está lleno de analogías escritas con una prosa vigorosa para trasladar al público en general los complejos conceptos de la IA. Para aquellos que estéis en condiciones de leerlo, os aseguro que vale la pena el esfuerzo en todas y cada una de sus páginas y tiene dos capítulos que son oro puro (el siete y el ocho).

Este libro viene a llenar, en buena medida, uno de los motivos por los que me interesé hace unos años por los sistemas de inteligencia artificial: cómo dotar a estos sistemas de un sistema de valores compatibles con la Humanidad, de manera que cuando fueran haciéndose progresivamente más inteligentes no supusieran ningún riesgo existencial para nosotros.

El autor comienza contando la historia de la IA, de forma breve y concisa para después presentar el modelo estándar con el que la IA ha sido construida hasta la fecha, modelo que también siguen otros campos como la teoría de control, la teoría económica, la investigación en operaciones y logística y la estadística. La primera gran aportación de este libro es poner de manifiesto cuál es este modelo y las limitaciones y los riesgos que conlleva (que no revelaré para no arruinarle el descubrimiento al lector).

Después el autor pasa a examinar la inteligencia humana y la compara con la inteligencia de las máquinas y cómo el modelo estándar se aplica en el caso de la IA, a través del concepto de “agentes inteligentes”. Seguidamente dedica a explorar cuál puede ser el futuro de los sistemas de IA en el corto medio y largo plazo y como en este último caso podría ser beneficiosa para la Humanidad. Y, para ser completamente justo, el siguiente capítulo lo dedica a presentar los posibles malos usos de la IA.

En el capítulo cinco, el autor pasa a examinar lo que es una superinteligencia artificial y algunos de los problemas filosóficos conocidos al respecto, como el problema del gorila o el problema del rey Midas. Y a raíz de esto, el siguiente capítulo, el seis, lo dedica a examinar las distintas posiciones del confuso debate sobre la IA que existe en la actualidad, así como ha contestar las objeciones existentes.

Pero es en el capítulo séptimo donde el libro comienza su camino virtuoso y único. En éste el autor propone las tres leyes de la IA beneficiosa para la Humanidad, salvando los problemas de implementación práctica que tenían las famosas tres leyes de la robótica de Isaac Asimov, muy literarias pero de imposible aplicación práctica como ponían de manifiesto las propias historias de ciencia ficción en las que los robots entraban en contradicciones entre las distintas leyes y que con maestría contaba el propio autor.

En este capítulo, el autor empieza a desgranar cómo cada una de las tres leyes fundamentales que propone viene a resolver los distintos problemas que pueden plantearse. Como ejemplo de lo que quiere decir el autor, sin revelar su contenido, está la necesidad de que la IA tenga un cierto grado de incertidumbre sobre cuáles son las preferencias humanas, de manera que la IA no se «desacople» de los seres humanos por entender que éstos ya no importan porque la IA sabe mejor que nosotros nuestras preferencias. En palabras del autor, es clave introducir una cierta humildad en la IA sobre cuál es el verdadero objetivo de los seres humanos.

En el siguiente, el octavo, es donde realiza la gran contribución al campo de la IA, su propuesta de una IA demostrablemente beneficiosa. Aquí el lector tiene que saber la diferencia en inglés entre “probably beneficial AI” (IA probablemente beneficiosa) y “provably beneficial IA” (demostrablemente beneficiosa – de forma lógica-).

Algunos de los problemas que examina son: cómo aprender las preferencias de los seres humanos a partir de su comportamiento, primero en el caso más simple en que sólo existe una IA y un ser humano y después cuando además de la IA existen dos seres humanos, que pueden tener preferencias y objetivos distintos. En este punto cabe destacar las extensas referencias bibliográficas que apoyan sus afirmaciones, como corresponde a un buen académico y que yo he encontrado particularmente útiles pues andaba ciertamente escaso de referencias sobre trabajos de esta naturaleza tanto en el ámbito puramente filosófico o lingüístico, como en el campo específico de la investigación sobre IA (ahora ya tengo toneladas de referencias para profundizar).

También es digno de destacar los apéndices técnicos del libro, para aquellos lectores interesados en tener una intuición sobre la búsqueda de soluciones, el conocimiento y la lógica, la incertidumbre y la probabilidad y el aprendizaje con la experiencia y que yo encuentro especialmente inspiradoras para la preparación de mis clases sobre IA, por la lucidez y concisión con la que explica todos conceptos el autor y donde realmente puede apreciarse su profundo dominio de la materia.

Otro problema que investiga y que constituye el elemento nuclear del control de una IA, es cómo hacer que ésta «permita» ser apagada en caso necesario, de manera que esta acción sea vista como algo positivo por la IA para cumplir sus objetivos, no como un acto de voluntad consciente de la IA (el autor en ningún momento entra a valorar que la consciencia sea necesaria). Y, sin entrar en detalles (que sí hace el autor), este es el problema central del control de los sistemas inteligentes.

También explica los problemas que pueden aparecer a la hora de darle órdenes y hacer peticiones a la IA. No es suficiente con imponer prohibiciones, ya que una IA suficientemente inteligente y con incentivos adecuados siempre encontrará una escapatoria (el autor lo llama el principio del resquicio –loophole principle-), adhiriéndose a la letra de la prohibición, pero violando su espíritu (como por ejemplo sucede con cualquier ley tributaria), lo que se resume en el refrán “hecha la ley, hecha la trampa”.

En este caso, es importante tener en cuenta lo que sabemos del campo de la lingüística llamado la pragmática, que estudia el significado extra de las palabras más allá de lo que estrictamente se dice, ampliándolo también a la situación particular en que lo dice y el hecho de que no diga nada más. Por ejemplo, si un ser humano le dice a la IA “tráeme una taza de café”, si ésta descubre que no hay café cerca o que es exageradamente caro, debería inferir que la persona cree que hay café cerca a un precio que esté dispuesto a pagar y sólo en ese caso debe comprarlo (no traerlo de 100km al triple de su precio habitual, por ejemplo). Y, en el caso de las preferencias, el análisis es mucho más complejo. El autor apunta a que, en consecuencia, la investigación de IA debe desarrollarse más el estudio de la planificación y la toma de decisiones con información parcial e incierta en relación con la información sobre preferencias. También apunta a que la IA debe tener un comportamiento flexible y robusto para tener en cuenta la complejidad de las preferencias humanas, la gran cantidad de circunstancias en las que se pueden encontrar un ser humano y una IA y los diferentes estados de conocimiento y creencia que podrían ocupar ambos en dichas circunstancias.

Si estos problemas entre uno o dos seres humanos y una IA no fueran pocos, en el capítulo nueve, el autor se dedica a examinar las consecuencias que tiene que seamos muchos seres humanos. Curiosamente los problemas sobre “el bien común”, ha sido estudiados por las ciencias sociales durante no cientos, sino miles de años (al menos desde los griegos clásicos). El autor simplemente examina algunas de las implicaciones para las IA de las principales corrientes desarrolladas sobre el “bien colectivo” las relaciones entre los seres humanos.

Otro problema relacionado de gran importancia es cómo lidiar con el altruismo, es decir, cuando nuestras preferencias se pueden dividir entre aquello que redunda en nuestro propio bienestar y aquello que redunda en el bienestar de otros. Y en este punto un problema importante es como tratar con personas que son realmente malas y crueles (llamado también altruismo negativo). Es importante que las IA no se comporten como las personas que puedan observar.

El autor se centra, posteriormente, en algunos problemas adicionales con los que tendrá que lidiar una IA beneficiosa para los humanos como la estupidez humana (comportamiento que se aparta completamente de la racionalidad), que impacta a nuestro problema en el sentido de que muchas veces actuarán de maneras que son completamente contrarias a sus propias preferencias, por lo tanto, la IA deberá entender los procesos cognitivos humanos y no asumir que estos son racionales.

Y el otro problema importante son las emociones que frecuentemente guían las acciones humanas, en unos casos de manera positiva dentro de sus preferencias y que pueden conducir a actos racionales o incluso completamente deliberados (como el amor o la gratitud), pero en otros casos pueden conducir a acciones estúpidas muy alejadas de la racionalidad (como abofetear a alguien). Aunque hay conocimiento útil sobre métodos computacionales para detectar, predecir y manipular los estados emocionales humanos, queda mucho que aprender en este apartado.

En cualquier caso, las emociones revelan información útil sobre nuestras preferencias subyacentes. Pero aquí también las cosas están turbias. El autor desarrolla los tipos de incertidumbres existentes en los seres humanos, pero estas no causan impacto en una aproximación basada en las preferencias para una IA demostrablemente beneficiosa. De hecho, el autor señala referencias a algoritmos que tratan satisfactoriamente con estas cuestiones de la incertidumbre.

Termina el capítulo con algunas consideraciones importantes sobre el diferente impacto en nuestras decisiones de la experiencia y la memoria y también en la percepción del tiempo y del cambio, que deben ser tenidas en cuenta por una IA para entender el comportamiento humano.

En definitiva, se trata de un libro imprescindible para todas personas interesadas en la IA y también es un libro relevante para todos aquellos interesados en entender el comportamiento humano. Si entendéis bien el inglés, es un libro imprescindible. ¡Sin duda una excelente lectura para estas fiestas!

Posted by santiago

Deja un comentario