En un artículo anterior examinamos el uso de la Inteligencia Artificial (IA) para jugar al ajedrez y que los escépticos de la IA tildaron de “capacidad bruta de procesamiento” También vimos que había mucho más detrás que simplemente «potencia» computacional. De manera que la frontera de lo que es IA se movió, una vez más, en lo que se conoce como efecto IA y que se resumen en la frase:
“IA es aquello que no sabemos aún cómo programar”
es decir, que la inteligencia se define por aquello que no comprendemos completamente. Esta definición, bastante extendida, es injusta y sesgada, pues si algún día llegamos a saber cómo funciona el cerebro humano y somos capaces de reproducir su comportamiento mediante un programa, ¿dejaremos de ser inteligentes por ello?
¿Y cuál era la nueva frontera de la IA en 2011? Pues la frontera estaba en el procesamiento de lenguaje natural (conocido por sus siglas en inglés NLP), concretamente la modalidad que se denomina “contestador automático de preguntas” (question answering machine). Para los investigadores de aquel tiempo, este tipo de IA era considerado “el santo grial”, porque permitiría a las máquinas conversar de forma más natural con las personas permitiéndoles preguntar cosas en vez de tener que teclearlas.
El hito en este caso se fijó en vencer a los mejores jugadores del momento en el programa de entretenimiento televisivo de emisión nacional conocido como Jeopardy!. Se trata de un concurso de conocimientos con preguntas sobre numerosos temas como historia, idiomas, literatura, cultura popular, bellas artes, ciencia, geografía, y deportes. Consiste en que uno de los tres concursantes elige uno de los paneles del tablero de juego, el cual, al ser descubierto, revela una pista en forma de respuesta; los concursantes entonces tienen que dar sus respuestas en forma de una pregunta.
Los expertos pensaban que el juego era, simplemente, demasiado difícil: las pistas eran demasiado ambiguas, a veces con doble sentido y la extensión de las materias sobre que se preguntaba demasiado amplia.
Para hacer frente a este reto se construyó un superordenador con un total de 2.880 núcleos de procesamiento POWER7 y un total de 16 Terabytes de RAM, con un coste sólo en materiales de 3.000.000$. Watson estaba diseñado para el procesamiento de lenguajes naturales, pero para cumplir los requisitos del juego, que le obligaban a contestar en unos pocos segundos (antes de que otro concursante pulsara el botón para responder), el sistema debía además ser excelente en la recuperación de información, la representación del conocimiento, el razonamiento automático, y el aprendizaje automático en el campo de las búsquedas de respuestas. Esto se construía mediante una tecnología, DeepQA, para la generación de hipótesis, la recopilación de pruebas masivas, el análisis y la calificación.
La cuestión clave es Watson debía tener un rendimiento muy parecido e incluso superior al de los campeones del concurso. Necesitaban que Watson acertara más del 85% de las preguntas que respondiera y tenía que ser más rápido que los otros dos concursantes en el 70% de las preguntas totales.
Con todo lo anterior, en 2011 Watson estuvo listo para enfrentarse a dos de los mejores jugadores de la historia de Jeopardy!, Brad Rutter, el mayor ganador de dinero en toda la historia del programa, y Ken Jennings, el poseedor del récord por la racha más larga de campeonatos ganados.
Watson consistentemente superó a sus oponentes humanos, pero tuvo problemas en responder a unas pocas categorías, especialmente las compuestas de pistas cortas con pocas palabras. Watson tuvo acceso a 200.000.000 páginas de contenido, estructurado y no estructurado, que consumió cuatro terabytes de almacenamiento en disco, incluyendo el texto completo de la Wikipedia en inglés. Watson no fue conectado al Internet durante el juego.
La verdadera innovación de Watson es su capacidad de ejecutar rápidamente miles de algoritmos probados para análisis del lenguaje natural al mismo tiempo para encontrar la respuesta correcta en un tiempo muy corto. La probabilidad de la corrección de Watson se mide por el número de algoritmos que encuentran la misma respuesta independientemente. Una vez que Watson tiene un número pequeño de soluciones posibles, es capaz de hacer comparaciones con su base de datos para determinar si la solución tiene sentido usando más de 100 técnicas diferentes para analizar el lenguaje natural, identificar fuentes, encontrar y generar hipótesis, buscar y puntuar evidencias, combinar y clasificar hipótesis.
¿Entiende Watson realmente lo que se le pregunta? No, aún estamos muy lejos de una verdadera inteligencia artificial general o “fuerte”(AGI), pero es un paso muy importante ser “muy bueno” en esta tarea tan compleja.
Pero, como sucedió en el caso del ajedrez con Deep Blue, lo verdaderamente interesante comienza en su aplicación en el mundo real. Según IBM el objetivo para Watson es permitir que las computadoras comiencen a interactuar de forma natural con humanos a través de una amplia gama de aplicaciones y procesos, comprendiendo las preguntas de los seres humanos y dando respuestas que los seres humanos pueden comprender y justificar. Watson ya ha sido utilizado en varios proyectos, desde la investigación del cáncer, al servicio de atención a clientes. Un proyecto muy interesante es WatsonPaths, que es un sistema de apoyo para decisiones clínicas para ayudar al diagnóstico y tratamiento médico de pacientes, de una manera que es más natural para los médicos, usando una serie de preguntas para recopilar información y filtrar alternativas combinandolas con la literatura médica, de manera que realiza inferencias lógicas a partir de lo que ha aprendido de los médicos y muestra el proceso de razonamiento a estos de manera gráfica, usando cadenas de razonamiento que son ”más inteligentes” de lo que producirían por sí mismos los médicos, mejorando, de esta manera, su entrenamiento, en definitiva, haciéndolos mejores, en otras palabras, como ya sucedió con DeepBlue, los seres humanos empiezan a usar los sistemas de IA como modelos de los que aprender, no como una amenaza a sus puestos de trabajo.
WatsonPaths funciona con un único servidor con un coste aproximado de 1.000.000$, mejorando sus prestaciones iniciales respecto al sistema que implementó Jeopardy un 240%, mientras que sus requisitos de espacio físico se han reducido un 75%.
Gracias a la Ley de Moore, sistemas como este podrían estar en una década o menos en el entorno de los 100.000€, lo que los situará al alcance de las empresas de tamaño medio y como servicio en la nube, podría estar disponible mucho antes sin tener que incurrir en ese desembolso, pudiendo ponerse al alcance incluso de empresas pequeñas, ¿podéis imaginar el impacto que tendrá esto en todos los sectores de la economía?