martes, 28 de octubre de 2014

Los Problemas Derivados de la Inteligencia Artificial*

* Esta entrada es una respuesta a este hilo de la página oficial de Mensa España: 

Antes de dar mi opinión, que lo haré al final, me gustaría plantear algunas cosas. Para mí hay dos problemas fundamentales con la IA:

1. El nombre que se le dio ("Inteligencia Artificial")
2. Pensar que los problemas vendrán de lo que queremos hacer con la IA.

Me explico:

1. Respecto al nombre. Una vez que conoces lo que hay dentro de la IA, hay muy pocas cosas (por no decir ninguna) que te atrevas a calificar de "inteligencia" si lo comparas con tu manera de razonar o la de cualquier persona a la que conozcas. El término "IA", podría decirse, tiene una connotación "resultista". Es decir, un programa/robot/método/algoritmo/... (utilizaré a partir de ahora el término "robot" para abreviar) se engloba dentro de la IA si produce resultados que, de alguna manera, pudieran asemejarse a los que produciría un ser inteligente (pero obsérvese que a la manera - al método de obtención de los resultados - no se le exige en absoluto que sea similar al realizado por un humano). Sin embargo, no es esto lo que a priori se desprende del término "Inteligencia Artificial". Lo que le viene a la gran mayoría de la gente a la cabeza con este término es un un robot humanoide que SE COMPORTA (no sólo da resultados) como un humano. Arnold Schwarzenegger en Terminator, eso es lo que teme todo el mundo. Creo que es así. La mayoría de la gente cree que los problemas derivados de la IA vendrán por robots de este tipo, si es que llegan a existir. No obstante, yo creo que hay que analizar esos potenciales problemas y ver cuáles son. ¿Que Terminator comience a matar personas a diestro y siniestro? ¿que las lesione? ¿que los prive de su libertad? ¿que los traten como esclavos? Sí, y no. El problema hay que verlo, a mi entender, como que dichas máquinas estarían PRODUCIENDO RESULTADOS que nosotros no predijimos ni intentamos obtener cuando los creamos (ya sea matarnos, lesionarnos, privarnos de nuestra liberta o tratarnos como esclavos). Si, a partir de ahí, volvermos a revisar el término "IA" con lo que he comentado al principio de este punto, veremos que no es más que una cuestion de resultados que nos da un robot (que puede ser, como dije arriba, un programa software). Entonces, no se debería hablar de problemas de la IA. Eso sería discretizar demasiado el continuo que representa la evolución de los sistemas informáticos y, en general, las máquinas (una máquina de escribir también es una máquina). Si lo contemplamos desde ese punto de vista (problemas de los resultados de la evolución de las máquinas, y no problemas de la IA) llegamos al siguiente punto.

2. Se suele hablar de que los problemas vendrán de lo que queramos hacer con la IA. Yo no estoy en absoluto de acuerdo con esto, y de ahi el preámbulo anterior sobre la IA como una parte del continuo que representa la evolución de las máquinas. Primero, los problemas no vendrán, sino que ya están aquí: ya tenemos resultados de máquinas que alteran nuestra vida de manera indeseada (en seguida pongo ejemplos). Segundo, no están aquí por lo que hemos querido hacer con las máquinas, sino por los resultados que nos dan éstas y con los que no contábamos al crearlas. ¿Ejemplos? Echadle un vistazo a este vídeo (os aconsejo que le desactivéis la música, pues distrae un poco).  Sí, tiene su parte de gracia pero, ¿a que os ha pasado algo parecido y entonces no es tan gracioso? Pues eso son los resultdos indeseados que comento, en un punto del continuo del que os hablo.

De todas formas, también tengo carnaza. Es decir, casos más semejantes a Arnold Schwarzenegger en Terminator, que son los que preocupan a la gente. En uno de sus primeros trabajos académicos, Jeff Orkin (un reputado investigador norteamericano en el campo de los videojuegos) comentaba en uno de sus trabajos que habían conseguido que los NPCs (del inglés Non-Player Characters, es decir, los personajes del juego que no son el jugador) de su juego F.E.A.R. se comportaran de formas que no habían programado. De hecho, ésta es una de las bases de la Planificación Automática, que es el campo de la Inteligencia Artificial de cuyas técnicas hace uso Jeff Orkin: se programan dominios de aplicación abstractos (el conjunto de acciones que puede realizar un NPC como correr a un sitio, coger algo, saltar algo, romper algo, disparar a algo, etc.) para obtener planes de actuación concretos (coge la pistola grande, corre hacia la pared norte, rompe la ventana, salta a través de ella, dispara al jugador). Lo que comentaba Jeff Orkin es que se habían encontrado con que sus NPCs, para acorralar al jugador, encontraban planes que ellos (los programadores) no habían llegado a contemplar (esto, repito, es algo obvio en la planificación automática por lo que nadie del área de planificación creo que se sorprendiera, pero sí de la gente del área de videojuegos que, hasta ese momento, usaban otras técnicas). Estoy hablando del año 2006 aproximadamente. Ahora hay muchas cosas más sofisticadas que van a ir a más en el cammpo de las narrativas emergentes (podéis buscar en google qué son). De hecho, hoy en día una práctica habitual en el sector de videojuegos es la de rebajar la inteligencia de los NPCs para que al jugador le sea divertido jugar. No estoy hablando de un tetris en el que las piezas bajan a una velocidad vertiginosa. Estoy hablando de juegos con personajes gráficos de forma humana cuya misión es enconderse de los guardias y en los que los jugadores humanos no eran capaces de sobrevivir nunca.

Por tanto, y volviendo a las afirmaciones de Elon Musk:

a) "Yo me inclino mucho a pensar a que debe haber una especie de regulación, quizás a nivel nacional e internacional, sólo para asegurarnos que no haremos algo muy tonto". Yo creo que una regulación puede estar bien, pero no me parece el punto más relevante ahora mismo. Los problemas no están viniendo, ni creo que vayan a venir por lo que haremos en sí, que es lo que podemos regular, sino por los resultados no predecidos de lo que hagamos. Por decirlo de otra manera y con un ejemplo, da igual que se creen y entren en vigor las tres leyes de la robótica de Asimov, puesto que no podemos garantizar que seamos capaces de crear robots que las cumplan. Siempre habrá un aspecto de su programación que se nos escape y que produzca un resultado que no habíamos predicho.

b) "Con la inteligencia artificial estamos invocando al demonio. Sabes todas estas historias dónde hay un hombre con un pentagrama y agua bendita, pensando que seguro podrá controlar al demonio, pero nunca funciona así". Esto apoya lo que yo he intentado transmitir con este comentario pero, como digo, es un error mirar sólo a la "Inteligencia Artificial". Creo que el ámbito debe abrirse a "la evolución de las máquinas". Por ejemplo, no he hablado apenas de hardware, pero ya existen prototipos de robot asistenciales que cargan personas enfermas para llevarlas de un sitio a otro. ¿Puede ocurrir algún tipo de cortocircuito/fallo de manera que el hardware (el robot asistencial) cause un daño físico a la persona que intenta mover? Ahí lo dejo.