25 Jan 2020

Inteligencia artificial: la vieja escuela

watch_later Tiempo de lectura ~6 minutos

Nuestra obsesión por construir una máquina que se mueva, piense, reaccione y se exprese como nosotros no es para nada nueva. Antecedentes de esta peculiar inquietud podemos rastrearlos en los autómatas de Pierre Jaquet-Droz en el siglo XVIII. Pero recién en el siglo XX comenzamos a poseer las herramientas tecnológicas, técnicas, ingenieriles y computacionales como para que la ilusión de concretar esta empresa parezca más probable o, como mínimo, menos improbable. Fueron innumerables los intentos para empezar a construir los bloques indispensables de este ambicioso proyecto, con diseños que exhibieron diversas estructuras, tamaños y comportamientos. Pero centrémonos en dos casos paradigmáticos: los robots Freddy y Shakey del Departamento de Inteligencia Artificial de la Universidad de Edimburgo y del Instituto de Investigación de Stanford respectivamente.

Freddy fue el modelo de un robot estático –del cual existieron dos réplicas: Freddy y Freddy II– que existió entre los años 1969 y 1976 y estaba por compuesto por dos cámaras que simulaban a los ojos, y una estructura mecánica que simulaba el accionar de una mano. Estos robots funcionaban a partir de la integración de dos computadoras, cuyos programas perseguían el objetivo de que Freddy “reconociera” ciertos objetos, reaccionara acorde a ellos según diversas situaciones que se le presentaban y diversos objetivos que se le prescribían como, por ejemplo, ubicar algunas piezas geométricas dentro de una caja. Shakey, por su parte, existió entre los años 1966 y 1972 y fue un robot que, a diferencia de Freddy y Freddy II, era móvil, y esto le permitía interactuar de manera más dinámica con entornos que estaban diseñados con el fin de testear su desempeño. Estos entornos estaban compuestos de objetos tales como paredes, puertas y bloques de madera. Algunas de las tareas que Shakey realizaba era mover los bloques de un lugar a otro sin intervención humana, siguiendo un detallado plan de acción que consistía en secuencias de programación previamente dispuestas. Si bien las tareas que debían realizar Shakey y Freddy eran relativamente sencillas, sus desempeños significaron un avance notable para la época.

Para entender el paradigma a partir del cual operaban, deben introducirse los conceptos de “micromundos” y la “hipótesis de los sistemas simbólicos”: el primero de estos conceptos fue introducido por Marvin Minsky, uno de los participantes de la Conferencia de Dartmouth (de donde nació la disciplina de la Inteligencia Artificial) y Seymour Papert, un matemático que trabajó en lenguajes de programación y psicología del desarrollo. Esta idea consiste en que el desarrollo de sistemas artificiales inteligentes debe contar con la elaboración de entornos simplificados y restringidos, algo así como “bloques de mundo” en los cuales dichos sistemas artificiales puedan interactuar de forma concreta y sin grandes dificultades. Por su parte, la “hipótesis de los sistemas simbólicos” de Newell y Simon - que también formaron parte de la Conferencia de Dartmouth - se basaba en la convicción de que la mejor manera de reproducir comportamientos inteligentes como los que exhibe el ser humano –tareas tales como realizar operaciones matemáticas, jugar al ajedrez o entender y elaborar oraciones– tiene que basarse en la manipulación de secuencias simbólicas dado que, de hecho, esta es la forma con la que opera la inteligencia humana. Dicho de modo muy resumido: para estos investigadores, tenemos símbolos codificados en el cerebro, y las operaciones mentales son las que se encargan de vincular estos símbolos entre sí para producir expresiones a partir de una serie de reglas sintácticas. Una computadora que intente emular la inteligencia humana, por tanto, tendrá que contar con elementos análogos: la diferencia es que en vez de símbolos codificados en el cerebro, poseerá datos codificados en un programa.

Estas dos nociones fueron parte del derrotero de los orígenes de la Inteligencia Artificial que posteriormente sería denominado GOFAI (Good Old Fashioned Artificial Intelligence) y entre la década del 50 y los 70, marcó el clima de desarrollo de una disciplina científica incipiente que prometía muchos avances y que, en los casos más exagerados, proponía pronósticos desmedidos en los que se calculaba que en menos de 10 o 15 años se podría llegar a emular todos los aspectos fundamentales de la inteligencia humana. Ciertamente no faltaban razones para entusiasmarse: hacía tan sólo algunos años atrás, las computadoras eran artefactos que podían llevar a cabo tareas aritméticas complejas, pero no mucho más que eso. De pronto, un boom de desarrollos tecnológicos marcó la pauta de que se podía lograr que una computadora exhibiera comportamientos que pueden considerarse, de un modo u otro, como inteligentes. Programas de comprensión del lenguaje natural como el histórico SHRDLU, de Terry Winograd o programas de resolución de problemas como el SRGP de Newell y Simon eran claros ejemplos de esto. McCarthy –otro de los pioneros de la Inteligencia Artificial– denominó, con cierto humor, a este boom como la época del “Mira, mamá, ahora sin manos!”.

Pero todo este entusiasmo originario pronto comenzó a desinflarse. La cruda realidad demostró que, si bien se había descubierto una veta interesante, la cosa era mucho más complicada de lo que parecía. En el caso puntual de la robótica, aún siendo que estábamos ante un panorama de arquitecturas tecnológicas inéditas, lo cierto es que la posibilidad de que éstas exhibieran los comportamientos flexibles, dinámicos y adaptativos que caracterizan a los animales humanos y no humanos, se encontraba aún a una distancia de concreción muy grande. En el caso de nuestros amigos Freddy y Shakey, las limitaciones eran claras. Freddy lograba sin muchas dificultades poner los objetos dentro de la caja; el problema es que cuando terminaba de agarrar todos los objetos, agarraba también a la caja misma y la soltaba al aire, demostrando que algunas de las intuiciones básicas que operan en el comportamiento animal inteligente no estaban pudiendo ser representadas. Shakey, por su parte, lograba realizar ciertas acciones como llevar un objeto de punto ‘a’ al punto ‘b’, superando obstáculos de por medio. Pero lo hacía con una lentitud notable, tomando a veces días enteros hasta completar la operación. Muchos otros diseños robóticos de la época demostraban restricciones análogas. Cuando se intentaba hacerlos interactuar por fuera de los micromundos, manifestaban una motricidad rígida, una movilidad y adaptabilidad a obstáculos muy limitadas, bloqueos en su accionar o formas de solucionar problemas que no se asemejan a los modos que solemos ver en el comportamiento animal. Todos estos problemas le abrieron los ojos a los padres de la IA, que comenzaron a observar que los presupuestos implícitos en esta disciplina permitían desarrollar programas que tenían un relativo éxito a la hora de realizar tareas abstractas que realiza un humano adulto, pero muy poco éxito a la hora de emular comportamientos sensorio-motrices básicos, como agarrar un objeto o moverse de modo adecuado. O como se ha dicho en ciertas ocasiones: eran sistemas buenos para las matemáticas, pero malos para el fútbol.

Este problema fue observado con pericia por otro importante personaje en la historia de la IA: Hans Moravec. El diagnóstico de este desarrollador era que aquellas tareas que se consideraban más complejas y sofisticadas, son las que requieren menores procesos computacionales, mientras que las que parecían ser capacidades más sencillas, son las que más esfuerzo demandan a la hora de emular. Una de las intuiciones que operan detrás de esta paradoja –llamada “paradoja de Moravec”– es que las habilidades sensorio-motrices son las más ancestrales a nivel evolutivo y, por tanto, como especie, poseemos una gran experiencia realizándolas y esto hace que las demos por sentadas, haciendo parecer fácil lo que en verdad es difícil. En cambio, las capacidades, más abstractas, que pueden entenderse dentro de la esfera del razonamiento, son las más recientes a nivel evolutivo; y al ser las más recientes, no las hemos dominado del todo aún, y es por eso mismo mismo que tendemos a pensar que son las capacidades más difíciles de todas. Pero es muy posible que éstas no sean difíciles per se: sólo nos parece que lo son, porque nos cuesta mucho más esfuerzo llevarlas a cabo.

La implementación de estos mecanismos en sistemas artificiales nos ofrece la lección de que el esfuerzo para emular las capacidades que manifiestan agentes biológicos es directamente proporcional al tiempo que dichas capacidades tomaron para evolucionar. Por ende, será esperable que las capacidades que parecen ser sencillas y que no demandan mucho esfuerzo, sean las más difíciles de emular, y viceversa. La paradoja de Moravec marcó un antes y un después en la historia de la Inteligencia Artificial, influenciando a toda una generación posterior de científicxs, ingenierxs, y diseñadorxs del campo y sigue teniendo su relevancia al día de la fecha.


Esta nota inaugura una edición especial de verano sobre la historia de la inteligencia artificial y sus desarrollos contemporáneos. A diferencia de nuestras ediciones anteriores, vamos a estar mandándote un mail todos los sábados contándote esta historia. Quedate atentx para saber qué pasó con la inteligencia artificial luego de Dartmouth. Para ampliar la lectura, te dejamos algunos datos más y textos para consultar.

La conferencia de Dartmouth que se menciona en esta nota fue un encuentro realizado en el año 1956 en la universidad Dartmouth College. En ella, varios científicos e investigadores de áreas como las matemáticas, las ciencias de la computación y la ingeniería electrónica, entre otras, sentaron las bases de esta disciplina, que inspirándose en la obra de Turing, aspectos de la teoría de autómatas, la teoría de la información y la cibernética, comenzó a vislumbrar la posibilidad de construir máquinas que piensen. Además de las personalidades nombradas en esta nota, en dicha conferencia participaron Claude Shannon, W.S. McCulloch, W. Ross Ashby, Julian Bigelow y Ray Solomonoff, entre otros.

Norvig, P. y Russell, S. (1994) Inteligencia Artificial: Un Enfoque Moderno. Prentice Hall

Este es posiblemente el manual más completo que exista en materia de IA. Tiene una muy buena introducción acerca de la historia de esta disciplina y mucha información técnica de utilidad tanto para quienes tienen mucha experiencia, como para quienes recién están arrancando a aventurarse en el mundo de la programación.

Moravec, H. (1988). Mind Children. Harvard University Press

En esta obra, Hans Moravec especula con la idea de que entre la década del 2030 y el 2040 podremos ser capaces de construir robots que alcancen niveles de complejidad mucho más sofisticados que los que vemos al día de la fecha. Más allá de estar de acuerdo con sus predicciones o no, ofrece puntos de partida muy interesantes para comprender aspectos importantes acerca de la paradoja de Moravec, ley de Moore, la robótica y la vida artificial.

Haugeland, J. (1986) Artificial Intelligence: The Very Idea. MIT Press

John Haugeland fue un pensador que encarnó de manera muy audaz la figura del filósofo comprometido en materia tecnológica. En este libro desarrolla muchos de los problemas principales de la IA, tocando temas de filosofía de la mente, ciencias cognitivas y fenomenología. La idea de identificar y definir la primera etapa de la IA como “GOFAI” fue de él y se encuentra en esta pieza filosófica.


Escrito por: Santiago López Gagliano

Share on:
Robots, leyes y Sur
Juan Fernández Zaragoza add

Publicación completa

Robots, leyes y Sur close

Históricamente, la legislación que regula la producción, la distribución y los usos de nuevas tecnologías fue surgiendo en forma posterior a su difusión generalizada. Aparecía una tecnología, se la...

Publicación completa
El significado y su vector
Joaquín Bardauil add

Publicación completa

El significado y su vector close

En el campo de la inteligencia artificial, diferentes épocas pueden ser identificadas con la tarea que estaba siendo conquistada por las computadoras. Por ejemplo, en el año 2012 se produjo una rup...

Publicación completa
Inteligencia artificial: la escuela conexionista
Santiago López Gagliano add

Publicación completa

Inteligencia artificial: la escuela conexionista close

Estamos viviendo en un momento importante en la historia inteligencia artificial. No son pocos los expertos en el área que afirman que desde hace unos años estamos presenciando un nuevo boom. La dé...

Publicación completa