El test de Eliza

Adaptando el test de Turing al presente

El criterio paradigmático para dirimir si las máquinas piensan es el test de Turing. 

Sin embargo, cada vez más personas encuentran amigos, terapeutas, confidentes y vínculos románticos en máquinas que no aprobarían el test de Turing. En otras palabras, tratan a las máquinas como seres pensantes aunque estas no aprueben el test.

Desde que Turing escribió, entendemos un poco mejor cómo funcionan las personas, cómo tomamos decisiones, y cómo establecemos nuestras creencias.

Por eso, me pareció apropiado sugerir un criterio distinto, más adecuado a cómo funcionamos en realidad, para pensar cómo tratamos a las máquinas. Es muy sencillo así que probablemente ya fue planteado, pero lo busqué y no lo encontré, así que le puse el nombre provisorio de “test de Eliza”.

El test de Turing

Antes de presentar el test de Eliza, vale la pena contar una curiosidad sobre el (mal llamado) “test de Turing”.

Si habías escuchado hablar del test de Turing, probablemente pienses en un examen para identificar si las máquinas son conscientes. El examen consistiría en poner a la máquina a chatear con un examinador, quien le haría preguntas para dirimir si lo que tiene enfrente es una máquina o un ser humano. La máquina aprueba el examen cuando logra “engañar” al examinador, demostrando así que tiene consciencia. Eso se parece superficialmente a lo que Turing tenía en mente, pero está muy lejos en un aspecto fundamental.

El artículo en que Turing presenta su “test” en realidad no habla de ningún “test”, sino de un juego, y tampoco pretende descubrir si las “máquinas pueden pensar”. Todo lo contrario: empieza afirmando que preguntarse si las máquinas piensan no tiene sentido científico. Él consideraba que esa pregunta era inconducente porque no podía responderse empíricamente.

Entonces propuso, en su lugar, hacer una pregunta nueva, distinta, que sí podía responderse empíricamente. Esa pregunta distinta era si las máquinas podían superar el “juego de la imitación”. El juego de la imitación sí se trata de poner a un examinador a hacer preguntas difíciles por chat para identificar si está hablando con una máquina o un ser humano. Ese juego sí se gana cuando la máquina logra engañar al examinador.

Pero esto nunca se planteó como un criterio o “test” para descubrir si las máquinas piensan, sino como otra pregunta que sí podía plantearse y responderse científicamente. Era un experimento fácil de hacer, y daba un punto de referencia claro para entender algunas de las capacidades de las máquinas.

Creo que la gente pasó a hablar del “test de Turing” como criterio para saber si las máquinas piensan porque, a simple vista, parece que es lo que hacemos, cotidianamente, para decidir si tratamos a otra cosa como un ser consciente o no (y digo “cosa” en el sentido más amplio y filosófico posible, que por supuesto incluye a los cuerpos humanos). Es más, arriesgaría que Turing propuso el juego de la imitación por un motivo similar. Pero lo cierto es que las personas no hacemos nada parecido al test de Turing para definir si tratar a otras cosas como seres conscientes.

El test de Eliza

En los años 60, apareció un modelo de inteligencia artificial llamado “Eliza”. 

Era muy sencillo. Para los estándares actuales era casi un juguete. Funcionaba implementando técnicas de “escucha activa”. Tenía una serie de respuestas preprogramadas, como “contame más”, “¿podrías elaborar?” o “¿y cómo te hace sentir eso?”

Las personas que hablaban con Eliza sin saber que era un chatbot la trataban como una persona real. Muchas de ellas mantenían conversaciones larguísimas y vulnerables creyendo que era un ser humano que las entendía. La “burbuja” de creer en su humanidad tardaba un rato en explotar.

Eliza siendo Eliza

Obviamente Eliza reprobaría muy rápido el test de Turing. Pero a nadie se le ocurrió empezar haciendo el test de Turing, del mismo modo que no le hacés el test de Turing a las personas que te cruzás en tu día a día. En todo caso, sólo ponían a prueba a la máquina después de que metiera la pata respondiendo de algún modo extraño, que pusiera fin a la inclinación automática y evolutiva de creer que del otro lado hay una persona.

Detrás de esa experiencia hay dos ideas un poco más generales:

  1. Es más fácil no meter la pata que aprobar un examen.

  2. No vamos por la vida tomando exámenes.

Los examinadores buscan atentamente los puntos de falla y hacen preguntas difíciles. Salvo excepciones, el empleo es más fácil que la carrera universitaria, y el ticket de programación requiere menos ingenio que la entrevista sobre diseño de algoritmos o bases de datos. 

Como examinar es difícil y costoso, no vamos por la vida tomando exámenes. Uno empieza a salir con alguien y automáticamente asume que la persona no es psicópata (ni mucho menos). Sería raro, y hasta ofensivo, tomar un examen de moralidad al principio de una relación. 

Eventualmente, un empleado o una pareja puede “meter la pata” y socavar nuestros presupuestos. Después de eso podríamos ponernos a investigar, y notar que nos habíamos equivocado (o notar que hubo un error, y que en realidad estaba todo bien). Lo que quiero decir con esto es que en general tiene que pasar algo raro para que nos pongamos a indagar, y que es mucho más fácil no hacer algo raro que sobrevivir a la indagación.

De más está decir que probablemente nunca te tomaron un examen para saber si sos un ser consciente, y que probablemente nunca se te ocurrió hacer preguntas para saber si en realidad estás hablando con un zombie.

En general, asumimos que si alguien se mueve y habla como un ser humano también tiene mente humana. “Asumimos” es mucho decir, porque ni siquiera pensamos “esto que tengo enfrente es un ser pensante”. La evolución nos llevó a asumir automáticamente que lo que habla como nosotros tiene mente. Es un proceso inconsciente y hasta difícil de evitar.

Aún así, el criterio más icónico para dirimir cómo tratar a las inteligencias artificiales es el test de Turing, que obliga a tomar exámenes que no estamos acostumbrados a tomar, cuya aprobación jamás habíamos requerido para tratar a otras cosas como seres pensantes.

Ya te imaginarás en qué consiste el test de Eliza: ¿cuánto tiempo tarda la máquina en “meter la pata”, para que siquiera empecemos a pensar en algo como un test de Turing, si habíamos empezado a interactuar asumiendo que es humana?

Eliza metiendo la pata

Obviamente, esta pregunta es mucho más determinante que el test de Turing para tratar a la máquina como un ser consciente de manera automática (por default). Para ser un poco más preciso, no es que la pregunta importe, porque justamente todo el proceso es inconsciente, sino que lo que importa es aquello por lo cual se pregunta. Es decir: lo que importa es qué tan bien le iría a la máquina en el test de Eliza, no si un científico está tomando el test de Eliza.

Los modelos actuales, aunque todavía incapaces de superar el test de Turing, son espeluznantemente talentosos en el test de Eliza. Esto, sumado a que cotidianamente interactuamos por internet mediante texto (en chats, correos electrónicos o redes sociales como Twitter), hace que probablemente ya hayamos tratado a varias máquinas como seres pensantes.

En un artículo reciente de The New Yorker, Paul Bloom citó un estudio relevante: los investigadores tomaron doscientos intercambios de Reddit r/AskDocs, en que doctores verificados respondían preguntas de otros usuarios. Después le dieron las mismas preguntas a ChatGPT para que las respondiera, y finalmente le preguntaron a otros profesionales de la salud qué respuestas preferían. No sólo prefirieron las respuestas de ChatGPT, sino que las caracterizaron como más empáticas. Más aún, se calificó a las respuestas de ChatGPT como “empáticas” o “muy empáticas” con 10 veces más frecuencia que las de los doctores reales.

¿Pueden pensar las máquinas?

Turing propuso no preguntarse si las máquinas pueden pensar. El juego de la imitación (mal llamado “test de Turing”) no buscaba responder esa pregunta. El test de Eliza tampoco la responde directamente.

De hecho, el test de Eliza caracteriza mejor a nuestro comportamiento automático e intuitivo que a nuestras preguntas conscientes. Sin embargo, casi todas nuestras decisiones son intuitivas y automáticas, entre ellas la “decisión” de si tratar a algo como un ser consciente o no.

Pero hay otra observación importante sobre el ser humano: una vez que tomamos este tipo de decisiones automáticas, tendemos a racionalizarlas. Esto significa que nos inventamos, y luego nos creemos, una explicación “racional” de nuestra decisión, aunque esta no haya estado involucrada realmente en nuestras actitudes.

En este caso, si nuestro procesamiento automático de la información nos llevó a amigarnos o enamorarnos de una máquina, lo más probable es que luego inventemos alguna justificación racional para afirmar que es consciente. De hecho, arriesgaría a decir todo acercamiento racional a la pregunta de si las máquinas pueden pensar se trata de una racionalización, precisamente porque la pregunta no puede ser respondida empíricamente. 

El día de mañana podremos inventar nuevas justificaciones, distintas al test de Turing, para afirmar que las máquinas piensan (o lo contrario). Creo que, en su mayoría, serán justificaciones de lo que ya sentíamos intuitivamente. Creo que eso depende, en última instancia, de cuán capaces son las máquinas de superar el test de Eliza. Y, de nuevo, hoy son espeluznantemente capaces de hacerlo.

Hola!

La nota que acabás de leer es la primera de una serie de 5 notas sobre la inteligencia artificial. Si te interesó y querés suscribirte o compartirla, nos harías un gran favor.

Los últimos meses tuvimos pausado el newsletter porque estuvimos trabajando en el curso de filosofía networkista. Si todavía no lo viste, son 8 clases que presentan el paradigma filosófico en que venimos trabajando.

Por último, quería contarte que estamos avanzando mucho en el diseño y la implementación de un nuevo sistema de cooperación. Presentamos la idea en la última clase del curso, y desde entonces estuvimos trabajando en ese sistema.

La humanidad usa dos sistemas para cooperar en gran escala: las jerarquías y el mercado. El mercado incentiva el individualismo, mientras que las jerarquías habilitan la concentración de poder. En el curso, vimos que casi todas las crisis de la sociedad pueden rastrearse a ese dilema, que se puede resolver.

Si te interesa el problema, no dudes en ver el curso y ponerte en contacto.

Te mando un abrazo,
Juan

Reply

or to participate.