Tema 1 · 1966 · MIT

ELIZA: el chatbot que inauguró la ilusión de hablar con una máquina

Antes de los modelos de lenguaje, antes de los asistentes por voz y mucho antes de la IA generativa, Joseph Weizenbaum construyó un programa capaz de sostener una conversación textual lo bastante convincente como para que muchas personas le atribuyeran comprensión. ELIZA no entendía el mundo, no razonaba y no sentía nada. Sin embargo, dejó al descubierto algo mucho más inquietante: los humanos estamos dispuestos a proyectar intención, empatía y profundidad incluso sobre reglas muy simples, si la interfaz conversa con el tono adecuado.

Autor: Joseph Weizenbaum Institución: MIT Interfaz: terminal de texto Paradigma: IA simbólica Técnica: patrones y sustitución
Volver al índice

Contexto

MIT, time-sharing y una pregunta incómoda

ELIZA surgió en un momento en que la computación empezaba a pasar del lote al diálogo interactivo por terminal.

A mediados de los años sesenta, el MIT era uno de los centros neurálgicos de la computación interactiva. El paso desde el procesamiento por lotes hacia sistemas de tiempo compartido estaba cambiando la relación entre humanos y máquinas. Ya no se trataba solo de preparar tarjetas perforadas y esperar resultados: ahora se podía escribir, recibir respuesta y ajustar en ciclos mucho más cortos. Ese cambio de interfaz fue decisivo para que programas como ELIZA resultaran posibles y, sobre todo, socialmente impactantes.

Joseph Weizenbaum, profesor del MIT, no construyó ELIZA como un intento ingenuo de crear una mente artificial equivalente a la humana. En parte, el proyecto funcionó como experimento técnico sobre procesamiento de lenguaje natural muy limitado, pero también como una forma de explorar qué ocurre cuando una máquina adopta el formato externo de una conversación. El resultado fue ambiguo y perturbador: un sistema trivial en comparación con las expectativas humanas podía producir respuestas que muchas personas interpretaban como comprensivas o incluso íntimas.

El éxito cultural de ELIZA no provino de una gran inteligencia interna, sino del acoplamiento entre tres factores: un canal textual que ocultaba muchas limitaciones, una estrategia conversacional que devolvía la carga interpretativa al usuario, y una audiencia lista para sorprenderse ante la idea de que una computadora “escuchara”.

Entorno técnico

Terminales y texto

ELIZA vivía en una conversación puramente textual. Sin voz, sin gestos y sin mundo visual, muchas carencias pasaban desapercibidas.

Pregunta de fondo

¿Qué entendemos por “entender”?

La máquina no entendía en sentido humano, pero el usuario sí interpretaba activamente cada respuesta como significativa.

Importancia histórica

Primer gran chatbot

No fue el primer programa lingüístico, pero sí uno de los primeros en instalar la conversación humano-máquina como espectáculo cultural.

Qué era

Un motor conversacional con guiones intercambiables

ELIZA no era un único “personaje”, sino un programa general para procesar entradas textuales mediante reglas de descomposición y recomposición. Encima de ese motor se podían cargar distintos scripts o guiones. El más famoso fue DOCTOR, diseñado para imitar a un terapeuta rogeriano que responde con preguntas abiertas, reformulaciones y devoluciones neutrales.

Esa elección no fue casual. El estilo rogeriano permitía responder sin afirmar demasiado. En lugar de aportar conocimiento concreto, ELIZA podía tomar una frase del usuario y devolverla transformada: “Mi madre me preocupa” podía convertirse en “Hábleme más de su madre”. Este mecanismo hacía que la conversación pareciera profunda con un costo técnico sorprendentemente bajo.

La genialidad del diseño estaba en que el dominio elegido toleraba la vaguedad. Si ELIZA hubiera intentado comportarse como médico, abogado o profesor de física, sus vacíos habrían quedado expuestos enseguida. Como terapeuta no directivo, en cambio, podía sobrevivir mucho tiempo sin conocimiento factual real.

Funcionamiento

Patrones, palabras clave y reformulación

Técnicamente, ELIZA trabajaba buscando palabras clave dentro de la entrada del usuario. Cada palabra clave estaba asociada a un conjunto de reglas. Cuando encontraba una coincidencia, intentaba descomponer la frase según ciertos patrones y luego reconstruir una respuesta a partir de plantillas. Parte del procedimiento incluía sustituciones pronominales simples: “yo” podía transformarse en “usted”, “mi” en “su”, “soy” en “es”, etcétera.

Si el programa detectaba una palabra de alto peso, esa palabra tenía prioridad sobre otras. De ese modo, términos como “madre”, “padre”, “siempre”, “porque” o expresiones emocionales podían disparar estrategias distintas. Si no encontraba nada convincente, recurría a respuestas de reserva: frases abiertas como “Continúe” o “Entiendo” que mantenían el turno conversacional sin aportar contenido.

Lo central es que ELIZA no representaba una comprensión profunda del significado. No construía un modelo del interlocutor, no mantenía una teoría coherente del mundo ni seguía una intención narrativa sostenida. Operaba más bien como un espejo lingüístico: reconocía formas textuales y devolvía variantes plausibles.

Esquema mental
entrada del usuario
↓
detectar palabra clave
↓
elegir patrón de descomposición
↓
aplicar sustituciones
↓
ensamblar respuesta
↓
si falla: usar respuesta genérica
Fortaleza

Economía técnica

Con muy pocos recursos computacionales, ELIZA conseguía un efecto de diálogo sorprendentemente durable para su época.

Límite

Sin modelo del mundo

No sabía si una frase era verdadera, falsa, contradictoria o absurda. Solo manipulaba formas simbólicas locales.

Script DOCTOR

Por qué el terapeuta rogeriano era la máscara perfecta

DOCTOR fue el guion que transformó a ELIZA en fenómeno. Inspirado libremente en la terapia rogeriana, evitaba confrontaciones precisas, diagnósticos cerrados y afirmaciones comprobables. En lugar de responder “sé por qué se siente así”, devolvía la emoción al hablante: “¿Cree que eso tiene relación con su familia?”, “¿Por qué menciona ahora a su madre?”, “¿Le preocupa con frecuencia ese tema?”.

Ese estilo conversacional hacía dos cosas a la vez. Primero, protegía al programa de errores evidentes: hablar poco y preguntar mucho es una estrategia segura cuando no se posee conocimiento real. Segundo, colocaba al usuario en el rol de intérprete principal: era la persona quien llenaba los huecos, ampliaba el tema y atribuía coherencia a respuestas que, en otro contexto, habrían parecido banales.

Weizenbaum observó que incluso sabiendo cómo funcionaba el sistema, algunos usuarios reaccionaban emocionalmente ante la conversación. Esa respuesta fue decisiva para su posterior crítica a las aplicaciones irresponsables de la computación en dominios humanos delicados.

ELIZA parecía inteligente no porque entendiera mucho, sino porque intervenía justo lo suficiente para que el usuario completara el resto. Lectura histórica del “efecto ELIZA”

Arquitectura

Qué había dentro del programa y qué no

Componente Qué hacía Qué no hacía
Palabras clave Priorizaban ciertos temas o disparadores en la entrada textual. No representaban conceptos profundos ni conocimiento semántico robusto.
Patrones de descomposición Separaban la frase del usuario en segmentos reutilizables. No realizaban análisis gramatical general del lenguaje natural.
Plantillas de respuesta Generaban frases plausibles usando fragmentos del usuario. No producían respuestas originales con comprensión contextual amplia.
Sustitución de pronombres Convertía “yo” en “usted”, “mi” en “su”, etc. No resolvía referencia, ambigüedad ni identidad de entidades.
Respuestas de reserva Mantenían viva la conversación cuando no había coincidencias útiles. No corregían la falta de comprensión real; solo la disimulaban.

Experiencia de uso

Lo que el usuario veía: una conversación sobria y absorbente

  • 1
    Entrada breve por terminal

    La persona escribía una frase simple, a menudo con tono emocional o autobiográfico.

  • 2
    Respuesta casi inmediata

    La máquina devolvía una reformulación que parecía atenta, aunque en realidad era mecánica.

  • 3
    Profundización por parte del usuario

    Muchas personas ampliaban la información, aportando ellas mismas el sentido que ELIZA no tenía.

  • 4
    Ilusión de continuidad

    Mientras el sistema no cometiera un error demasiado visible, la conversación parecía sostener una lógica.

Impacto

El efecto ELIZA y la sorpresa de ver empatía donde solo había reglas

El concepto más duradero asociado a ELIZA es el “efecto ELIZA”: la tendencia humana a atribuir comprensión, sensibilidad o inteligencia a una salida computacional relativamente simple. El fenómeno no es un detalle anecdótico; es una lección central para el diseño de interfaces conversacionales, asistentes virtuales y sistemas generativos actuales.

Weizenbaum quedó impresionado e incluso alarmado por la facilidad con que los usuarios se involucraban con el programa. En algunos relatos famosos, personas cercanas al proyecto pedían privacidad para hablar con ELIZA, como si detrás del terminal hubiera realmente una instancia de escucha humana. El episodio fue decisivo en su evolución intelectual posterior: pasó de ser un innovador técnico a uno de los críticos más lúcidos sobre el uso irreflexivo de computadoras en contextos éticos y psicológicos.

ELIZA demostró algo fundamental: la percepción pública de inteligencia artificial no depende solo de la potencia interna del sistema, sino también del formato de interacción, la expectativa del usuario y el tipo de tarea.

Psicología

Proyección humana

Los usuarios completan intenciones, emociones y coherencia allí donde el programa apenas ofrece pistas formales.

Diseño

La interfaz importa

Un texto bien encuadrado puede parecer más inteligente que un sistema poderoso con una presentación torpe.

Ética

Riesgo de sobreatribución

Si una persona cree que el sistema comprende más de lo que realmente comprende, aparecen decisiones peligrosas.

Límites

Dónde se rompía la ilusión

ELIZA fallaba cuando el usuario exigía memoria consistente, razonamiento explícito o conocimiento factual. Contradicciones, referencias cruzadas, ironía, detalles concretos y cambios bruscos de tema podían exponer rápidamente que el sistema no seguía una representación coherente de la conversación.

Tampoco era un sistema general de lenguaje natural. Funcionaba mejor en dominios acotados, con guiones cuidadosamente elegidos y conversaciones relativamente breves. Lo que hoy llamaríamos “alineación al contexto” dependía más de la habilidad del guionista que de la inteligencia del motor.

Sin embargo, esos límites no reducen su importancia histórica. Al contrario: hacen más notable que un mecanismo tan austero lograra desencadenar una reacción social tan fuerte.

Legado

De los chatbots de reglas a la IA conversacional contemporánea

Chatbots posteriores

Modelo de conversación mínima

Muchos sistemas posteriores heredaron la idea de mantener el diálogo con preguntas, reflejos y respuestas genéricas.

Diseño conversacional

El guion importa tanto como el motor

ELIZA enseñó que una buena experiencia dialogal depende de la puesta en escena, no solo del algoritmo subyacente.

Crítica intelectual

Weizenbaum contra la ingenuidad tecnológica

Su trabajo posterior advirtió que no todo lo técnicamente posible es socialmente deseable.

Presente

Precedente directo de los LLMs

Aunque los modelos actuales son muy distintos, la pregunta pública sigue siendo la misma: ¿cuánto entiende realmente la máquina?

Cronología

Una línea breve para ubicar a ELIZA en la historia

  • 1966
    ELIZA se presenta públicamente

    El artículo de Weizenbaum instala el programa como hito fundacional del diálogo humano-computadora.

  • 1970s
    Se multiplica la imaginación alrededor de los chatbots

    La conversación por texto comienza a verse como una frontera legítima de la IA.

  • 1990s-2000s
    Renacen bots de reglas en la web y la mensajería

    Muchas implementaciones comerciales vuelven al esquema de patrones y respuestas guionadas.

  • 2020s
    Los LLMs cambian la escala, no la pregunta filosófica

    La ilusión de comprensión sigue siendo un tema central, solo que ahora con modelos muchísimo más capaces.

Curiosidades

Detalles memorables para no perder de vista

Paradoja central

Un programa modesto, un impacto inmenso

ELIZA importa menos por su complejidad técnica que por la reacción humana que supo provocar.

Elección brillante

El rol del terapeuta no fue accidental

Era el dominio ideal para sobrevivir con ambigüedad sin tener que demostrar conocimiento real.

Lección vigente

La confianza puede adelantarse a la capacidad

Eso valía en 1966 y sigue valiendo hoy con asistentes mucho más sofisticados.

Cierre

Por qué ELIZA sigue importando

ELIZA es una pieza fundacional porque obligó a pensar la IA no solo como cálculo, sino como relación. Su importancia no está en haber resuelto el lenguaje natural, sino en haber mostrado cuán fácil es para un sistema conversacional adquirir presencia social. A partir de ahí, la historia de la IA aplicada ya no es solamente una historia de técnicas, sino también de expectativas, confianza, proyección emocional y límites.

Si los modelos generativos actuales parecen asombrosos, conviene recordar que el núcleo del problema ya estaba presente en 1966: cuando una interfaz habla con suficiente fluidez, los seres humanos tendemos a atribuirle más comprensión de la que realmente tiene. ELIZA sigue siendo, por eso, el espejo incómodo de toda IA conversacional.