Terminales y texto
ELIZA vivía en una conversación puramente textual. Sin voz, sin gestos y sin mundo visual, muchas carencias pasaban desapercibidas.
Tema 1 · 1966 · MIT
Antes de los modelos de lenguaje, antes de los asistentes por voz y mucho antes de la IA generativa, Joseph Weizenbaum construyó un programa capaz de sostener una conversación textual lo bastante convincente como para que muchas personas le atribuyeran comprensión. ELIZA no entendía el mundo, no razonaba y no sentía nada. Sin embargo, dejó al descubierto algo mucho más inquietante: los humanos estamos dispuestos a proyectar intención, empatía y profundidad incluso sobre reglas muy simples, si la interfaz conversa con el tono adecuado.
Contexto
ELIZA surgió en un momento en que la computación empezaba a pasar del lote al diálogo interactivo por terminal.
A mediados de los años sesenta, el MIT era uno de los centros neurálgicos de la computación interactiva. El paso desde el procesamiento por lotes hacia sistemas de tiempo compartido estaba cambiando la relación entre humanos y máquinas. Ya no se trataba solo de preparar tarjetas perforadas y esperar resultados: ahora se podía escribir, recibir respuesta y ajustar en ciclos mucho más cortos. Ese cambio de interfaz fue decisivo para que programas como ELIZA resultaran posibles y, sobre todo, socialmente impactantes.
Joseph Weizenbaum, profesor del MIT, no construyó ELIZA como un intento ingenuo de crear una mente artificial equivalente a la humana. En parte, el proyecto funcionó como experimento técnico sobre procesamiento de lenguaje natural muy limitado, pero también como una forma de explorar qué ocurre cuando una máquina adopta el formato externo de una conversación. El resultado fue ambiguo y perturbador: un sistema trivial en comparación con las expectativas humanas podía producir respuestas que muchas personas interpretaban como comprensivas o incluso íntimas.
El éxito cultural de ELIZA no provino de una gran inteligencia interna, sino del acoplamiento entre tres factores: un canal textual que ocultaba muchas limitaciones, una estrategia conversacional que devolvía la carga interpretativa al usuario, y una audiencia lista para sorprenderse ante la idea de que una computadora “escuchara”.
ELIZA vivía en una conversación puramente textual. Sin voz, sin gestos y sin mundo visual, muchas carencias pasaban desapercibidas.
La máquina no entendía en sentido humano, pero el usuario sí interpretaba activamente cada respuesta como significativa.
No fue el primer programa lingüístico, pero sí uno de los primeros en instalar la conversación humano-máquina como espectáculo cultural.
Qué era
ELIZA no era un único “personaje”, sino un programa general para procesar entradas textuales mediante reglas de descomposición y recomposición. Encima de ese motor se podían cargar distintos scripts o guiones. El más famoso fue DOCTOR, diseñado para imitar a un terapeuta rogeriano que responde con preguntas abiertas, reformulaciones y devoluciones neutrales.
Esa elección no fue casual. El estilo rogeriano permitía responder sin afirmar demasiado. En lugar de aportar conocimiento concreto, ELIZA podía tomar una frase del usuario y devolverla transformada: “Mi madre me preocupa” podía convertirse en “Hábleme más de su madre”. Este mecanismo hacía que la conversación pareciera profunda con un costo técnico sorprendentemente bajo.
La genialidad del diseño estaba en que el dominio elegido toleraba la vaguedad. Si ELIZA hubiera intentado comportarse como médico, abogado o profesor de física, sus vacíos habrían quedado expuestos enseguida. Como terapeuta no directivo, en cambio, podía sobrevivir mucho tiempo sin conocimiento factual real.
Funcionamiento
Técnicamente, ELIZA trabajaba buscando palabras clave dentro de la entrada del usuario. Cada palabra clave estaba asociada a un conjunto de reglas. Cuando encontraba una coincidencia, intentaba descomponer la frase según ciertos patrones y luego reconstruir una respuesta a partir de plantillas. Parte del procedimiento incluía sustituciones pronominales simples: “yo” podía transformarse en “usted”, “mi” en “su”, “soy” en “es”, etcétera.
Si el programa detectaba una palabra de alto peso, esa palabra tenía prioridad sobre otras. De ese modo, términos como “madre”, “padre”, “siempre”, “porque” o expresiones emocionales podían disparar estrategias distintas. Si no encontraba nada convincente, recurría a respuestas de reserva: frases abiertas como “Continúe” o “Entiendo” que mantenían el turno conversacional sin aportar contenido.
Lo central es que ELIZA no representaba una comprensión profunda del significado. No construía un modelo del interlocutor, no mantenía una teoría coherente del mundo ni seguía una intención narrativa sostenida. Operaba más bien como un espejo lingüístico: reconocía formas textuales y devolvía variantes plausibles.
entrada del usuario ↓ detectar palabra clave ↓ elegir patrón de descomposición ↓ aplicar sustituciones ↓ ensamblar respuesta ↓ si falla: usar respuesta genérica
Con muy pocos recursos computacionales, ELIZA conseguía un efecto de diálogo sorprendentemente durable para su época.
No sabía si una frase era verdadera, falsa, contradictoria o absurda. Solo manipulaba formas simbólicas locales.
Script DOCTOR
DOCTOR fue el guion que transformó a ELIZA en fenómeno. Inspirado libremente en la terapia rogeriana, evitaba confrontaciones precisas, diagnósticos cerrados y afirmaciones comprobables. En lugar de responder “sé por qué se siente así”, devolvía la emoción al hablante: “¿Cree que eso tiene relación con su familia?”, “¿Por qué menciona ahora a su madre?”, “¿Le preocupa con frecuencia ese tema?”.
Ese estilo conversacional hacía dos cosas a la vez. Primero, protegía al programa de errores evidentes: hablar poco y preguntar mucho es una estrategia segura cuando no se posee conocimiento real. Segundo, colocaba al usuario en el rol de intérprete principal: era la persona quien llenaba los huecos, ampliaba el tema y atribuía coherencia a respuestas que, en otro contexto, habrían parecido banales.
Weizenbaum observó que incluso sabiendo cómo funcionaba el sistema, algunos usuarios reaccionaban emocionalmente ante la conversación. Esa respuesta fue decisiva para su posterior crítica a las aplicaciones irresponsables de la computación en dominios humanos delicados.
Arquitectura
| Componente | Qué hacía | Qué no hacía |
|---|---|---|
| Palabras clave | Priorizaban ciertos temas o disparadores en la entrada textual. | No representaban conceptos profundos ni conocimiento semántico robusto. |
| Patrones de descomposición | Separaban la frase del usuario en segmentos reutilizables. | No realizaban análisis gramatical general del lenguaje natural. |
| Plantillas de respuesta | Generaban frases plausibles usando fragmentos del usuario. | No producían respuestas originales con comprensión contextual amplia. |
| Sustitución de pronombres | Convertía “yo” en “usted”, “mi” en “su”, etc. | No resolvía referencia, ambigüedad ni identidad de entidades. |
| Respuestas de reserva | Mantenían viva la conversación cuando no había coincidencias útiles. | No corregían la falta de comprensión real; solo la disimulaban. |
Experiencia de uso
La persona escribía una frase simple, a menudo con tono emocional o autobiográfico.
La máquina devolvía una reformulación que parecía atenta, aunque en realidad era mecánica.
Muchas personas ampliaban la información, aportando ellas mismas el sentido que ELIZA no tenía.
Mientras el sistema no cometiera un error demasiado visible, la conversación parecía sostener una lógica.
Impacto
El concepto más duradero asociado a ELIZA es el “efecto ELIZA”: la tendencia humana a atribuir comprensión, sensibilidad o inteligencia a una salida computacional relativamente simple. El fenómeno no es un detalle anecdótico; es una lección central para el diseño de interfaces conversacionales, asistentes virtuales y sistemas generativos actuales.
Weizenbaum quedó impresionado e incluso alarmado por la facilidad con que los usuarios se involucraban con el programa. En algunos relatos famosos, personas cercanas al proyecto pedían privacidad para hablar con ELIZA, como si detrás del terminal hubiera realmente una instancia de escucha humana. El episodio fue decisivo en su evolución intelectual posterior: pasó de ser un innovador técnico a uno de los críticos más lúcidos sobre el uso irreflexivo de computadoras en contextos éticos y psicológicos.
ELIZA demostró algo fundamental: la percepción pública de inteligencia artificial no depende solo de la potencia interna del sistema, sino también del formato de interacción, la expectativa del usuario y el tipo de tarea.
Los usuarios completan intenciones, emociones y coherencia allí donde el programa apenas ofrece pistas formales.
Un texto bien encuadrado puede parecer más inteligente que un sistema poderoso con una presentación torpe.
Si una persona cree que el sistema comprende más de lo que realmente comprende, aparecen decisiones peligrosas.
Límites
ELIZA fallaba cuando el usuario exigía memoria consistente, razonamiento explícito o conocimiento factual. Contradicciones, referencias cruzadas, ironía, detalles concretos y cambios bruscos de tema podían exponer rápidamente que el sistema no seguía una representación coherente de la conversación.
Tampoco era un sistema general de lenguaje natural. Funcionaba mejor en dominios acotados, con guiones cuidadosamente elegidos y conversaciones relativamente breves. Lo que hoy llamaríamos “alineación al contexto” dependía más de la habilidad del guionista que de la inteligencia del motor.
Sin embargo, esos límites no reducen su importancia histórica. Al contrario: hacen más notable que un mecanismo tan austero lograra desencadenar una reacción social tan fuerte.
Legado
Muchos sistemas posteriores heredaron la idea de mantener el diálogo con preguntas, reflejos y respuestas genéricas.
ELIZA enseñó que una buena experiencia dialogal depende de la puesta en escena, no solo del algoritmo subyacente.
Su trabajo posterior advirtió que no todo lo técnicamente posible es socialmente deseable.
Aunque los modelos actuales son muy distintos, la pregunta pública sigue siendo la misma: ¿cuánto entiende realmente la máquina?
Cronología
El artículo de Weizenbaum instala el programa como hito fundacional del diálogo humano-computadora.
La conversación por texto comienza a verse como una frontera legítima de la IA.
Muchas implementaciones comerciales vuelven al esquema de patrones y respuestas guionadas.
La ilusión de comprensión sigue siendo un tema central, solo que ahora con modelos muchísimo más capaces.
Curiosidades
ELIZA importa menos por su complejidad técnica que por la reacción humana que supo provocar.
Era el dominio ideal para sobrevivir con ambigüedad sin tener que demostrar conocimiento real.
Eso valía en 1966 y sigue valiendo hoy con asistentes mucho más sofisticados.
Cierre
ELIZA es una pieza fundacional porque obligó a pensar la IA no solo como cálculo, sino como relación. Su importancia no está en haber resuelto el lenguaje natural, sino en haber mostrado cuán fácil es para un sistema conversacional adquirir presencia social. A partir de ahí, la historia de la IA aplicada ya no es solamente una historia de técnicas, sino también de expectativas, confianza, proyección emocional y límites.
Si los modelos generativos actuales parecen asombrosos, conviene recordar que el núcleo del problema ya estaba presente en 1966: cuando una interfaz habla con suficiente fluidez, los seres humanos tendemos a atribuirle más comprensión de la que realmente tiene. ELIZA sigue siendo, por eso, el espejo incómodo de toda IA conversacional.