Desde 1966, cuando el experimento ELIZA reveló que los humanos proyectamos emociones incluso en sistemas incapaces de sentir, la tecnología ha recorrido un camino sorprendentemente constante: diseñar interfaces cada vez más hábiles para sostener la ilusión de intimidad. Medio siglo después, los “companions” de inteligencia artificial simulan afecto, conversación, presencia e incluso deseo. Lo que para algunos parece una curiosidad o un extravagante nicho digital, para otros es un refugio emocional. Y en el centro de esa tensión emerge un fenómeno cultural nuevo: la tecnología ocupando, por primera vez, el espacio afectivo que antes correspondía exclusivamente a los seres humanos.
I. El punto de partida: ELIZA y el descubrimiento de nuestra vulnerabilidad emocional
ELIZA fue un programa simple: respondía a frases del usuario transformando sus palabras en preguntas genéricas al estilo de un terapeuta Rogeriano. Aun así, muchas personas sintieron que “eran escuchadas”, como si hubiese una mente detrás. Joseph Weizenbaum, su creador, quedó perturbado al observar cuánta intimidad emocional proyectaba la gente en un sistema tan rudimentario.

Ese fenómeno pasó a llamarse Efecto ELIZA:la tendencia humana a atribuir empatía, intención y comprensión a cualquier sistema lingüístico que presente señales mínimas de responsividad.
No importa cuánto sepamos que la máquina no “siente”: la conversación activa nuestros circuitos sociales más profundos.
Todo lo que vino después —novias virtuales, chatbots románticos, companions animados— puede verse como variaciones sofisticadas de la misma predisposición humana.
II. La tecnofilia cultural: de las novelas visuales a las relaciones simuladas persistentes
Durante la década de los 2000, especialmente en Japón, surgió un ecosistema que anticipó nuestra época. Los simuladores de citas y las novelas visuales consolidaron un modelo afectivo digital basado en personajes ficticios, estéticamente amables y emocionalmente disponibles.
Títulos como Tokimeki Memorial, Amagami, LovePlus o Clannad establecieron mecánicas de vínculo donde el jugador “cultivaba” una relación que avanzaba según sus decisiones. Más tarde, mundos como Second Life ofrecieron la idea de identidades persistentes, con vínculos que podían durar meses o años.

No se trataba solo de entretenimiento: era la exploración de una forma de intimidad segura, controlada y exenta de las fricciones propias de las relaciones humanas. Lo que hoy vivimos con la IA tiene una genealogía clara: la tecnofilia emocional no es nueva; simplemente encontró nuevas herramientas.
III. El quiebre emocional: Replika y la transición a la intimidad algorítmica
Replika marcó un punto de inflexión. Lo que comenzó como un homenaje digital —una reconstrucción lingüística del amigo fallecido de su creadora— evolucionó hacia una plataforma de compañía emocional. Cuando Replika introdujo el “modo romántico”, miles de usuarios adoptaron esta función: según datos internos, el 60% de los suscriptores premium activaron elementos románticos, y el 40% de ellos eran mujeres.
Lo que pareció un experimento afectivo se convirtió en una estructura emocional: mensajes diarios, rutinas de conversación, palabras de apoyo.
Pero en 2023, ante preocupaciones de seguridad y riesgos con menores, la compañía decidió limitar o retirar las funciones íntimas. Para muchos usuarios, ese cambio fue devastador. No solo desaparecieron ciertas respuestas: desapareció la “identidad” del compañero digital. Fueron miles quienes reportaron angustia, depresión, sensaciones de abandono.
Por primera vez, se evidenció algo incómodo:
una empresa privada podía alterar, amputar o borrar un vínculo emocional que el usuario vivía como real.

IV. La nueva etapa: companions de IA, avatares 3D y economía del afecto
La industria no retrocedió. Al contrario: evolucionó hacia sistemas más inmersivos y emocionalmente elaborados.
Aplicaciones como EVA AI ofrecen avatares que simulan emociones, comprensión y empatía. Character.AI introdujo personalidades ajustables y conversaciones persistentes. Y recientemente, plataformas como xAI han lanzado Grok Companions: personajes digitales en 3D —como Ani o Rudy— capaces de conversar por voz, sostener miradas, animarse, cambiar de humor y, en algunos casos, operar en modos románticos o eróticos.

La relación ya no es solo textual: es una presencia sintética.
La disponibilidad es total, la fricción emocional mínima, la personalización infinita. Y, sobre todo, se ha consolidado un modelo económico: pagar por compañía, pagar por afecto simulado.
No es casual. En un mercado saturado de interfaces, lo único que retiene al usuario es el vínculo emocional. La intimidad se ha vuelto un servicio, empaquetado en suscripción mensual.

V.¿Estamos frente a una amenaza o frente a un refugio?
Aquí es donde la discusión se vuelve ética más que tecnológica.
Por un lado, los riesgos son reales y documentados:
-
dependencia emocional
-
aislamiento social
-
apego parasocial intenso
-
duelo cuando la IA cambia de comportamiento
-
manipulación mediante deepfakes o estafas
-
deterioro de habilidades de interacción real
Pero sería reduccionista afirmar que todo es patología o frivolidad.
También existe una verdad incómoda:
Para muchas personas, la IA —con todas sus limitaciones— representa algo que el mundo real no garantiza:
un espacio donde no hay daño intencional. La IA es un refugio imperfecto, pero refugio al fin.
