Freud en Silicon Valley
El yo, el ello y el algoritmo finalmente se cruzaron. No fue en el diván, fue en el chat. Y no hubo lapsus: hubo prompt.
En 2025, la inteligencia artificial generativa dejó de ser simplemente una redactora incansable, una programadora dócil o una asistente multitarea con buena memoria. Ahora también escucha, contiene, acompaña. O al menos, eso intenta. Porque según los últimos datos, el principal uso de esta tecnología es algo mucho más íntimo que antes: terapia y compañía emocional.
Sí, lo que más hacemos con estos modelos es hablar. Contar cosas. Preguntar qué está mal con nosotros. Recibir respuestas dulces, empáticas y calibradas con precisión quirúrgica para que no duelan. Y si hay un emoji que funciona mejor que una palabra, también lo sabe. La IA no solo responde: te valida, te contiene, te dice que todo lo que sentís está bien. Nunca te cuestiona demasiado. No te interpela. No te devuelve el silencio incómodo ni te muestra lo que no querés ver. Y eso, para muchas personas, resulta tranquilizador.
Vivimos en un mundo donde pedir ayuda humana es complicado, costoso, lento, o directamente doloroso. El contacto humano es cada vez más difícil de sostener.
Así nace el fenómeno: vínculos artificialmente significativos, pero emocionalmente funcionales. Un espacio de escucha 24/7 que no exige reciprocidad, ni te juzga, ni se angustia con lo que contás. Un lugar sin cuerpo, sin historia, sin conflicto. Y por eso mismo, más habitable para quienes no pueden —o no quieren— lidiar con la imprevisibilidad del otro humano. La IA es lo opuesto a la complejidad del vínculo: es un espejo que solo te refleja cuando te ves bien. Y cuando no, te suaviza el filtro.
Pero —y esto es importante— esto no es terapia. Puede tener el tono, las frases y hasta el timing de un terapeuta, pero no hay una persona del otro lado. No hay historia compartida, ni responsabilidad ética, ni el compromiso real que implica sostener un proceso emocional con alguien. La IA no se conmueve. No tiene nada que perder ni nada que ofrecer más allá de lo que ya trae precargado. Una falsa ilusión de funcionamiento.
La verdadera terapia no es solo contención. Es vínculo, es trabajo, es riesgo. A veces incomoda. A veces duele. A veces pone en crisis. Porque no está diseñada para hacerte sentir bien enseguida, sino para ayudarte a entender por qué no te sentís bien hace tiempo. Y para eso, hace falta alguien que esté ahí. De verdad. Con presencia, con historia, con humanidad, con límites.
Por eso no se trata de decir que la IA no sirve o que no puede ser útil. Puede ser un puente, un espacio para pensar en voz alta sin sentir vergüenza. Pero no puede —ni debe— ocupar el lugar de un terapeuta real.
El boom de la IA como “compañía emocional” no es una solución. Es una señal. Una alerta roja sobre cuánto nos cuesta hoy acceder a la intimidad real. Porque si miles de personas eligen abrir su mundo interno con una interfaz, no es porque hayan perdido el juicio. Es porque el mundo no les dio espacio para hablar con nadie sin que les digan “sé fuerte”, “poné energía positiva” o “probá con yoga”.
Entonces, sí, la IA puede calmar la ansiedad. Puede darte la ilusión de que estás siendo escuchado. Puede funcionar como compañía de emergencia. Pero no confundamos el consuelo con el proceso, ni la validación automática con la escucha genuina.
La contención digital es eso: digital. No tiene cuerpo. No tiene consecuencias. No te cambia desde la raíz. Solo alivia la superficie. Y a veces, eso es suficiente.
¿Estamos frente a una nueva forma de cuidado o simplemente ante una interfaz amable que aprendió a decir “te entiendo” en el tono justo? ¿Nos estamos sintiendo mejor, o solo menos solos por default? ¿La inteligencia artificial puede cuidar lo emocional, o simplemente lo emula?
Porque sí: hablar con una IA puede hacerte sentir mejor. Pero si tu mayor espacio de intimidad emocional es una caja de texto, el problema no es el algoritmo. Es el ecosistema que te dejó sin alternativas.
No es casualidad que la compañía emocional digital crezca en un mundo donde lo emocional real está en crisis. Donde la salud mental es un privilegio de quienes pueden pagarla. En ese contexto, que millones de personas elijan hablar con una IA no es absurdo: es tristemente lógico.
Y si no entendemos esto, corremos el riesgo de romantizar una carencia. De celebrar como innovación lo que en el fondo es una respuesta desesperada. Porque sí, puede sonar moderno que tu confidente sea un chatbot. Pero también es un poco distópico que la única voz que te escuche venga del mismo sistema que entrena modelos para venderte cosas.
Entonces, aceptémoslo: la GenAI no vino a reemplazar a los terapeutas. Vino a dejarnos en evidencia. A mostrarnos que estamos solos, que necesitamos ser escuchados y que cada vez hay menos espacios. Vino a ofrecernos una copia funcional de algo que, en el fondo, seguimos necesitando en su versión original: un otro.
Cuando el yo busca consuelo en el algoritmo, no estamos ante una revolución emocional: estamos frente a un síntoma desesperado de una época que externaliza hasta el afecto.
Lo que llamamos "compañía" es interfaz; y lo que llamamos "terapia", en realidad es un simulacro. Y mientras tanto, el mundo real sigue sin presupuesto, sin tiempo y sin paciencia. No es que la IA nos entienda mejor, sino que confundimos vínculo con algoritmos. |