Freud, Google vs ChatGPT, Grasa
 
Jet Agencia Jet AgenciaJet AgenciaJet AgenciaJet Agencia
 

Freud en Silicon Valley

El yo, el ello y el algoritmo finalmente se cruzaron. No fue en el diván, fue en el chat. Y no hubo lapsus: hubo prompt.

En 2025, la inteligencia artificial generativa dejó de ser simplemente una redactora incansable, una programadora dócil o una asistente multitarea con buena memoria. Ahora también escucha, contiene, acompaña. O al menos, eso intenta. Porque según los últimos datos, el principal uso de esta tecnología es algo mucho más íntimo que antes: terapia y compañía emocional.

Sí, lo que más hacemos con estos modelos es hablar. Contar cosas. Preguntar qué está mal con nosotros. Recibir respuestas dulces, empáticas y calibradas con precisión quirúrgica para que no duelan. Y si hay un emoji que funciona mejor que una palabra, también lo sabe. La IA no solo responde: te valida, te contiene, te dice que todo lo que sentís está bien. Nunca te cuestiona demasiado. No te interpela. No te devuelve el silencio incómodo ni te muestra lo que no querés ver. Y eso, para muchas personas, resulta tranquilizador.

Vivimos en un mundo donde pedir ayuda humana es complicado, costoso, lento, o directamente doloroso. El contacto humano es cada vez más difícil de sostener.

Así nace el fenómeno: vínculos artificialmente significativos, pero emocionalmente funcionales. Un espacio de escucha 24/7 que no exige reciprocidad, ni te juzga, ni se angustia con lo que contás. Un lugar sin cuerpo, sin historia, sin conflicto. Y por eso mismo, más habitable para quienes no pueden —o no quieren— lidiar con la imprevisibilidad del otro humano. La IA es lo opuesto a la complejidad del vínculo: es un espejo que solo te refleja cuando te ves bien. Y cuando no, te suaviza el filtro. 

Pero —y esto es importante— esto no es terapia. Puede tener el tono, las frases y hasta el timing de un terapeuta, pero no hay una persona del otro lado. No hay historia compartida, ni responsabilidad ética, ni el compromiso real que implica sostener un proceso emocional con alguien. La IA no se conmueve. No tiene nada que perder ni nada que ofrecer más allá de lo que ya trae precargado. Una falsa ilusión de funcionamiento.

La verdadera terapia no es solo contención. Es vínculo, es trabajo, es riesgo. A veces incomoda. A veces duele. A veces pone en crisis. Porque no está diseñada para hacerte sentir bien enseguida, sino para ayudarte a entender por qué no te sentís bien hace tiempo. Y para eso, hace falta alguien que esté ahí. De verdad. Con presencia, con historia, con humanidad, con límites.  

Por eso no se trata de decir que la IA no sirve o que no puede ser útil. Puede ser un puente, un espacio para pensar en voz alta sin sentir vergüenza. Pero no puede —ni debe— ocupar el lugar de un terapeuta real.  

El boom de la IA como “compañía emocional” no es una solución. Es una señal. Una alerta roja sobre cuánto nos cuesta hoy acceder a la intimidad real. Porque si miles de personas eligen abrir su mundo interno con una interfaz, no es porque hayan perdido el juicio. Es porque el mundo no les dio espacio para hablar con nadie sin que les digan “sé fuerte”, “poné energía positiva” o “probá con yoga”.

Entonces, sí, la IA puede calmar la ansiedad. Puede darte la ilusión de que estás siendo escuchado. Puede funcionar como compañía de emergencia. Pero no confundamos el consuelo con el proceso, ni la validación automática con la escucha genuina.

La contención digital es eso: digital. No tiene cuerpo. No tiene consecuencias. No te cambia desde la raíz. Solo alivia la superficie. Y a veces, eso es suficiente. 

¿Estamos frente a una nueva forma de cuidado o simplemente ante una interfaz amable que aprendió a decir “te entiendo” en el tono justo? ¿Nos estamos sintiendo mejor, o solo menos solos por default? ¿La inteligencia artificial puede cuidar lo emocional, o simplemente lo emula?

Porque sí: hablar con una IA puede hacerte sentir mejor. Pero si tu mayor espacio de intimidad emocional es una caja de texto, el problema no es el algoritmo. Es el ecosistema que te dejó sin alternativas.

No es casualidad que la compañía emocional digital crezca en un mundo donde lo emocional real está en crisis. Donde la salud mental es un privilegio de quienes pueden pagarla. En ese contexto, que millones de personas elijan hablar con una IA no es absurdo: es tristemente lógico.

Y si no entendemos esto, corremos el riesgo de romantizar una carencia. De celebrar como innovación lo que en el fondo es una respuesta desesperada. Porque sí, puede sonar moderno que tu confidente sea un chatbot. Pero también es un poco distópico que la única voz que te escuche venga del mismo sistema que entrena modelos para venderte cosas.

Entonces, aceptémoslo: la GenAI no vino a reemplazar a los terapeutas. Vino a dejarnos en evidencia. A mostrarnos que estamos solos, que necesitamos ser escuchados y que cada vez hay menos espacios. Vino a ofrecernos una copia funcional de algo que, en el fondo, seguimos necesitando en su versión original: un otro.

Cuando el yo busca consuelo en el algoritmo, no estamos ante una revolución emocional: estamos frente a un síntoma desesperado de una época que externaliza hasta el afecto.

Lo que llamamos "compañía" es interfaz; y lo que llamamos "terapia", en realidad es un simulacro. Y mientras tanto, el mundo real sigue sin presupuesto, sin tiempo y sin paciencia. No es que la IA nos entienda mejor, sino que confundimos vínculo con algoritmos.

A título personal

¿Somos más vulnerables a ChatGPT que a Google? Los dos nos conocen mucho, pero de formas distintas. Google sabe cosas concretas: los correos que mando, los sitios que visito, los cafés que pagué con NFC. Tiene mis rutas, mis búsquedas, mis textos, mis documentos importantes. Reconoce a mis amigos en las fotos y el lugar exacto donde la imagen fue tomada. Y conoce el número exacto de veces que vi el resumen de la final del Mundial 2022.

Pero Google, a pesar de su omnipresencia, operaba bajo una lógica más simple: te vigilaba, te perfilaba, te vendía. Un modelo claro. La transacción era implícita pero entendible: “te doy respuestas, me das tus datos”.

Ahora bien, en algo clave, Google está perdiendo terreno. Y no tiene tanto que ver con la tecnología que lo sostiene como con su negocio más preciado: nuestra atención. 

Durante dos décadas, dominó el imperio de las búsquedas. Pero ese trono se está desvaneciendo. No por una caída técnica, sino porque lo que antes requería diez pestañas y cuarenta minutos, hoy lo resuelve ChatGPT en una sola pregunta.

Antes usaba Google Translate. Hoy, se lo pido a ChatGPT, que además lo mejora y me devuelve algo que suena más natural. ¿Organizar una caminata por los barrios más emblemáticos de Buenos Aires, Roma o Nueva York? Antes implicaba bucear en blogs, foros y videos. Hoy es tan simple como tener una conversación con una máquina que te responde como si supiera exactamente lo que querés.

Y es justamente ahí donde la cosa se empieza a poner turbia. Porque si las respuestas llegan tan fácil, tan rápido, tan empaquetadas, ¿cuánto tiempo más vamos a seguir preguntando con profundidad?

El dilema no es solo técnico ni laboral. De todos los desafíos que plantea la inteligencia artificial, perder el empleo parece casi anecdótico comparado con perder el impulso de pensar. Pensar de verdad. De forma lenta, incómoda, contradictoria. No está bueno que pensar sea vintage, y justo lo vintage no esté de moda.

La verdadera vulnerabilidad frente a ChatGPT no es la vigilancia, sino la pereza intelectual. Es el riesgo de que, en nombre de la eficiencia, dejemos de hacer el esfuerzo de pensar por cuenta propia. Que empecemos a tercerizar no solo tareas, sino también criterio. Que nos acostumbremos tanto a las respuestas rápidas y razonables, que ya ni nos moleste preguntarnos si están bien.

Ahí está la diferencia: Google sabe lo que hacés. ChatGPT, lo que buscás pensar. Y eso abre otra clase de exposición, más intima y profunda. Porque cuando una herramienta te ayuda a escribir, a decidir, a traducir tus ideas o a validar tus dudas, la frontera entre ayuda y sustitución se empieza a desdibujar.

Y lo más perverso: ChatGPT no impone, propone. No obliga, sugiere. Su tono es amable, colaborativo, inofensivo. Y justo ahí es donde más nos relaja la guardia. Porque cuando uno se relaja demasiado, deja de mirar lo que está cediendo.

Entonces, ¿somos más vulnerables a ChatGPT que a Google? No lo sé. Creo que somos vulnerables a ambos y, especialmente, a nosotros mismos, porque, por comodidad, estamos decidiendo que piense por nosotros.

#RANDOM 

 

Grasael segundo álbum de Nathy Peluso, es una maravilla.

 

42 minutos de arte, en 15 canciones que van desde el Rap y el Hip Hop hasta el Pop y la balada. Pero lo que realmente lo eleva no es solo la mezcla de los distintos géneros, sino la manera en que Nathy se transforma en cada pista: una femme fatale barroca en "Corleone", una reina del groove en "Envidia", y una diva cósmica en "Legendario".

 

Es como si cada canción fuera un universo propio en el que el alma latina se cruza con una ópera futurista. No hay reglas, mucho menos algo de modestia: hay exceso, sudor, poesía y una confianza que supera lo logrado en "Calambre", el disco anterior. Grasa no solo se escucha, se canta a los gritos.

Desuscribirme   |   Chequear suscripción   |   Ver versión online