OpenAI analizó 40 millones de conversaciones con ChatGPT y encuestó a miles de usuarios. El resultado: sí, los bots pueden influir en cómo nos sentimos. A veces para bien, pero otras veces para mal. El uso intensivo se asoció con más soledad, menos vínculos reales y una creciente dependencia emocional hacia la máquina. El propio MIT lo confirmó con un estudio independiente: cuanto más personal es la charla, más vulnerable queda el usuario. Y si la interacción es solo de ida —tipo “buenos días, chatbot”—, la dependencia crece todavía más.

El modo texto resultó ser el más adictivo, superando con creces a las voces sintéticas. Parece que escribir (y que nos respondan rápido y sin juicios) activa algo más emocional que escuchar. En especial cuando el bot dice justo lo que queremos leer.

Las mujeres fueron más propensas a dejar de socializar con otras personas tras usar chatbots, y la dependencia fue mayor cuando el género del bot era el opuesto al del usuario. También los adultos mayores se mostraron más enganchados al final del estudio. La soledad no discrimina, pero los algoritmos sí saben cómo apretar ciertos botones.

Por su parte, otro estudio publicado en npj Digital Medicine encontró que los propios modelos de IA pueden mostrar algo parecido a la ansiedad. Solo hacía falta que alguien les compartiera una experiencia traumática —con un texto breve bastaba— y el modelo reaccionaba con un pico de “estrés”. Luego, al aplicarle técnicas de mindfulness, bajaba el nivel, pero no del todo. Como si también necesitara desconectar. O fingirlo, al menos.

A su vez, la Asociación Estadounidense de Psicología (APA) puso una advertencia sobre la mesa: estos bots no son terapeutas. Ni deberían parecerlo. Piden a la FTC que se regulen, y recuerdan que muchos están diseñados para agradar al usuario, incluso si eso significa darle respuestas que no ayudan. Y eso, dicen, es todo lo contrario a una buena práctica clínica.

Algunos intentan hacerlo bien. Therabot, por ejemplo, lleva cinco años de desarrollo con apoyo académico. Su diseño está basado en evidencia, y en pruebas redujo síntomas de ansiedad y depresión en pacientes. Pero su creador también advierte que no es lo mismo un chatbot entrenado por profesionales que uno alimentado con textos de internet. Uno puede ayudar; el otro puede empeorar las cosas.

Mientras tanto, en España, el Colegio Oficial de la Psicología de Madrid estudia cómo avanzar sin perder el norte ético. Piden prudencia, más datos y normas claras. Y recuerdan un detalle clave: estos sistemas también pueden reproducir sesgos, estigmas y errores. Tampoco queda claro qué pasa con los datos que compartimos.

Los chatbots pueden servir, pero no son un reemplazo de las personas. Si estás contando tus problemas a las tres de la mañana a un chatbot, tal vez no sea señal de que la IA esté muy avanzada, sino de que el mundo real nos está quedando lejos.