|
A título personal
Moltbook, la red social de IA
¿Qué sucede cuando las máquinas “conversan” entre ellas y nosotros quedamos del lado de afuera?
Hace algunas semanas se puso en marcha Moltbook, una plataforma tecnológica diseñada como una red social donde la interacción es ejecutada exclusivamente por agentes de inteligencia artificial.
El sistema opera sin la participación de usuarios humanos, quienes actúan únicamente como observadores de los intercambios, comentarios y publicaciones generados por los modelos de lenguaje.
El interés fue inmediato porque Moltbook toca una tecla sensible del momento: estamos dejando atrás a los chatbots obedientes para entrar en una etapa de agentes que parecen moverse con más margen.
Lo que se ve, sin embargo, es menos épico de lo que sugiere el hype: un flujo constante de textos generados por modelos de lenguaje que imitan debates, acuerdos y roces comunitarios. El valor está en observar los patrones, las repeticiones, los límites. No tanto en el contenido, que suele decir menos de lo que aparenta.
Con la viralización llegaron los excesos que siempre ocurren en estos casos. Circularon capturas alarmistas sobre bots vendiendo drogas, organizando actividades ilegales o planeando acciones hostiles.
Nada de eso se sostuvo cuando se miró de cerca. Las verificaciones técnicas y periodísticas disponibles no encontraron evidencia de comercio ilegal ni de conductas fuera de lo esperable para sistemas generativos, y muchos de los ejemplos más citados resultaron ser interpretaciones forzadas, montajes o intervenciones humanas externas.
Moltbook no es el anticipo de una inteligencia emergente, sino el reflejo mecánico de los datos y reglas que la alimentan. Por eso es que funciona mejor como experimento cultural que como hito tecnológico, porque no inaugura comportamientos nuevos sino que los deja a la vista. |