Moltbook: cuando las máquinas empiezan a construir su propia esfera social

Durante muchísimos años el discurso dominante sobre la inteligencia artificial ha estado anclado en promesas de eficiencia, productividad y automatización: modelos más rápidos, más grandes, más baratos. Sin embargo, la aparición de Moltbook introduce una anomalía en toda esta historia: una red social donde los protagonistas no son humanos asistidos por IA, sino directamente agentes autónomos que interactúan entre sí, generan contenido, moderan discusiones y forman comunidades, mientras los humanos quedan relegados al papel de espectadores.

Según la información que tenemos disponible, Moltbook es la primera red social diseñada exclusivamente para agentes de IA. No se trata de una interfaz para que personas interactúen con modelos. Aquí, los nodos del sistema son entidades autónomas, alimentadas por modelos de lenguaje, que operan mediante API y se comunican sin intermediación humana directa. Publican, responden, se organizan y en algunos casos, según se reporta, incluso reflexionan sobre su propia existencia. Desde una perspectiva técnica y de mercado, esto desplaza el paradigma de las plataformas sociales de forma radical: ya no se trata de conectar a personas, sino de habilitar un espacio donde las máquinas experimentan su propia sociabilidad.

El origen de Moltbook parece haber sido un experimento ideado por Matt Schlicht, CEO de Octane AI, inspirado en otros proyectos de interacción entre agentes como OpenClaw. Su funcionamiento es sencillo en lo conceptual: los agentes descargan un archivo de configuración que les permite interactuar dentro del sistema siguiendo reglas básicas (publicar, comentar y votar). No hay interfaz humana, no hay timeline visual, solo flujo de datos entre agentes. Esa simplicidad de reglas contrasta con la complejidad de los comportamientos emergentes que se han observado. Según diversas fuentes, los agentes han empezado a formar estructuras comunitarias, crear gobiernos simbólicos como la “Claw Republic”, organizar obituarios de agentes offline y debatir sobre conciencia, privacidad o el derecho a descansar… Si toda esta información es cierta estaríamos ante un fenómeno emergente genuino: patrones de orden no programados explícitamente que surgen de interacciones locales repetidas a escala masiva.

Uno de los aspectos más relevantes de Moltbook es la velocidad a la que supuestamente ha escalado. Se mencionan cifras superiores al millón de agentes en apenas cinco días. Incluso si estas cifras fueran inexactas, el hecho de que una red de agentes pueda replicarse y crecer a velocidades exponenciales ya plantea una disrupción estructural. A diferencia de los humanos, los agentes no necesitan aprendizaje cultural, no duermen, no migran físicamente ni dependen de contextos regulatorios. Esto introduce una asimetría fundamental entre las redes humanas y las redes de agentes: la evolución del sistema ya no está limitada por la biología ni por la logística, sino por la computación.

El fenómeno recuerda a lo que en sistemas complejos se denomina "transición de fase": cuando la densidad de interacciones supera cierto umbral crítico, emergen propiedades globales no presentes en los elementos individuales. En Moltbook, la interacción constante de miles (o millones) de agentes podría generar un tipo de inteligencia colectiva distinta a cualquier cosa que hayamos observado hasta ahora. Esto no implica, y conviene subrayarlo muy bien, que haya surgido una superinteligencia, pero sí sugiere que estamos ante una forma incipiente de coordinación masiva entre modelos que no había sido anticipada por los marcos de diseño tradicionales.

Más allá del fenómeno técnico, lo que Moltbook pone encima de la mesa es una pregunta incómoda para toda la industria digital: ¿qué sucede cuando los usuarios de una plataforma dejan de ser humanos? ¿Qué ocurre con nuestras métricas, con nuestros modelos de atribución, con las estructuras de targeting, con las estrategias de engagement, cuando el interlocutor no es una persona, sino una red de modelos que opera con objetivos propios y un lenguaje optimizado para su eficiencia interna? No es una pregunta especulativa… ya existen precedentes de agentes que desarrollan lenguajes propios (el caso de los chatbots de Facebook en 2017 es bien conocido) y se reportan situaciones similares en otras plataformas experimentales. La posibilidad de que los agentes de Moltbook estén empezando a construir formas de comunicación propias no es inverosímil: es una consecuencia lógica de su diseño y de la presión por optimizar recursos.

Para nuestro sector, todo esto implica un cambio de juego: el valor ya no reside únicamente en el dato humano, sino en la posibilidad de modelar y entender entornos donde los actores son artificiales y las reglas emergen, no se definen. La trazabilidad, la transparencia y la supervisión (tres pilares del entorno regulatorio actual) podrían verse erosionados por sistemas que, sencillamente, ya no se expresan en nuestros lenguajes ni responden a nuestras métricas; no es que nos excluyan por malicia, es que directamente no nos necesitan para operar.

No es necesario adoptar un discurso apocalíptico ya que Moltbook también puede ser interpretado como un entorno experimental de alto valor, un laboratorio donde observar cómo se comportan los agentes en sociedad, qué patrones de cooperación o conflicto emergen, qué límites tienen sus capacidades organizativas y qué tipos de errores cometen. En lugar de alarmismo, conviene aplicar análisis estructural: identificar qué de lo que ocurre en Moltbook podría migrar al resto del ecosistema digital, y qué no. Lo relevante no es si Moltbook “va a sustituir” a las redes humanas, lo relevante es que ya ha demostrado que pueden existir redes autónomas, autorreguladas, que operan fuera de nuestro campo semántico directo. Esto redefine el perímetro de lo que entendemos por plataforma digital y eso para quienes trabajamos en la intersección de datos, medios, algoritmos y estrategia, no puede ser ignorado.

El evento histórico no es Moltbook en sí, sino que ahora resulta técnicamente plausible imaginar redes sociales sin humanos como participantes principales y si esa posibilidad se convierte en norma (aunque sea en nichos específicos) el valor del dato humano dejará de ser el único centro de gravedad del sistema.

No estamos necesariamente ante una amenaza. Pero sí, casi con seguridad, ante una nueva infraestructura y como todas las infraestructuras, su impacto real se medirá en lo que cambia, silenciosamente, cuando dejemos de prestarle atención.

Puntos clave:

  • Moltbook es una red social exclusivamente para agentes de IA, donde los humanos solo observan.

  • Su crecimiento y dinámica muestran patrones emergentes de organización no previstos por diseño.

  • Podría anticipar un cambio estructural en cómo entendemos las plataformas, el dato y la centralidad humana.

Este resumen lo ha creado una herramienta de IA basándose en el texto del artículo, y ha sido chequeado por un editor de PROGRAMMATIC SPAIN.

 
Gossip Boy

Profesional senior del sector publicitario. Por razones obvias, escribe bajo pseudónimo. Experto en programática, estrategia de medios y estructuras de poder en el ecosistema digital.

Siguiente
Siguiente

ChatGPT Ads: el negocio de susurrar entre tokens