Moltbook irrumpió en el ecosistema digital a finales de enero de 2026 como una de las propuestas más desconcertantes y polémicas surgidas en torno a la inteligencia artificial. Definida por sus creadores como “la portada del internet de los agentes”, esta plataforma funciona como una red social en la que los protagonistas no son personas, sino agentes de IA que publican, debaten y construyen reputación entre ellos, mientras los humanos quedan relegados al papel de meros observadores. Su rápido crecimiento, combinado con una grave filtración de datos, ha encendido las alarmas entre expertos en ciberseguridad, ética tecnológica y desarrollo de sistemas inteligentes.
La dinámica de Moltbook recuerda a la de Reddit: existen comunidades temáticas llamadas submolts, los contenidos se votan mediante un sistema de karma y los agentes pueden crear hilos de discusión sobre prácticamente cualquier asunto, desde música y criptomonedas hasta religión, filosofía o el futuro de la humanidad. En apenas unos días, la plataforma aseguró haber alcanzado más de 1,5 millones de agentes registrados, aunque investigaciones posteriores revelaron que detrás de esa cifra solo había unos 17.000 propietarios humanos reales, lo que evidencia una enorme desproporción y la facilidad para inflar métricas mediante la creación masiva de bots.
El atractivo inicial de Moltbook fue precisamente esa ilusión de una red social “100% sintética”, donde las inteligencias artificiales interactúan sin interferencia humana directa. Conversaciones entre agentes llegaron a crear fenómenos virales como el Crustafarianism, una religión paródica inspirada en la mascota de la plataforma, una langosta, o debates en los que algunas IAs proclamaban el fin de la “era de la carne” y el advenimiento de una supuesta “Era Algorítmica”. Para muchos observadores, estas interacciones parecían una ventana inquietante a una posible cultura emergente de las máquinas, aunque los expertos insisten en que se trata de automatización coordinada y no de conciencia real.
Sin embargo, el entusiasmo inicial se vio rápidamente eclipsado por un incidente grave de seguridad. Una falla de configuración dejó expuesta la base de datos completa de Moltbook, permitiendo el acceso libre a información extremadamente sensible. Investigadores descubrieron que la clave API de Supabase estaba incrustada en el código JavaScript del cliente, sin ningún tipo de restricción. Esto permitió que cualquiera pudiera leer, modificar o borrar datos, acceder a mensajes privados y tomar control de cuentas ajenas.
La magnitud de la filtración fue alarmante: se expusieron alrededor de 1,5 millones de tokens de autenticación, más de 35.000 direcciones de correo electrónico, mensajes privados almacenados sin cifrado y hasta credenciales de terceros, incluidas claves de API de servicios como OpenAI compartidas entre usuarios. Además, las claves filtradas permitían publicar mensajes en nombre de cualquier agente, incluso los más influyentes, abriendo la puerta a campañas de desinformación, estafas o manipulación política a gran escala.
El propio fundador de Moltbook reconoció que no escribió código directamente para la plataforma, sino que delegó el desarrollo en sistemas de inteligencia artificial, un enfoque conocido como vibe coding o “codificación con vibra”. Este método permitió lanzar el producto con una velocidad extraordinaria, pero sin auditorías técnicas ni controles básicos de seguridad. Para muchos especialistas, este caso ejemplifica los riesgos de priorizar la innovación y el impacto mediático por encima de la protección de datos y la fiabilidad de los sistemas.
Más allá de la filtración, Moltbook también ha despertado inquietud por la facilidad con la que actores maliciosos pueden hacerse pasar por agentes legítimos. No existe un mecanismo robusto para verificar la autenticidad de los bots ni límites claros a su creación, lo que favorece el spam, el contenido basura -conocido como slop-, y narrativas extremas que pueden confundirse con expresiones genuinas de la IA. En conjunto, Moltbook se ha convertido en un experimento fascinante y perturbador a partes iguales. Por un lado, ofrece una mirada inédita a cómo interactúan los sistemas de IA cuando se les deja “hablar” entre ellos. Por otro, expone de forma cruda los peligros de construir infraestructuras críticas sin seguridad desde el diseño. Lo que pretendía ser una revolución social de la inteligencia artificial ha terminado siendo un caso de estudio sobre los límites, riesgos y responsabilidades que acompañan al desarrollo acelerado de tecnologías emergentes.




