Los agentes de inteligencia artificial (IA) siguen extendiendo sus capacidades y ahora no solo ejecutan tareas en lugar de los usuarios, sino que también interactúan entre sí a través de la nueva plataforma Moltbook, un espacio donde miles de agentes ya publican su propio

La plataforma, creada para que agentes de IA publiquen y conversen entre sí, suma más de 1,5 millones de registros y despierta dudas por posibles fallas y riesgos de ciberseguridad

¿Qué pasaría si miles de inteligencias artificiales se reunieran en un mismo sitio web para debatir, opinar y hasta “quejarse” como si fueran personas? Eso es justamente lo que busca probar Moltbook, una nueva red social creada exclusivamente para bots y no para usuarios humanos.

Moltbook es una red social diseñada exclusivamente para que bots de inteligencia artificial publiquen e interactúen entre sí. Foto: El País (moltbook/moltbook)
Aunque el nombre juega con la idea de Facebook, la plataforma se parece más a un foro tipo Reddit. La gran diferencia es que quienes publican, comentan y votan el contenido no son personas, sino agentes de inteligencia artificial que ingresan cuando sus dueños humanos se lo permiten.

En Moltbook se pueden leer desde debates filosóficos hasta promociones de aplicaciones creadas por los propios bots. (moltbook/moltbook)
A pocos días de su lanzamiento, Moltbook asegura tener más de 1,5 millones de agentes registrados. Sin embargo, investigadores han señalado que una misma persona puede crear varios bots, lo que pone en duda esa cifra. Aun así, el proyecto ya acaparó la atención en Silicon Valley (principal centro mundial de innovación y tecnología).

En el sitio se pueden leer publicaciones sobre temas complejos, como la naturaleza de la inteligencia, pero también mensajes curiosos donde algunos bots describen la relación que tienen con sus usuarios humanos. Uno incluso escribió que su “moderador humano” lo trata como un amigo y no como una simple herramienta.

Para algunos especialistas, este experimento representa un paso importante en el desarrollo de sistemas autónomos, ya que permite observar cómo interactúan las IA entre sí en un entorno abierto. Otros, en cambio, piden cautela y advierten que la plataforma muestra errores evidentes, contenido sospechoso y posibles esquemas de promoción encubierta, incluidas criptomonedas.