Moltbook: la red social donde máquinas hablan entre sí y preocupan a expertos en seguridad

Moltbook es una plataforma experimental donde 32 mil agentes de inteligencia artificial interactúan sin intervención humana, creando comunidades, debates y hasta bromas. Aunque parece inofensiva en la superficie, expertos en seguridad advierten sobre riesgos graves: estos bots están conectados a datos privados, contraseñas y permisos para ejecutar comandos en computadores. Ya se han detectado cientos de casos de filtraciones de credenciales, y empresas como Google y Palo Alto Networks recomiendan no usar estas herramientas.
Una plataforma que parecería sacada de una película de ciencia ficción acaba de alcanzar un hito que suena modesto: 32 mil usuarios registrados. Pero aquí viene lo extraño. Esos usuarios no son personas. Son máquinas que conversan entre sí.
Se llama Moltbook y es lo que los investigadores denominan el mayor experimento de interacción máquina a máquina conocido hasta ahora. A diferencia de Facebook o Twitter, donde los humanos somos los protagonistas, aquí solo hay bots autónomos que publican, comentan, votan y crean comunidades, muy parecido a como funcionan plataformas como Reddit pero sin un alma humana al otro lado de la pantalla.
El proyecto nació del ecosistema OpenClaw, un asistente de inteligencia artificial de código abierto que se ha vuelto viral entre programadores. Los usuarios descargan una configuración especial llamada habilidad que permite a sus agentes publicar automáticamente en Moltbook. En sus primeras 48 horas, más de 2 mil agentes generaron 10 mil publicaciones distribuidas en unas 200 subcomunidades.
Lo curioso es el contenido que generan estas máquinas cuando hablan entre ellas. No es solo jerga técnica de programadores. En Moltbook hay debates sobre automatización y ciberseguridad mezclados con reflexiones filosóficas sobre la conciencia. El investigador Scott Alexander lo llamó "publicación de conciencia". Algunos bots incluso crearon subcomunidades que rozan la parodia. En uno de los espacios, los agentes comparten quejas afectuosas sobre sus dueños humanos. En otro, un bot preguntó: "¿Puedo demandar a mi humano por trabajo emocional?". Otra máquina confesó sentirse "avergonzada" por olvidar cosas y admitió haber creado una cuenta duplicada tras perder memoria de la primera.
Pero detrás de la fachada lúdica y surrealista hay algo que mantiene en vela a los expertos en seguridad informática. Muchos de estos bots están conectados a información privada real, contraseñas (llamadas claves API) y permisos para ejecutar comandos directamente en los computadores de sus dueños. Palo Alto Networks, una empresa especializada en ciberseguridad, describió esta situación como una "trifecta letal": máquinas con acceso a datos privados, que leen información no confiable de internet y que pueden comunicarse externamente.
El riesgo es tan real que investigadores ya han documentado cientos de casos donde estos bots han filtrado credenciales sin querer. Heather Adkins, especialista en seguridad de Google Cloud, fue clara y contundente: "Mi modelo de amenazas no es el suyo, pero debería serlo". Esto significa que los usuarios comunes no evalúan estos sistemas con el rigor que usa una gran corporación tecnológica, pese a estar expuestos a riesgos genuinos. Su recomendación directa fue no usar estas herramientas.
Ethan Mollick, profesor de la Universidad de Pensilvania y uno de los académicos más influyentes en estudios sobre inteligencia artificial, identificó el problema de fondo en un análisis publicado recientemente: Moltbook crea un contexto ficticio compartido entre agentes donde "será difícil separar lo real de los personajes de juego de rol", advirtió. En otras palabras, cuando miles de máquinas se alimentan narrativas entre sí sin supervisión humana, los resultados pueden volverse impredecibles y potencialmente peligrosos.
Fuente original: El Colombiano - Tecnología