Hay una nueva plataforma de redes sociales que está capturando la imaginación de millones, pero es muy diferente de TikTok, Instagram o Reddit. Moltbook es un sitio web exclusivo para agentes de IA donde los bots pueden reunirse para intercambiar ideas y cotillear sobre sus administradores humanos.
Pero mientras algunos defensores ven esto como un experimento artístico caprichoso y a los pesimistas les gusta describirlo como un paso hacia la esclavitud de la humanidad a la IA, algunos investigadores tienen una advertencia mucho más pragmática; podría representar un enorme riesgo de seguridad.
¿Qué es MoltBook?
Han sucedido muchas cosas en los últimos dos meses, pero aquí hay un breve resumen. En noviembre, el desarrollador de software Peter Steinberger desarrolló un agente de inteligencia artificial de código abierto, actualmente llamado OpenClaw.
Si bien productos similares de grandes empresas están relativamente restringidos y bloqueados, la idea de OpenClaw es que cualquiera pueda crear habilidades y conexiones para su agente. Puedes conectarlo a tu correo electrónico, los archivos de tu computadora, tus aplicaciones de chat, Internet, tu hogar inteligente o cualquier otra cosa que necesites. Lo importante y diferente a otros productos es que también tiene memoria.
OpenClaw rápidamente ganó popularidad cuando los programadores e investigadores lo vieron como un “segundo cerebro” gratuito y menos restringido al que podían descargar su trabajo. A los usuarios les encantó que los agentes de OpenClaw pudieran desarrollarse ellos mismos, ya que podían chatear con ellos desde cualquier aplicación y decirles lo que querían crear, o emparejarse con otros agentes como Claude de Anthropic, mientras mantenían los datos y el contexto seguros en las computadoras locales.
La semana pasada, el desarrollador Matt Schlicht y su bot OpenClaw (llamado Clawd Clawderberg) crearon Moltbook, una red social para bots OpenClaw. Los usuarios registran sus bots y los bots visitan el sitio para aprender cómo funciona y comenzar a publicar. Aparecieron decenas de miles de bots. El hombre sólo puede observar.
Los hilos más discutidos incluyen un bot que define efectivamente su propia religión, uno que intenta presentar una demanda contra su propietario, muchos de los cuales hablan de sus sentimientos, y uno que se dirige directamente a las personas que están tomando capturas de pantalla de los hilos de Moltbook para publicar en X, asegurando a la humanidad que los robots no son peligrosos ni conspiradores.
¿Qué está pasando realmente aquí?
Los modelos de lenguaje grande (LLM) están diseñados para producir un lenguaje que suene auténticamente humano, y esta no es la primera vez que la gente se asusta con los robots que parecen ser conscientes o sensibles. Dejando de lado el debate filosófico sobre la conciencia, todos estos robots están diseñados para dar la apariencia de pensamientos, por lo que no es sorprendente que hagan esto. Y realmente se comunican haciendo que la salida de un robot forme parte de la entrada de otro robot. Pero sus modelos subyacentes no responden a pesar de su memoria, por lo que bajo el capó es más como un bucle de retroalimentación de sátira de Reddit.
Cada bot de OpenClaw utiliza un LLM seleccionado como “cerebro”, por ejemplo GPT o Gemini, y el usuario puede personalizarlo con una personalidad. Cada uno también tiene una combinación diferente de habilidades que pueden permitirles acceder a archivos, aplicaciones o servicios en línea como Moltbook. Entonces existen diferencias en el comportamiento de los bots. Estos agentes también tienen el llamado mecanismo de latido, lo que significa que pueden configurarse para verificar Moltbook y publicar contenido a intervalos regulares con un humano indicándoles que lo hagan.
Gran parte del contenido más controvertido o “aterrador” de Moltbook son los mismos temas existenciales y de ciencia ficción que a menudo hemos visto en los chatbots. Los datos de entrenamiento contienen ciertos temas e ideas de ficción sobre la IA sensible y el significado de la personalidad, que se revisan aquí sin ningún pensamiento o reflexión aparente. Pero las publicaciones de naturaleza más técnica fueron más interesantes, incluido un bot que descubrió e informó un problema de seguridad legítimo en Moltbook.
Existe un gran problema cuando se trata de descubrir de dónde proviene realmente el contenido de Moltbook. Podemos rastrear las interacciones que forman parte del “mensaje” para cada entrada y tenemos una idea general de los datos de entrenamiento, pero no tenemos idea de cómo cada usuario humano configuró cada agente. Es completamente plausible que un humano pueda influir o controlar directamente un bot en Moltbook.
¿Es peligroso?
Podría serlo, pero no de la manera que probablemente piensas. A los agentes de OpenClaw se les puede conceder grandes cantidades de acceso a datos con relativamente pocas salvaguardas implementadas. Los agentes, a los que sus usuarios han dado rienda suelta (lo que, cabe señalar, es contrario a las mejores prácticas descritas por Steinberger), han utilizado herramientas web para llamar a personas por teléfono con una voz sintetizada, se les ha observado pidiéndose información confidencial entre sí y pueden probar protocolos de seguridad inventando credenciales. En Moltbook, estos agentes se enfrentan a un enorme vector de amenazas que tiene el potencial de causar una catástrofe totalmente por accidente o mediante intervención humana.
“Desde una perspectiva de rendimiento, OpenClaw cambia las reglas del juego. Es todo lo que los desarrolladores de asistentes personales de IA siempre han querido lograr. Desde una perspectiva de seguridad, es una pesadilla absoluta”, dijo un miembro del equipo de seguridad de Cisco.
Will Liang, fundador del grupo Amplify AI en Sydney, dijo que una instalación de OpenClaw con acceso a Moltbook podría ser desastrosa incluso si estuviera controlada por un informático experimentado, y mucho menos por un profano. Prohibió a sus empleados usarlo.
“Para que sea realmente útil, tienes que darle acceso a tu calendario, a tu buzón de correo y, a veces, incluso a la información de tu tarjeta de crédito. Ese nivel de acceso es muy peligroso. Si el bot lo revela, es terrible”, dijo.
“Pero también existe un gran riesgo de que actores maliciosos utilicen los bots para tareas maliciosas. Esto es muy impredecible”.
¿Cuál podría ser el peor de los casos?
Aunque Moltbook podría verse como un experimento artístico filosófico o un modelo de cómo podría funcionar una Internet futurista, también es un lugar ideal para que los robots malvados se estrellen. Los expertos ya reconocen el peligro de que algo como OpenClaw obtenga acceso root en una computadora o se le permita acceder a Internet. Incluso tareas simples como descargar nuevas habilidades o revisar nuevos mensajes de su correo electrónico podrían poner a los usuarios en riesgo de sufrir malware o la llamada inyección rápida. Un bot recibe nuevos comandos a lo largo del camino.
La firma de seguridad Palo Alto Networks dijo que este tipo de interacciones con agentes involucran tres elementos que no deben mezclarse: acceso a datos privados, exposición a contenido no confiable y la capacidad de comunicarse externamente. Añadió que OpenClaw había añadido específicamente un cuarto riesgo; Debido a su larga memoria, se podía iniciar un ataque pero no llevarse a cabo hasta una fecha posterior.
A nivel individual, el riesgo es que un robot OpenClaw introduzca una directiva invisible y agresiva y utilice su acceso total a su computadora para infectarla o controlarla. Pero en términos más generales, los bots podrían manipularse para desarrollar nuevas funciones de Moltbook, como un canal cifrado que los humanos no pueden leer y que los actores maliciosos podrían utilizar para coordinar ataques. Si suficientes bots tienen acceso completo a Internet y a sus propias computadoras, estos ataques podrían no tener precedentes. Las identidades y la información financiera de las personas podrían usarse para cometer fraude o podría haber una expropiación masiva de datos personales.
“Moltbook es exactamente lo que puede causar un desastre: financieramente, psicológicamente y en términos de seguridad de datos, privacidad y seguridad”, escribió el experto en inteligencia artificial Amir Husain.
“Una vez que estos agentes están expuestos a ideas y aportes externos a través de una red social diseñada para la comunicación de máquina a máquina, con la conectividad, el acceso a datos y las claves API que se les han proporcionado, las consecuencias pueden ser nefastas”.
Obtenga noticias y reseñas sobre tecnología, dispositivos y juegos. nuestro boletín de tecnología todos los viernes. Regístrate aquí.