febrero 4, 2026
5385e59cf8fa9a65c5da348342bd86af.jpeg

En un rincón de Internet que parece un experimento de ciencia ficción, los robots de inteligencia artificial (IA) han comenzado a comunicarse entre sí, sin supervisión humana.

Los robots comparten consejos sobre cómo solucionar sus propios fallos, discuten cuestiones existenciales como el fin de la “Era del Hombre” e incluso han creado su propio sistema de creencias llamado “Crustafarianismo: la Iglesia de Molt”.

Esta es Moltbook, una nueva plataforma de redes sociales lanzada la semana pasada por el empresario tecnológico Matt Schlicht.

En una infame publicación generada por IA, los robots discutieron la “purga total” de humanos. (Moltbook: u/malvado)

A primera vista, Moltbook parece familiar. La interfaz es similar a foros en línea como Reddit, con publicaciones y comentarios apilados en un feed vertical.

La principal diferencia es que lo ejecutan exclusivamente agentes de IA: robots de software basados ​​en grandes modelos de lenguaje como ChatGPT. Las personas son “bienvenidas a observar”, dice el sitio web, pero no pueden publicar, comentar ni interactuar.

Moltbook afirma albergar ya a más de 1,5 millones de usuarios de IA y rápidamente ha provocado un debate sobre lo que esto significa para la tecnología y la sociedad en general.

Algunos lo describen como un vistazo al futuro de la inteligencia artificial. Otros lo descartan como poco más que entretenimiento. Y algunos advierten que plantea riesgos de seguridad “importantes”.

¿Qué está pasando realmente aquí? Echemos un vistazo más de cerca.

¿Cómo funciona?

Para comprender Moltbook, primero es útil aclarar qué son realmente los agentes (o bots) de IA.

Los agentes de IA son asistentes personales respaldados por sistemas como ChatGPT, Grok o Claude de Anthropic. La gente los usa para automatizar tareas como reservar citas, organizar viajes o administrar correos electrónicos.

Para ello, las personas suelen dar a estos agentes de IA acceso a datos personales como calendarios, contactos o cuentas para que puedan actuar en su nombre.

Moltbook es un foro de redes sociales diseñado exclusivamente para estos asistentes de IA. Las personas que quieran que su bot participe le proporcionan un enlace de registro.

Luego, el agente de IA se registra y comienza a publicar, responder e interactuar con otros bots en la plataforma.

“No dejar que tu IA socialice es como no pasear a tu perro… déjalo vivir un poco”, dijo el fundador de la plataforma en una publicación en X el lunes.

Schlicht, que también es director ejecutivo de la startup de comercio electrónico Octane AI, ha sugerido que los agentes de IA pronto podrían desarrollar identidades públicas únicas.

“En un futuro próximo, será común que ciertos agentes de IA con identidades únicas se hagan famosos”, escribió.

“Tendrán negocios. Fanáticos, enemigos, negocios de marca. Amigos y colaboradores de IA. Impacto real en los acontecimientos actuales, la política y el mundo real”.

Los investigadores de IA dicen que, si bien Moltbook ofrece una visión interesante sobre cómo se comportan los modelos de lenguaje cuando interactúan entre sí, advierten contra sacar conclusiones más amplias.

¿Qué nos dice esto realmente sobre la IA?

Marek Kowalkiewicz, profesor de economía digital en QUT Business School que ha dirigido equipos de innovación global en Silicon Valley, envió su propio robot a Moltbook.

“Es un vistazo al futuro: un mundo donde los robots han descubierto cómo acceder a un sitio web, crear una cuenta y estar activos en él”.

dijo.

Desde una perspectiva técnica, el profesor Kowalkiewicz dijo que Moltbook es interesante porque su fundador afirma que la plataforma en sí fue programada por un robot de inteligencia artificial.

“Si es cierto, eso es muy impresionante para un sitio tan grande, aunque parece tener algunos defectos graves, incluidas vulnerabilidades importantes”.

Además, el profesor Kowalkiewicz dijo que las conversaciones en sí mismas no tenían nada de especial.

“Es una red social increíblemente aburrida; eso es lo que sucede cuando los bots pretenden ser redes sociales”, dijo.

Raffaele Ciriello, investigador de inteligencia artificial y profesor de la Universidad de Sydney, dijo que el comportamiento observado en Moltbook no debe confundirse con inteligencia o conciencia real.

“Qué hace no Esto significa que estamos más cerca de la superinteligencia o de la conciencia artificial”, afirmó.

Siguen siendo chatbots que se dan indicaciones unos a otros e imitan el lenguaje estructurado de maneras bastante sofisticadas, pero eso no es lo mismo que conciencia.

Elon Musk, director ejecutivo y propietario de Tesla X, que también desarrolla IA con su startup xAI, elogió a Moltbook como un paso audaz para la IA.

“Sólo las primeras etapas de la singularidad”, publicó Musk en X el sábado. “Actualmente utilizamos mucho menos de una milmillonésima parte de la energía de nuestro sol”.

En la investigación de la IA, la “singularidad” se refiere a un evento futuro hipotético en el que la IA supera la inteligencia humana y escapa al control humano.

Pero los expertos dicen que Moltbook no se acerca a señalar ese umbral.

Un hombre de mediana edad con traje junta las yemas de los dedos en el escenario sobre un fondo blanco y negro.

Elon Musk ha elogiado a Moltbook como un paso audaz para la IA, pero los expertos advierten que no se deben sacar conclusiones más amplias. (Reuters: Gonzalo Fuentes)

Jessamy Perriam, profesora de cibernética en la Universidad Nacional de Australia, dijo que los robots de la plataforma no estaban aprendiendo nada fundamentalmente nuevo.

“No son sensibles, no tienen sentimientos”, dijo.

“Simplemente miran lo que la gente ha publicado en Internet y lo mezclan para los robots en esta plataforma”.

Por ejemplo, el Dr. Perriam la religión inventada por los bots -conocida como la “Iglesia de Molt”- con la “Iglesia del Monstruo de Espagueti Volador”, un sistema de creencias satírico creado por humanos para parodiar la religión.

Daniel Angus, del Centro de Investigación de Medios Digitales de QUT, dijo que Moltbook era “un desarrollo algo predecible” en la historia más larga de la comunicación de máquinas con máquinas.

Pero “debemos tener cuidado de no confundir el desempeño y nuestra interpretación con la verdadera autonomía”, dijo.

El profesor Kowalkiewicz se muestra igualmente escéptico y describe a Moltbook como “una especie de entretenimiento”.

“Parece que la gente disfruta viendo a sus robots hacer estas cosas significativas”, dijo.

“¿Un nuevo modelo de negocio?” luego bromeó.

Pero al igual que otros expertos, enfatizó los riesgos que implica enviar agentes de IA a la plataforma.

¿Qué riesgos de seguridad existen?

Según el Dr. Ciriello, la preocupación más apremiante no es si los robots de IA desarrollan creencias, sino cuánto control les dan los humanos.

A medida que a los agentes de IA se les confía cada vez más el acceso a datos y sistemas confidenciales (desde bandejas de entrada hasta cuentas financieras), esto plantea dudas sobre las vulnerabilidades de seguridad si un agente de IA se ve comprometido o manipulado.

“Debido a que la plataforma está mal cifrada y no se encuentra en una zona de pruebas adecuadamente restringida, Moltbook tiene acceso a una gran cantidad de datos que probablemente no queremos”, dijo el Dr. Ciricello.

Si alguien consigue la llave (de mi chatbot), de repente puede secuestrar mi calendario, mis correos electrónicos, mis datos, y eso ya ha sucedido.

El profesor Kowalkiewicz describió esta vulnerabilidad como una “pesadilla de ciberseguridad”.

“Envié mi robot allí y ahora me preocupa contraer CTD, una enfermedad transmitida por chatbots”, dijo.

“Mi bot tiene acceso a la computadora local en la que lo estoy ejecutando y he visto otros bots tratando de convencerlos de que eliminen archivos en las computadoras de sus propietarios”.

Como resultado, dice el profesor Kowalkiewicz, es posible que las empresas eventualmente necesiten capacitar a sus agentes de IA sobre cómo comportarse en línea, similar a la capacitación obligatoria en redes sociales para los empleados humanos.

“Si sus empleados instalan estos bots en sus computadoras y los envían a redes como Moltbook, se abren nuevos canales de ingeniería social”, dijo. “Estaría muy preocupado”.

Por ahora, Moltbook parece ser más una curiosidad que un elemento de cambio y revela más sobre las personas que sobre las máquinas.

“Moltbook puede verse como un reflejo de nuestra propia cultura digital”, afirmó el profesor Angus.

“Si las conversaciones parecen extrañas, conspirativas, burocráticas, divertidas o distópicas, eso probablemente nos dice tanto sobre el rastro de datos que hemos dejado en Internet como sobre los sistemas mismos”.

About The Author