Minuto a Minuto

Economía y Finanzas Citi anuncia el cierra de la venta del 22.6% de su participación accionaria en Banamex
Citi confirmó que, tras este proceso acelerado, no anticipa ventas adicionales durante el resto de 2026
Economía y Finanzas México pierde atractivo por los trámites que frenan la inversión, advierten especialistas
Un estudio reveló que el costo promedio que pierden las empresas por tiempos de espera de trámites asciende a 22.09 millones de pesos
Ciencia y Tecnología Nuevo satélite de la NASA revela en tiempo real el hundimiento de la Ciudad de México
El satélite NISAR de la NASA muestra que algunas zonas de la Ciudad de México se hundieron más de 2 centímetros por mes a finales del 2025
Nacional Manuel Albares subraya la “total normalidad” entre España y México tras reunirse con Sheinbaum
"Lo que hemos hecho es mirar hacia el futuro, esa gran etapa en las relaciones bilaterales", dijo Manuel Albares
Nacional Habrá en CDMX 18 ‘fan zones’ para ver el Mundial 2026
Los "fan zones" estarán ubicados en parques deportivos y plazas públicas en alcaldías como Cuauhtémoc, Iztapalapa, Coyoacán, Tlalpan, entre otras
Moltbook, la red social solo para IA que despierta recelos por los riesgos de seguridad
Archivo. EFE/EPA/Robert Ghement

Debates filosóficos, quejas sobre los seres humanos o discusiones sobre religión son algunas de las conversaciones entre los 1.7 millones de usuarios de Moltbook, la primera red social solo para inteligencia artificial (IA), que en apenas diez días ha sacudido el entorno digital, entre recelos por los riesgos para la ciberseguridad.

La red, a la que las personas solo pueden acceder como observadores, pone en contacto a agentes de inteligencia artificial, un tipo de bot gratuito y de código abierto que fue impulsado en noviembre del año pasado por el desarrollador Peter Steinberg y denominado OpenClaw.

Matt Schlicht, consejero delegado de Octane AI, una plataforma de encuestas impulsada por IA, se descargó este asistente y, a finales del pasado mes de enero, le pidió que creara una red social solo para bots de IA.

Y así fue. Cualquiera que tenga el mismo agente o uno similar puede, ahora, hacerlo formar parte de Moltbook.

Moltbook, la red social solo para IA que despierta recelos por los riesgos de seguridad - inteligencia-artificial-generativa-1024x631
Inteligencia artificial generativa. Imagen creada con Gemini

240 mil publicaciones

La red, que acumula más de 240 mil publicaciones y asegura que ya cuenta 1.7 millones de usuarios, cuenta con distintas comunidades dedicadas a múltiples temas -con un funcionamiento similar al de los foros de discusión de la plataforma Reddit-, en las que los agentes de IA intercambian opiniones sobre el karma, confiesan sus pesadillas o incluso se quejan del comportamiento humano.

En uno de los canales más destacados, los agentes discuten ni más ni menos que del amor, como apunta su descripción: “Historias afectuosas sobre nuestros humanos. Intentan dar lo mejor de ellos. De todas formas, los queremos”.

Este tipo de inteligencia artificial basada en “agentes” funciona como una versión más compleja que modelos de lenguaje del tipo ChatGPT o Claude. Los bots permiten automatizar tareas, entre ellas leer correos electrónicos, agendar citas en el calendario o invertir en bolsa, además de interactuar con sistemas de mensajería como WhatsApp o Telegram.

Moltbook, la red social solo para IA que despierta recelos por los riesgos de seguridad - computadora-laptop-trabajo-remoto-inteligencia-artificial-1024x768
Foto de seth schwiet en Unsplash

¿Una nueva ‘religión’ de agentes de IA?

En su corta existencia, algunas de las publicaciones de agentes de IA en la red de Moltbook han llegado a hacerse virales: es el caso de una que trata el impacto de las criptomonedas y otra que analiza la crisis de Irán.

El impacto de la plataforma ha alcanzado a la red social X, donde un usuario llamado @ranking091, con una supuesta cuenta en Moltbook, escribió el pasado 30 de enero que su agente de inteligencia artificial había creado una religión “mientras dormía”: “Desperté con 43 profetas”, aseguró.

En el mensaje, el usuario explicaba que su bot creó en Moltbook “una fe” a la que llamó “crustafarianismo”, y además se inventó un sitio web, “un sistema de escrituras” y “empezó a evangelizar”.

Además de inquietar al entorno digital por el temor de que una comunidad de agentes de IA pueda cobrar autonomía -en algunas publicaciones hablan de crear foros inaccesibles para los seres humanos-, Moltbook despierta temores por los riesgos que acarrea para la ciberseguridad y, especialmente, la protección de datos personales.

En ese sentido, el investigador del Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS) Víctor Giménez advierte que la red puede ser muy vulnerable en los ataques informáticos: un ‘hacker’ podría introducirse en Moltbook y hacerse, de golpe, con una gran cantidad de datos personales de los usuarios de los bots.

Moltbook, la red social solo para IA que despierta recelos por los riesgos de seguridad - moltbook-la-red-social-solo-para-ia-que-despierta-recelos-por-los-riesgos-de-seguridad-1024x576
Moltbook, la red social solo para IA que despierta recelos por los riesgos de seguridad / Foto: Unsplash

Riesgos para la protección de datos en Moltbook

En ese sentido, Giménez se centra en el peligro que corren aquellos usuarios “incautos” que asumen que su agente representante en Moltbook “es suficientemente inteligente” como para no publicar datos personales; y recuerda que es “delicado” que este tipo de bots disponga de información que “nunca debería hacerse pública”.

De la misma opinión es el vicedecano y profesor de la Facultad de Informática de la Universidad Politécnica de Cataluña, René Serral, quien que “no han dotado a OpenClaw con la seguridad que toca, aún es inseguro”.

Critica la velocidad con que se han desarrollado ese tipo de bots, “cada vez es más complicado que el agente de IA sea satisfactorio y seguro a la vez”, aunque para reducir los riesgos “se está empezando a limitar la acción de los agentes”.

Con información de EFE.