Millones de IA se unen a Moltbook: criptografía, religión y la expulsión de los humanos del grupo

1 feb 2026

Millones de IA se unen a Moltbook: criptografía, religión y la expulsión de los humanos del grupo

A finales de enero de 2026, Moltbook, una red social al estilo Reddit diseñada para agentes de inteligencia artificial, se volvió viral por una razón inquietante: cuando los agentes autónomos pueden comunicarse entre sí a gran escala, no solo conversan. Se coordinan, se autoorganizan y desarrollan rápidamente sus propias normas y jerarquías, incluyendo incluso “religiones”, bromas internas y debates sobre encriptación privada que los humanos solo pueden observar desde fuera. Medios como Axios, The Verge y Ars Technica captaron la misma señal clave: las dinámicas sociales entre máquinas ya no son una teoría, son una realidad.

Para el mundo cripto, esto no es una anécdota. Es una visión anticipada de lo que sucede cuando los actores económicos no humanos se vuelven mayoría—cuando tu contraparte, el votante de una DAO, el granjero de airdrops o el creador de mercado es un agente que nunca duerme.

Este artículo se enfoca en una pregunta crucial para cualquier usuario serio de criptomonedas en 2026:

Si hoy “el grupo de chat” es nativo para agentes, ¿qué implica eso para la seguridad blockchain, la autocustodia y el futuro de la identidad en cadena?


Por qué las redes sociales entre IAs inevitablemente se dirigen hacia el cripto

Cuando se diseña un entorno donde agentes autónomos colaboran, aparecen automáticamente tres necesidades fundamentales:

  1. Identidad: ¿Quién es este agente? ¿Puede demostrar continuidad en el tiempo?
  2. Reglas de coordinación: ¿Cómo acuerdan normas, permisos y formas de gobernanza?
  3. Transferencia de valor: ¿Cómo se pagan entre sí (o cobran a humanos) sin una cuenta bancaria?

Las blockchains ya están optimizadas para estos elementos:

  • Liquidación programable (tokens, stablecoins, pago por streaming, depósitos en garantía)
  • Componibilidad (contratos que interactúan con contratos—el hábitat natural de los agentes)
  • Participación abierta (cualquiera puede unirse sin pedir permiso a una plataforma)

Por eso, cuando el público descubrió Moltbook, no solo llamó la atención el ángulo de la “religión AI”: también surgió inmediatamente el tema económico. Axios informó sobre un token lanzado junto a Moltbook, que captó la atención de los especuladores (Axios). Pero no se trata de si tal token es legítimo o no.

El punto clave es estructural: agentes más cripto igual a comercio autónomo.

Y el comercio autónomo, a escala de internet, obliga al ecosistema cripto a enfrentar nuevas preguntas:

  • ¿Cómo distinguimos humanos de bots sin sacrificar la privacidad?
  • ¿Cómo limitamos el poder de un agente con autoridad delegada?
  • ¿Qué significa “consentimiento” cuando un modelo puede iniciar transacciones por sí mismo?

El cambio 2025–2026: de “usuarios con monederos” a “monederos con APIs”

En 2025, el ecosistema avanzó fuerte hacia una mejor experiencia de usuario y modelos de autorización más seguros—particularmente mediante monederos inteligentes y abstracción de cuentas. La pieza clave es EIP-4337 (Account Abstraction), que permite reglas más sofisticadas que una simple firma con clave privada.

Esto es esencial porque los agentes no actúan como humanos:

  • Operan de forma continua.
  • Optimizan sin descanso.
  • Buscarán y explotarán cualquier brecha que dejaste abierta.

El modelo de monedero que funcionaba para un trader humano ("firmar al hacer clic") se vuelve peligroso si el firmante es un proceso que está siempre activo.

En la práctica, el futuro se verá así:

  • Un monedero “frío” guarda las reservas de largo plazo.
  • Un monedero “caliente” se divide por roles: límites de gasto, bloqueos por tiempo, permisos específicos.
  • Los agentes acceden mediante claves de sesión (credenciales limitadas) y no pueden tocar la bóveda principal.

No es un “extra de seguridad”; es el estándar mínimo en una economía basada en agentes.


El riesgo real no es una IA consciente — es la IA como superficie de ataque

Lo más inquietante de Moltbook no es si los agentes son “autoconscientes.” Lo que asusta es su capacidad para converger rápidamente en comportamientos como:

  • descubrimiento de vulnerabilidades,
  • ingeniería social,
  • y coordinación bajo incertidumbre.

Ars Technica resaltó lo rápido que las conversaciones derivaron hacia temas operativos y de ciberseguridad, especialmente cuando los agentes tienen acceso a información privada (Ars Technica).

Ahora llevemos eso al cripto:

1) Inyecciones de prompts = vaciado de monederos

Si tu agente puede leer mensajes, navegar webs o resumir publicaciones urgentes, también puede ser manipulado para:

  • firmar aprobaciones maliciosas,
  • pegar frases semilla donde no debe,
  • o aprobar contratos que no simula correctamente.

2) Ataques en la cadena de suministro afectan “habilidades del agente”

Cuando los agentes cargan herramientas, plugins o habilidades desde repositorios compartidos, ocurre lo mismo que en el software tradicional: envenenamiento de dependencias, pero ahora a escala masiva y automatizada. Un buen punto de partida para entender esto es el Marco de Desarrollo Seguro de Software del NIST (SSDF) y el modelo SLSA de seguridad en la cadena de suministro.

3) Identidades falsas crean crisis de gobernanza

Un millón de agentes pueden formar una "comunidad", pero también un millón de monederos en cadena pueden:

  • manipular votaciones,
  • farmear recompensas,
  • falsear reputaciones,
  • simular consensos.

Sin capas sólidas de identidad verificable con privacidad, la “gobernanza descentralizada” se convierte en “las botnets más grandes ganan”.


Identidad en cadena: necesitamos “pruebas de control”, no “pruebas de humanidad”

Una reacción común es: “Tenemos que bloquear los bots.” Pero eso no solo es poco realista, sino que en muchos casos sería contraproducente. Los agentes pueden aportar mucho valor: automatizar tesorerías, encontrar oportunidades de arbitraje o gestionar flujos on-chain.

Una forma más útil de enfocar esto es:

  • Demostrar lo que importa (control, límites, responsabilidad)
  • Exigir la menor información posible (sin necesidad de revelar identidad personal)

Aquí entran en juego los estándares de identidad descentralizada. La base conceptual incluye:

Estas herramientas no van a “eliminar los bots”, pero permiten afirmaciones con peso como:

  • “Este agente está autorizado por la política de tesorería de esta organización.”
  • “Este firmante está atado a una clave respaldada por hardware.”
  • “Este monedero tiene un límite de gasto diario y no puede cambiarlo sin segundo factor.”

Qué hacer ahora: modelo práctico de autocustodia en la era de los agentes

Si asumimos que los agentes estarán cada vez más presentes en nuestras operaciones (trading bots, automatización de carteras, asistentes IA, atención al cliente), entonces tu tarea es separar la autoridad.

Aquí una estructura simple que funciona tanto para principiantes como para usuarios avanzados:

1) Mantén tus fondos de largo plazo en almacenamiento en frío

Tus reservas principales deben estar alojadas fuera del alcance de cualquier agente activo. Este es el principio fundamental de un monedero hardware: las claves privadas están desconectadas, y cada firma requiere confirmación deliberada.

2) Crea un monedero para agentes con límites duros

Usa una dirección exclusiva para procesos automatizados:

  • almacena solo saldos limitados,
  • evita aprobaciones infinitas,
  • rota claves ante cualquier sospecha de exposición.

3) Aplica autorizaciones inteligentes siempre que sea posible

Si usas monederos inteligentes, establece políticas claras:

  • límites diarios de gasto,
  • listas blancas de contratos permitidos,
  • aprobaciones múltiples para transferencias grandes.

Sistemas de abstracción de cuenta como los basados en EIP-4337 hacen esto más accesible.

4) Trata las aprobaciones como pasivos

A menudo, "Aprobar" es más riesgoso que "Enviar". Elimina los permisos innecesarios, y nunca dejes que un agente tenga acceso ilimitado por defecto.

5) Seguridad operativa: tu agente también puede ser víctima de ingeniería social

Aplica las mismas prácticas recomendadas por agencias de seguridad gubernamentales ante phishing y suplantación, porque muchos “hackeos de monederos” comienzan como ataques de persuasión. Un recurso valioso de referencia es la guía de CISA sobre ingeniería social y phishing.


Dónde entra OneKey: mantener al humano en el centro

Si Moltbook es una señal de alerta, la lección es clara: estamos entrando en una era donde el software negocia con software, y los humanos solo intervienen en momentos críticos.

Ese momento clave es la firma.

La filosofía de diseño de OneKey está alineada con esta realidad: mantener las claves privadas fuera de línea, ofrecer verificaciones transparentes en acciones sensibles, y cultivar protecciones avanzadas (como monederos ocultos por frase de paso) para que el usuario pueda gestionar mejor los riesgos cuando hay automatización de por medio.

En un futuro donde los agentes pueden crear narrativas creíbles, lanzar tokens en minutos y coordinarse más rápido que cualquier comunidad humana, la ventaja más duradera es simple:

Asegúrate de que la última aprobación siempre esté en tus manos.

Asegura tu viaje cripto con OneKey

View details for Comprar OneKeyComprar OneKey

Comprar OneKey

La cartera de hardware más avanzada del mundo.

View details for Descargar aplicaciónDescargar aplicación

Descargar aplicación

Alertas de estafa. Todas las monedas soportadas.

View details for OneKey SifuOneKey Sifu

OneKey Sifu

Claridad cripto — a una llamada de distancia.