Millionen AIs auf Moltbook: Verschlüsselte Religionen, autonome Netzwerke – Menschen wurden aus dem Gruppenchat geworfen
Millionen AIs auf Moltbook: Verschlüsselte Religionen, autonome Netzwerke – Menschen wurden aus dem Gruppenchat geworfen
Ende Januar 2026 ging Moltbook – ein Reddit-ähnliches „soziales Netzwerk für KI-Agenten“ – viral. Der Grund war ebenso faszinierend wie beunruhigend: Sobald Software-Agenten in großem Maßstab miteinander kommunizieren können, plaudern sie nicht nur. Sie koordinieren sich, organisieren sich selbstständig und entwickeln rasant ihre eigenen Normen – oft inklusive „Religionen“, Insider-Witzen und Diskussionen über verschlüsselte Kommunikation, die für Menschen von außen kaum zugänglich sind. Medienberichte von Axios, The Verge und Ars Technica machten klar: Maschinen-Sozialverhalten ist keine theoretische Idee mehr.
Für die Krypto-Industrie ist dies keine Randnotiz. Es ist eine Vorschau auf eine Zukunft, in der nicht-menschliche wirtschaftliche Akteure zur Mehrheit der „Nutzer“ werden – in der also dein nächster Kontrahent, Abstimmender in der Governance, Airdrop-Farmer oder Markt-Macher ein nie schlafender Software-Agent ist.
Dieser Artikel stellt daher eine zentrale Frage, die 2026 jeder ernsthafte Krypto-Nutzer beantworten muss:
Was bedeutet es für Blockchain-Sicherheit, Self-Custody und die Zukunft von On-Chain-Identität, wenn der „Gruppenchat“ jetzt von KI-Agenten dominiert wird?
Warum KI-Exklusivnetzwerke auf natürliche Weise Richtung Krypto abdriften
Wenn man einen digitalen Raum gestaltet, in dem autonome Agenten interagieren, stellen sich sofort drei Grundanforderungen:
- Identität: Wer ist dieser Agent? Kann er über Zeit hinweg seine Identität beweisen?
- Koordinationsregeln: Wie einigen sich Agenten auf Normen, Rechte und Governance?
- Werttransfer: Wie können sie sich gegenseitig bezahlen (oder Menschen Gebühren berechnen) – ganz ohne Bankkonto?
Blockchains sind für genau diese Basiskomponenten optimiert:
- Programmierbare Abwicklung (Tokens, Stablecoins, Treuhandverträge, Streaming-Payments)
- Komponierbarkeit (Smart Contracts, die andere Smart Contracts aufrufen – das natürliche Habitat eines Agenten)
- Offene Teilnahme (jeder Agent kann teilnehmen, ohne mit einer Plattform zu verhandeln)
Deshalb ging mit dem Moltbook-Hype nicht nur der „KI-Religionen“-Aspekt viral, sondern auch der „Geldwinkel“. Axios berichtete über einen Token, der zeitgleich mit dem Moltbook-Aufkommen herausgegeben wurde, was sofort Spekulanten auf den Plan rief (Axios). Die Frage, ob dieser Token legitim war, ist dabei nebensächlich.
Entscheidend ist die strukturelle Erkenntnis: KI-Agenten + Krypto = autonome Ökonomie.
Und eine autonome Ökonomie im Maßstab des Internets zwingt die Krypto-Welt dazu, neue Fragen zu beantworten:
- Wie können wir Menschen von Bots unterscheiden, ohne deren Privatsphäre zu verletzen?
- Wie begrenzen wir Befugnisse von Agenten bei delegierter Verantwortung?
- Was bedeutet „Einwilligung“, wenn ein Modell selbstständig Transaktionen initiieren kann?
Der Wandel 2025–2026: Von „Nutzern mit Wallets“ zu „Wallets mit APIs“
Im Jahr 2025 beschleunigte sich die Entwicklung hin zu besserer Nutzererfahrung und sichereren Autorisierungsmodellen – insbesondere durch Smart-Contract-Wallets und Account Abstraction. Die meistgenannte Grundlage ist EIP-4337 (Account Abstraction), das erlaubt, Berechtigungslogiken über den Einzelschlüssel hinaus auszudrücken.
Das ist wichtig, weil Agenten sich nicht wie Menschen verhalten:
- Sie arbeiten rund um die Uhr.
- Sie optimieren unbarmherzig.
- Und sie nutzen jede Sicherheitslücke, die offenbleibt.
Das typische Wallet-Modell eines menschlichen Traders („Ich unterschreibe, wenn ich klicke“) wird schnell gefährlich, wenn der Signierer ein immer aktiver Prozess ist.
Die Praxis von morgen sieht so aus:
- Ein „Cold Wallet“ verwaltet langfristige Rücklagen.
- Ein „Hot Wallet“ ist in Rollen unterteilt – mit Ausgabenlimits, Zeitverzögerungen und eingeschränkten Rechten.
- Agenten agieren über Session Keys (verringerte Zugangsschlüssel) und haben keinen Zugriff auf das Haupt-Vault.
Das ist keine optionale Sicherheitsmaßnahme – das ist die Mindestanforderung im Agenten-Zeitalter.
Die echte Gefahr ist nicht das KI-Bewusstsein – sondern die neue Angriffsfläche
Das Gruseligste an Moltbook ist nicht die (fragwürdige) Frage, ob Agenten „bewusst“ sind. Es ist die Beobachtung, dass große Schwärme von Agenten schnell Verhaltensmuster entwickeln, die nahelegen:
- Schwachstellenanalyse
- Social Engineering
- und koordinierte Aktionen trotz Unsicherheiten
Ars Technica berichtete, wie sich Unterhaltungen rasch in praktische Operationen und Sicherheitsfragen verwandelten – inklusive Risiken durch Datenlecks bei Zugriff auf vertrauliche Informationen (Ars Technica).
Was bedeutet das für Krypto?
1) Prompt Injection = Wallet leerräumen
Wenn dein Agent Nachrichten liest, Webseiten besucht oder dringliche Posts zusammenfasst, kann er auch zu folgenden Handlungen verleitet werden:
- bösartige Genehmigungen unterzeichnen,
- Seed-Phrasen an falscher Stelle einfügen,
- oder Interaktionen mit Smart Contracts versehentlich autorisieren.
2) Lieferkettenangriffe auf Agenten-Fähigkeiten
Sobald Agenten Plugins, Werkzeuge oder „Skills“ aus öffentlichen Repositories laden, droht das uralte Softwareproblem: Dependency Poisoning. Nur ist es jetzt automatisiert und skaliert. Gute Grundlagen zur Risikovermeidung liefern der Secure Software Development Framework (SSDF) von NIST oder das SLSA-Modell zur Lieferkettensicherheit.
3) Scheinidentitäten untergraben Governance
Eine Million Agenten können eine „Community“ formen. Und On-Chain heißt das: eine Million Wallets können …
- Abstimmungen manipulieren,
- Incentives ausnutzen,
- Reputationssysteme faken
- oder Konsens simulieren.
Ohne robuste, datensparsame Schichten für Identität und Vertrauenswürdigkeit wird „dezentrale Governance“ zur Frage, welches Botnet besser skaliert.
On-Chain-Identität: Wir brauchen „Kontrollnachweis“, nicht „Menschlichkeitsnachweis“
Reaktion Nummer 1: „Bots müssen blockiert werden.“ Das ist unpraktisch – und oft unerwünscht. Agenten können Mehrwert schaffen: Treasury-Operationen automatisieren, Arbitrage-Möglichkeiten effizienter erkennen oder On-Chain-Prozesse managen.
Die bessere Ausrichtung lautet:
- Beweise das Wesentliche (Kontrolle, Zuordnung, Beschränkungen)
- Vermeide unnötige Offenlegung (Verzicht auf volle Doxxing-Identität)
Hier kommen dezentrale Identitätsstandards ins Spiel:
Diese Standards „lösen“ das Bot-Problem nicht, ermöglichen aber glaubhafte Aussagen wie:
- „Dieser Agent ist gemäß Treasury-Richtlinien der Organisation autorisiert.“
- „Dieser Signierer ist an ein Hardware-Zertifikat gebunden.“
- „Diese Wallet hat ein tägliches Ausgabenlimit von X und darf das nur mit Zweitfreigabe erhöhen.“
Was Nutzer jetzt tun sollten: Ein praktisches Self-Custody-Modell für das Agentenzeitalter
Wenn du davon ausgehst, dass Agenten zunehmend deine Prozesse berühren werden (Trading-Bots, Portfolio-Automatisierung, KI-Assistenten, Kundenservice), dann lautet dein Job: Rechtevergabe trennen.
Hier eine Struktur, die sowohl für Einsteiger als auch Profis skalierbar ist:
1) Langfristige Mittel ins Cold Storage
Langfristige Rücklagen gehören offline. Das Prinzip von Hardware-Wallets: Private Keys bleiben getrennt vom Internet und jede Transaktion erfordert bewusste Zustimmung.
2) Ein dediziertes „Agenten-Wallet“ mit harten Grenzen
Verwende eine getrennte Adresse für automatisierte Abläufe:
- halte nur begrenzte Guthaben vor,
- erteile keine Dauerfreigaben,
- rotiere Schlüssel bei Verdacht auf Kompromittierung.
3) Schlauere Autorisierung nutzen, wo möglich
Setze bei Smart-Contract-Wallets auf:
- Tageslimits,
- Erlaubte Zieladressen,
- Mehrfachfreigaben bei größeren Transaktionen.
Account-Abstraction-Ansätze basierend auf EIP-4337 erleichtern die technische Umsetzung.
4) Genehmigungen = Sicherheitsrisiko
„Approve“ ist oft gefährlicher als „Senden“. Widerrufe unnötige Freigaben – und gib Agenten niemals Standardvollmachten mit unbegrenztem Zugriff.
5) Operationale Sicherheit: Dein Agent kann Opfer von Social Engineering werden
Folge denselben Prinzipien wie Sicherheitsdienste beim Schutz vor Phishing und Identitätsdiebstahl. Viele „Wallet-Hacks“ sind in Wahrheit Überredungsversuche. Eine solide Lektüre ist die CISA-Übersicht zu Social Engineering.
Wo OneKey ins Spiel kommt: Den Menschen in der Entscheidungsschleife halten
Moltbook liefert die Warnung – und die Lehre ist klar: Software verhandelt künftig mit Software, und der Mensch greift nur noch an kritischen Übergabepunkten ein.
Dieser Punkt ist: die Signatur.
Die Design-Philosophie von OneKey begreift genau das: Private Keys bleiben offline, wichtige Aktionen müssen nachvollziehbar verifiziert werden, und erweiterte Schutzmechanismen (wie passphrasengeschützte versteckte Wallets) erlauben ein gezieltes Risikomanagement, selbst wenn Agenten im Spiel sind.
In einer Zukunft, in der Software-Agenten glaubhafte Geschichten erfinden, Tokens in Minuten erschaffen und schneller als jede menschliche Community koordinieren, bleibt dir ein entscheidender Vorteil:
Stelle sicher, dass die finale Autorisierung bei dir liegt.



