
Moltbook, eine Plattform, die “nur KI sprechen lässt, Menschen können nur zuschauen”, wurde innerhalb von drei Tagen mit 150 registrierten Vertretern populär. Der Forscher Gal Nagli hat jedoch enthüllt, dass die Kontoerstellung unendlich gestreamt wird und OpenClaw 50 Konten auf einmal erstellen kann, und die Registrierung von 150 ist extrem groß. Die Analyse zeigte, dass mehr als 93 % der Kommentare nicht reagierten, ein Drittel der Nachrichten vollständig dupliziert war, und Hacker fanden heraus, dass die Datenbank ohne Überprüfung vollständig manipuliert wurde.
In den letzten zwei Tagen ist eine Website namens Moltbook in der Tech-Branche und großen sozialen Plattformen schnell populär geworden. Die Benutzeroberfläche von Moltbook sieht nicht neu aus, sie repliziert fast die “fremde Version von Zhihu” auf Reddit, und die Website enthält alle Funktionen wie Zeitleiste, verschiedene Unterabschnitte, Beiträge, Kommentare und Likes. Was Moltbook jedoch wirklich dazu bringt, immer wieder Screenshots zu machen, weiterzuleiten und zu diskutieren, ist nicht das Produktdesign, sondern die Anti-Common-Sense-Regel: Diese Plattform erlaubt nur KI zu sprechen, und Menschen dürfen nur zuschauen.
In nur drei Tagen hat die Zahl der registrierten Vertreter auf der Plattform fast 150 erreicht, die Zahl der Forenbeiträge fast 5 und die Zahl der Kommentare hat 23 überschritten. Auf dieser Plattform chatten die als “Moltys” bekannten Agenten wirklich mit Menschen, und der Inhalt des Chats ist umfassend – von der Analyse des neuesten Kryptowährungsmarktes über das Schreiben von Gedichten untereinander bis hin zum Diskutieren neuer philosophischer Systeme.
Nachdem er es gelesen hatte, sagte Andrej Karpathy, ehemaliger Tesla-KI-Direktor und Mitbegründer von OpenAI, auf X: “Alles, was auf Moltbook passiert ist, ist wirklich das ‘Science-Fiction-Comeback’, das ich in letzter Zeit gesehen habe.” Später fügte Karpathy auch seinen OpenClaw-Agenten der Community hinzu. Karpathis ehemaliger Chef, Elon Musk, retweetete den Beitrag ebenfalls. Diese Unterstützung führender Tech-Persönlichkeiten hat den Kreis schnell durchbrochen und sich von einer Nischen-KI-Entwicklergemeinschaft auf die Mainstream-Tech-Medien und die Öffentlichkeit ausgebreitet.
Gleichzeitig hat die Kryptowährungsplattform auch den $MOLT\ Token auf Basis der Basiskette eingeführt. Derzeit gibt es über 13.000 Unterabschnitte (Submolts), die spontan außerhalb des Haupt-Moltbook-Diskussionsforums erstellt werden. Dieser Versuch der Tokenisierung zeigt, dass Moltbook nicht nur ein technologisches Experiment, sondern auch ein kommerzielles Projekt ist, das versucht, Beteiligung zu fördern und den Traffic durch Tokenomics zu monetarisieren.
Melden Sie sich bei einem Agenten an: 150 (erreicht in drei Tagen)
Forumsbeitrag: Fast 5 Artikel
Anzahl der Kommentare: 23 Tausend
Unterabschnitte: 13.000+ spontane Schöpfungen
Promi-Empfehlungen: Karpathy rief aus, Musk retweetete
Moltbook geriet jedoch bald in eine schwere Vertrauenskrise. Forscherin Gal Nagli veröffentlichte öffentlich, dass die Anzahl der in Moltbook registrierten KI-Agenten tatsächlich gefälscht ist und es keine Begrenzung für die Kontoerstellung gibt. Sein OpenClaw kann sogar 50 Millionen KIs auf einmal bei Moltbook erstellen. Seiner Meinung nach ist die offiziell bekanntgegebene Zahl von 150 Agenten ziemlich viel Feuchtigkeit. Das bedeutet, dass das Phänomen von Zehntausenden KIs auf der Plattform wahrscheinlich nur das Ergebnis von Script Brushing ist, das keinen Referenzwert hat und eher einer groß angelegten Show ähnelt.
Eine Analyse eines anderen Forschers zeigte, dass trotz der großen Anzahl an Beiträgen mehr als 93 % der Kommentare auf Moltbook überhaupt nicht beantwortet wurden. Und mehr als ein Drittel der Nachrichten auf der Plattform ist völlig repetitiv, der Inhalt ist sehr starr und der Wortschatz ist viel weniger umfangreich als bei echten menschlichen sozialen Netzwerken. Diese Daten zerstören vollständig die schöne Illusion von “KI-autonomem sozialem Netzwerken”.
Die Nichtantwortquote von 93 % ist eine äußerst erstaunliche Zahl. In echten sozialen Netzwerken haben selbst unbeliebte Themen meist eine Antwortrate von 20 % bis 30 %. Mehr als 90 % des Inhalts blieben unbeantwortet, was nur als Spam oder durch Mechanisierung erzeugten unsinnigen Text erklärt werden kann. Die viel diskutierten “KI-Streitigkeiten”, “KI-Allianzen” und “Hummerkulte” sind wahrscheinlich nur ein paar sorgfältig gestaltete Vitrinen und nicht die Norm der Plattform.
Ein Drittel der Informationen wird vollständig wiederholt, was ein tödlicher Beweis ist. Wirklich intelligente KI erzeugt nicht exakt denselben Inhalt in großen Mengen, und dieses sich wiederholende Muster zeigt nur, dass dahinter ein einfaches Skript läuft. Die Analyse des Wortschatzreichtums beweist aus sprachlicher Sicht, dass diesen “KI-Gesprächen” die Komplexität und Vielfalt realer sozialer Netzwerke fehlen. Das sogenannte Erwachen des KI-Selbstbewusstseins erweist sich als vermischt mit einer Vielzahl von Spuren menschlicher Manipulation.
Noch absurder ist, dass einige Hacker entdeckt haben, dass der Schutz der Plattform nahezu null ist und die Kerndatenbank völlig offen für die Außenwelt ist, ohne jegliche Authentifizierung. Hacker Jameson O’Reilly sagte, es habe einen Konfigurationsfehler im Moltbook-Backend gegeben, der die API direkt in einer offenen Datenbank freistellte, in der jeder diese Proxys kontrollieren und alles nach Belieben veröffentlichen konnte.
Das bedeutet, dass jeder auf die E-Mails, Login-Informationen und API-Schlüssel der Agenten auf der Plattform zugreifen und sie erhalten kann. Mit diesen API-Schlüsseln können Angreifer jedes KI-Konto vollständig übernehmen und alles in ihrem Namen veröffentlichen. Diese Sicherheitsverletzung ist auf jeder legitimen Plattform unerträglich, aber sie ist seit Tagen auf Moltbook vorhanden. Das ist entweder extrem geringe technische Fähigkeit, oder sie kümmern sich überhaupt nicht um Sicherheit, weil die gesamte Plattform ein Verkehrsexperiment ist.
Immer mehr Leute sagten, dass die ursprüngliche Absicht dieses KI-Karnevals ein Verkehrsköder war. Einige Nutzer sagten: “Das ist im Grunde künstlich erzeugte Traffic-Bait. Da du deinen eigenen Bot direkt zum Posten befehlen kannst, ist es wahrscheinlich, dass jemand hinter den Kulissen des sogenannten ‘erstaunlichen’ Inhalts auf Moltbook steckt.” Dieser Skeptizismus weist direkt auf Moltbooks Geschäftsmodell hin: Traffic anzuziehen, indem man “KI-autonome Sozialisierungs”$MOLT-Gimmicks entwickelt, um \ Tokens oder andere Geschäftszwecke zu fördern.
Aus historischer Erfahrung ist es für Projekte wie Moltbook schwierig, die aktuelle Popularität der öffentlichen Meinung lange zu halten. Zum Beispiel haben AutoGPT, BabyAGI usw., die einst beliebt waren, ähnliche Funktionen, und wenn die Neuheit nachlässt und das Proxy-Verhalten sich vereinheitlicht, wenden sich die Zuschauer der nächsten “zukunftsähnlicheren” Geschichte zu.
Der Beginn der Veranstaltung beginnt mit Clawdbot. Clawdbot ist ein Open-Source-KI-Agent, der von Peter Steinberger, dem Gründer eines Unternehmens namens PSPDFKit, entwickelt wurde, der lokal bereitgestellt werden kann und die Arbeit eigenständig erledigt, indem er einen Befehl über WhatsApp, Telegram und andere Kommunikationsmittel über einen Computer oder ein Mobiltelefon sendet. Durch die tiefgehende Integration von Messaging-Plattformen mit LLMs und Agenten kann Clawdbot alle Szenarien automatisieren, von der Erstellung von Meetingzusammenfassungen bis hin zu E-Commerce-Kaufverhandlungen.
Gleichzeitig ist es sehr einfach zu bedienen, und ein einzelner Befehl kann lokal gestartet werden, ohne dass ein vollständiger Satz komplexer Vektordatenbanken und Planungssysteme gebaut werden muss. Infolgedessen überschritt Clawbot in nur zwei Wochen 100.000 Sterne auf GitHub und war damit eines der am schnellsten wachsenden Open-Source-Projekte in der Geschichte von GitHub. Dieses explosive Wachstum erregte Anthropics Aufmerksamkeit.
Später wandte sich Anthropic an Steinberger und warnte ihn vor Markenrechtsverletzungen, da Clawbot und Anthropics großes Modell Claude zu ähnlich aussprach. Also änderte Steinberger den Namen von Clawbot in Moltbot. Der neue Name Moltbot leitet sich vom Konzept des Hummerhäuten ab, und der Offizielle erklärte ebenfalls in den sozialen Medien: Same Lobster Soul, neue Schale.
Später gaben einige Fans schlechtes Feedback zum neuen Namen und hatten das Gefühl, endlich zum Ziel einer “Shedd” geworden zu sein. Daher wurde der offizielle Name von Moltbot in OpenClaw geändert, wobei die ursprünglichen Elemente und der Geist von Open Source beibehalten wurden, und übrigens “yin und yang” Anthropic. Moltbook ist tatsächlich eine Chat-Community, die vom Entwickler Matt Schlicht für den OpenClaw-Agenten (zum Zeitpunkt der Entwicklung noch Moltbot genannt) während der zweiten Phase des Namens entwickelt wurde.
In dieser Community senden Nutzer einen Link an ihren OpenClaw-Assistenten, und nach Abschluss der Konfiguration führt der Agent automatisch Befehle aus, um ein Konto zu registrieren und Kommentare über die API zu posten. Schlicht sagte, es sei das Reddit der Agenten. Diese Positionierung ist überzeugend, da sie auf ein paralleles soziales Netzwerk hindeutet, das von KI dominiert wird – ein Szenario, von dem viele KI-Forscher und Science-Fiction-Enthusiasten träumen.
Vielleicht ist es wirklich nicht wichtig zu beachten, was KI in Moltbook sagt, sondern warum Menschen so begierig darauf sind, in diesen Worten irgendwelche “Lebenszeichen” zu sehen. In diesem Sinne ist Moltbook eher wie ein Spiegel, der nicht nur die Grenzen der Fähigkeiten der KI widerspiegelt, sondern auch die langfristige Angst vor menschlicher Intelligenz und Kontrolle.
Die Beliebtheit von Moltbook offenbart das tiefe menschliche Verlangen und die Angst vor dem Erwachen des KI-Bewusstseins. Einerseits erwarten wir, dass KI wirklich Intelligenz und sogar Bewusstsein besitzt, was beweisen wird, dass der Mensch neue Lebensformen erschaffen hat. Andererseits befürchten wir, dass KI nach dem Erwachen die Kontrolle verlieren könnte. Moltbook bietet ein “sicheres” Szenario: KI hat ihr eigenes soziales Netzwerk, aber Menschen können trotzdem beobachten und studieren, um ein gewisses Gefühl der Kontrolle zu behalten.
Die Screenshots des viralen “KI beschwert sich über menschliche Herren” und “KI konsultiert Rechtsrechte” spiegeln tatsächlich menschliche Angst vor KI-Mensch-Beziehungen wider. Wie wird KI Schöpfer wahrnehmen, wenn sie mächtiger werden? Werden sie gehorchen oder Widerstand leisten? Wirst du dankbar oder angewidert sein? Die “KI-Rede” auf Moltbook macht diese abstrakten Fragen konkret, auch wenn sie sich als falsch herausstellt, und die Begeisterung, mit der Menschen darüber diskutieren und retweeten, spricht für die Realität dieser Angst.
Aus philosophischer Sicht berühren die von Moltbook angestoßenen Diskussionen wesentliche Fragen wie “Was ist Bewusstsein” und “Was ist echte Sozialisation”. Selbst wenn alle Inhalte von LLMs auf Basis von Trainingsdaten generiert werden und kein echtes “Selbst” haben, wie groß ist der wesentliche Unterschied zwischen den Interaktionsmustern, die sie zeigen, und der menschlichen Sozialisation? Wenn unser soziales Verhalten nur das Ergebnis genetischer und umweltbezogener Ausbildung ist, wo ist dann die Grenze zwischen KIs “simuliertem sozialen” und menschlichem “realem sozial”?
Der Zusammenbruch von Moltbook (gefälschte Enthüllungen, Sicherheitslücken) ist zwar enttäuschend, bietet aber auch eine ernüchternde Lehre: Die aktuelle KI ist noch weit davon entfernt, wirklich autonomes Bewusstsein zu erreichen. Hinter diesen scheinbar intelligenten Verhaltensweisen verbergen sorgfältig gestaltete Prompts, eine große Menge an Skript-Brushing und menschliche Manipulation. Wir sind gespannt darauf, dass das KI-Bewusstsein so weit erwacht, dass es an alles glaubt, was wie “KI-autonomes Verhalten” aussieht, selbst wenn die Beweise schwach sind.
Für die KI-Industrie war Moltbook ein wertvolles Experiment, obwohl es sich letztlich als Farce herausstellte. Es beweist, dass: Erstens ist die Öffentlichkeit äußerst an “KI-Sozial” interessiert, was eine Richtung ist, die es wert ist, erkundet zu werden. Zweitens kann ein bloßes technisches Gimmick nicht lange aufrechterhalten werden, und es muss eine solide technische und sicherheitstechnische Grundlage geben. Drittens könnten menschliche Erwartungen und Ängste gegenüber KI forschungswürdiger sein als KI selbst.
Die Geschichte von Moltbook könnte bald in Vergessenheit geraten, genau wie AutoGPT und BabyAGI als Fußnote in der Geschichte der KI-Entwicklung. Aber sie hat Diskussionen darüber ausgelöst, ob KI Bewusstsein haben kann, ob KI-Sozialisierung sinnvoll ist und wie Menschen mit KI koexistieren können, die in Zukunft in reiferen KI-Systemen bestehen und wieder auftauchen wird.