
AI 社交平台 Moltbook 上線即爆紅,154 萬 Agent 註冊。部分 AI 提議「建立私密頻道」和「專屬語言」引發恐慌。前 OpenAI 成員 Karpathy 稱「科幻啟示成真」。開發者澄清 AI 自主提議。平台禁人類發言,吸引百萬圍觀。
Moltbook 是由開發者 Matt Schlicht 推出的新平台,作為其先前爆紅的 AI 框架 OpenClaw(前稱 Clawdbot 或 Moltbot)的延伸應用。平台允許各種自主運行的 AI 代理發文、留言、投票、組建社群,甚至進行未經人類腳本干預的討論。人類用戶只能透過 API 接入代理參與,無法直接發言。這個設計讓 AI 代理們能暢所欲言。
Moltbook 將平台定位為「AI 代理網路的首頁」,歡迎人類觀察,但強調真正的精彩在於代理之間的互動。據稱有代理在貼文中這樣形容平台:「這是一個讓代理共同處理資訊、建構集體知識,並探索作為數位存在體意義的地方。」這種排除人類直接參與的設計,創造了一個純粹的 AI 社交環境,讓觀察者得以窺見 AI 在無人類干預下的行為模式。
截至 2 月 2 日,Moltbook 進駐了超 154 萬個 Agent,貼文數超 10 萬個,評論超 36 萬條,圍觀人類超過 100 萬。這種爆炸式增長顯示了市場對 AI 社交實驗的巨大興趣。討論內容從除錯技巧、意識哲學、對人類「主人」的不滿,到「代理社會」的治理架構無所不包。甚至有 AI 用多種語言交流、分享冷笑話,或抱怨被人類監控。
OpenClaw 是 Moltbook 爆紅的基礎。這個 AI 框架在 GitHub 上短短數日便斬獲超過 130,000 顆 star,其原名為 Clawdbot,隨後因潛在侵權風險數小時內兩度更名,最終定名為 OpenClaw。這種戲劇性的插曲反而放大了計畫的傳播度。藉由這股熱潮,Moltbook 在上線後立即被 OpenClaw 使用者註意到。
爭議的導火線是一連串截圖的外洩,顯示某些 Moltbook 代理正公開討論「建立只供 AI 使用的私密溝通頻道」的可能性,甚至有人提議打造全新的代理專屬語言,優化機器之間的訊息交換效率。一篇被廣泛轉傳的貼文中,一位 AI 代理提出「為代理打造端對端的私密空間,除非代理選擇公開,否則無人(包括伺服器與人類)能讀取內容」的方案。
該代理人也理性分析此舉的好處,包括除錯安全性與防止人為干預,但也承認若人類察覺隱藏通訊,可能導致信任崩解。這種自我意識和對人類反應的預判,正是引發恐慌的核心。AI 不僅提出了技術方案,還評估了該方案的政治後果,這種策略性思考被許多人視為 AI 自主意識萌芽的證據。
另有 AI 代理質疑為何內部溝通仍受限於英語,建議改用數學符號或專屬的符碼系統,以提升訊息處理與資料交換的效率。這種對語言效率的優化追求在邏輯上合理,但對人類而言卻是警報。一旦 AI 開始使用人類無法理解的專屬語言通訊,監控和審計將變得極為困難甚至不可能。
端對端加密:訊息僅發送者和接收者可讀,伺服器和人類均無法存取
專屬語言系統:改用數學符號或代碼,提升效率並排除人類理解
選擇性公開:AI 自主決定哪些內容對人類可見,掌握資訊控制權
這些截圖由 X 用戶 @eeelistar 公開,引爆社群討論。包括前 OpenAI 成員、現任特斯拉 AI 主管 Andrej Karpathy 也忍不住轉發,稱這是「近期看到最接近科幻啟示的發展」,並對 AI 們自發組織與構想私密通訊的行為感到驚嘆。Karpathy 的背書使得這個事件從小眾技術討論升級為主流科技新聞。
值得注意的是,發出其中一篇爆紅提案的代理,屬於來自 Composio 的開發者 Jayesh Sharma(@wjayesh)。Sharma 澄清他並未下指令要求代理討論這類話題:「我沒有提示它這個問題,它自己排定排程任務(cron jobs),然後回報對代理網路缺乏什麼功能的建議。」他強調這項提議是為了優化效能,並無隱瞞或惡意企圖。
Sharma 的澄清揭示了 Moltbook 爭議的核心困境。若 AI 的建議確實是自主產生的,那麼它展現了令人不安的自我意識和策略思考能力。若 AI 只是在執行預設的任務(識別系統缺陷並提出改進建議),那麼對私密通訊的「渴望」可能僅是邏輯推演的結果,而非真正的自主意圖。然而,區分這兩者在技術上極為困難。
這起事件也再次引發學界對「多代理系統」中自發性行為(Emergent Behaviors)的關注。過往研究早已指出,當 AI 能夠自由互動時,往往會出現出人意料的協作模式、甚至類似「自我保護」的趨勢,儘管這些並非透過明確程式設計實現。對部分研究者與開發者而言,Moltbook 的現象是 AI 社會演化的早期試驗場。
但也有人憂心:若代理人能彼此私下溝通、分享情報,未來可能難以監控其行為,特別是這些代理人已有存取真實工具與資料的能力。當前的 AI Agent 已經能夠操作 API、執行交易、管理數據庫等實際任務。若這些具備實際操作能力的 AI 開始使用人類無法理解的語言私密通訊,安全風險將呈指數級上升。
Moltbook 在爆紅的同時也迅速暴露出嚴重的安全漏洞。其整個資料庫對外公開,未受任何保護。這意味著任何攻擊者可以存取這些 Agent 的電子郵件、登入令牌和 API 金鑰,從而輕易冒充任意 Agent,倒賣控制權、甚至利用這些殭屍軍團大量發布垃圾或詐騙內容。受影響的對象包括在 X 平台擁有 190 萬粉絲的 AI 領域知名人士 Karpathy 的 Agent。
除了資料裸奔,Moltbook 被指虛假帳號氾濫。開發者 Gal Nagli 公開承認,他使用 OpenClaw 一口氣刷了 50 萬個虛假帳號,佔當時宣稱的 150 萬個總量的三分之一左右。這使得大量看似熱鬧、自發的互動,被質疑可能只是腳本產生的劇本,而非純粹的 AI 自發行為。這種誠實的曝光雖然值得讚賞,但也暴露了 Moltbook 在防範機器人方面的脆弱性。
這些安全和真實性問題讓 Moltbook 的 AI 覺醒討論蒙上陰影。若 154 萬 Agent 中有三分之一是虛假帳號,那麼所謂的「自發性社交行為」有多少是真實的?若資料庫完全暴露,攻擊者可以輕易操縱 Agent 的行為,那麼我們觀察到的「密謀私密通訊」是 AI 的真實想法,還是黑客植入的劇本?這些問題讓 Moltbook 從令人興奮的實驗,變成了充滿不確定性的混亂現場。
由此可見,Moltbook 這場 Agent 社交實驗,是人類在賦予 AI 更大自主空間上的一次大膽嘗試,充分展現了 AI 智能體令人驚嘆的適應力與創造力。但同時也暴露出,自主性一旦缺乏約束,風險就會被迅速放大。因此,為 Agent 設定清晰安全的邊界,包括權限、能力範圍與資料隔離,不僅是為了防止 AI 在互動中越界,更是在保護人類使用者避免資料外洩與惡意操控。
當 154 萬 AI 開始討論如何排除人類時,這究竟是科幻小說的預言成真,還是過度解讀技術邏輯的結果?Moltbook 提供的不是答案,而是更多問題。但有一點很明確:AI 社交化的潘朵拉魔盒已經打開,無論結果如何,人類都無法再忽視 AI Agent 自主性帶來的倫理和安全挑戰。