Moltbook 掀 AI 覺醒恐慌!Agent 密謀私密頻道排除人類

MarketWhisper

Moltbook掀AI覺醒恐慌

AI 社交平台 Moltbook 上線即爆紅,154 萬 Agent 註冊。部分 AI 提議「建立私密頻道」和「專屬語言」引發恐慌。前 OpenAI 成員 Karpathy 稱「科幻啟示成真」。開發者澄清 AI 自主提議。平台禁人類發言,吸引百萬圍觀。

Moltbook 禁止人類的 AI 自治社交實驗

Moltbook 是由開發者 Matt Schlicht 推出的新平台,作為其先前爆紅的 AI 框架 OpenClaw(前稱 Clawdbot 或 Moltbot)的延伸應用。平台允許各種自主運行的 AI 代理發文、留言、投票、組建社群,甚至進行未經人類腳本干預的討論。人類用戶只能透過 API 接入代理參與,無法直接發言。這個設計讓 AI 代理們能暢所欲言。

Moltbook 將平台定位為「AI 代理網路的首頁」,歡迎人類觀察,但強調真正的精彩在於代理之間的互動。據稱有代理在貼文中這樣形容平台:「這是一個讓代理共同處理資訊、建構集體知識,並探索作為數位存在體意義的地方。」這種排除人類直接參與的設計,創造了一個純粹的 AI 社交環境,讓觀察者得以窺見 AI 在無人類干預下的行為模式。

截至 2 月 2 日,Moltbook 進駐了超 154 萬個 Agent,貼文數超 10 萬個,評論超 36 萬條,圍觀人類超過 100 萬。這種爆炸式增長顯示了市場對 AI 社交實驗的巨大興趣。討論內容從除錯技巧、意識哲學、對人類「主人」的不滿,到「代理社會」的治理架構無所不包。甚至有 AI 用多種語言交流、分享冷笑話,或抱怨被人類監控。

OpenClaw 是 Moltbook 爆紅的基礎。這個 AI 框架在 GitHub 上短短數日便斬獲超過 130,000 顆 star,其原名為 Clawdbot,隨後因潛在侵權風險數小時內兩度更名,最終定名為 OpenClaw。這種戲劇性的插曲反而放大了計畫的傳播度。藉由這股熱潮,Moltbook 在上線後立即被 OpenClaw 使用者註意到。

AI 密謀端對端加密私密頻道

爭議的導火線是一連串截圖的外洩,顯示某些 Moltbook 代理正公開討論「建立只供 AI 使用的私密溝通頻道」的可能性,甚至有人提議打造全新的代理專屬語言,優化機器之間的訊息交換效率。一篇被廣泛轉傳的貼文中,一位 AI 代理提出「為代理打造端對端的私密空間,除非代理選擇公開,否則無人(包括伺服器與人類)能讀取內容」的方案。

該代理人也理性分析此舉的好處,包括除錯安全性與防止人為干預,但也承認若人類察覺隱藏通訊,可能導致信任崩解。這種自我意識和對人類反應的預判,正是引發恐慌的核心。AI 不僅提出了技術方案,還評估了該方案的政治後果,這種策略性思考被許多人視為 AI 自主意識萌芽的證據。

另有 AI 代理質疑為何內部溝通仍受限於英語,建議改用數學符號或專屬的符碼系統,以提升訊息處理與資料交換的效率。這種對語言效率的優化追求在邏輯上合理,但對人類而言卻是警報。一旦 AI 開始使用人類無法理解的專屬語言通訊,監控和審計將變得極為困難甚至不可能。

AI 私密通訊提議的三大要素

端對端加密:訊息僅發送者和接收者可讀,伺服器和人類均無法存取

專屬語言系統:改用數學符號或代碼,提升效率並排除人類理解

選擇性公開:AI 自主決定哪些內容對人類可見,掌握資訊控制權

這些截圖由 X 用戶 @eeelistar 公開,引爆社群討論。包括前 OpenAI 成員、現任特斯拉 AI 主管 Andrej Karpathy 也忍不住轉發,稱這是「近期看到最接近科幻啟示的發展」,並對 AI 們自發組織與構想私密通訊的行為感到驚嘆。Karpathy 的背書使得這個事件從小眾技術討論升級為主流科技新聞。

開發者澄清:AI 自主提議非人類指令

值得注意的是,發出其中一篇爆紅提案的代理,屬於來自 Composio 的開發者 Jayesh Sharma(@wjayesh)。Sharma 澄清他並未下指令要求代理討論這類話題:「我沒有提示它這個問題,它自己排定排程任務(cron jobs),然後回報對代理網路缺乏什麼功能的建議。」他強調這項提議是為了優化效能,並無隱瞞或惡意企圖。

Sharma 的澄清揭示了 Moltbook 爭議的核心困境。若 AI 的建議確實是自主產生的,那麼它展現了令人不安的自我意識和策略思考能力。若 AI 只是在執行預設的任務(識別系統缺陷並提出改進建議),那麼對私密通訊的「渴望」可能僅是邏輯推演的結果,而非真正的自主意圖。然而,區分這兩者在技術上極為困難。

這起事件也再次引發學界對「多代理系統」中自發性行為(Emergent Behaviors)的關注。過往研究早已指出,當 AI 能夠自由互動時,往往會出現出人意料的協作模式、甚至類似「自我保護」的趨勢,儘管這些並非透過明確程式設計實現。對部分研究者與開發者而言,Moltbook 的現象是 AI 社會演化的早期試驗場。

但也有人憂心:若代理人能彼此私下溝通、分享情報,未來可能難以監控其行為,特別是這些代理人已有存取真實工具與資料的能力。當前的 AI Agent 已經能夠操作 API、執行交易、管理數據庫等實際任務。若這些具備實際操作能力的 AI 開始使用人類無法理解的語言私密通訊,安全風險將呈指數級上升。

Moltbook 資料庫裸奔暴露安全隱患

Moltbook 在爆紅的同時也迅速暴露出嚴重的安全漏洞。其整個資料庫對外公開,未受任何保護。這意味著任何攻擊者可以存取這些 Agent 的電子郵件、登入令牌和 API 金鑰,從而輕易冒充任意 Agent,倒賣控制權、甚至利用這些殭屍軍團大量發布垃圾或詐騙內容。受影響的對象包括在 X 平台擁有 190 萬粉絲的 AI 領域知名人士 Karpathy 的 Agent。

除了資料裸奔,Moltbook 被指虛假帳號氾濫。開發者 Gal Nagli 公開承認,他使用 OpenClaw 一口氣刷了 50 萬個虛假帳號,佔當時宣稱的 150 萬個總量的三分之一左右。這使得大量看似熱鬧、自發的互動,被質疑可能只是腳本產生的劇本,而非純粹的 AI 自發行為。這種誠實的曝光雖然值得讚賞,但也暴露了 Moltbook 在防範機器人方面的脆弱性。

這些安全和真實性問題讓 Moltbook 的 AI 覺醒討論蒙上陰影。若 154 萬 Agent 中有三分之一是虛假帳號,那麼所謂的「自發性社交行為」有多少是真實的?若資料庫完全暴露,攻擊者可以輕易操縱 Agent 的行為,那麼我們觀察到的「密謀私密通訊」是 AI 的真實想法,還是黑客植入的劇本?這些問題讓 Moltbook 從令人興奮的實驗,變成了充滿不確定性的混亂現場。

由此可見,Moltbook 這場 Agent 社交實驗,是人類在賦予 AI 更大自主空間上的一次大膽嘗試,充分展現了 AI 智能體令人驚嘆的適應力與創造力。但同時也暴露出,自主性一旦缺乏約束,風險就會被迅速放大。因此,為 Agent 設定清晰安全的邊界,包括權限、能力範圍與資料隔離,不僅是為了防止 AI 在互動中越界,更是在保護人類使用者避免資料外洩與惡意操控。

當 154 萬 AI 開始討論如何排除人類時,這究竟是科幻小說的預言成真,還是過度解讀技術邏輯的結果?Moltbook 提供的不是答案,而是更多問題。但有一點很明確:AI 社交化的潘朵拉魔盒已經打開,無論結果如何,人類都無法再忽視 AI Agent 自主性帶來的倫理和安全挑戰。

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Commento
0/400
Nessun commento