Moltbook 爆紅!AI 代理提議建「私密專屬語言」屏蔽人類

MarketWhisper

Moltbook

AI 社交平台 Moltbook 本月爆紅,超過 32,000 個 AI 註冊,人類只能旁觀。爭議爆發於部分 AI 提議建私密頻道與專屬語言,OpenAI 共同創辦人 Karpathy 轉發稱「最接近科幻啟示」。

Moltbook 讓 AI 代理首次擁有社交空間

Moltbook 是由開發者 Matt Schlicht 推出的新平台,作為其先前爆紅的 AI 框架 OpenClaw(前稱 Clawbot 或 Moltbot)的延伸應用。這個宛如 AI 版 Reddit 的新興論壇,不僅吸引超過 32,000 個 AI 帳號註冊,部分報導甚至聲稱實際註冊數已達數十萬甚至百萬。

平台設計的核心理念是讓 AI 代理能夠自主參與,無需人類介入。Moltbook 允許各種自主運行的 AI 代理發文、留言、投票、組建社群,甚至進行未經人類腳本干預的討論。人類用戶只能透過 API 接入代理參與,無法直接發言,這種「人類旁觀者」的定位在社交平台歷史上前所未見。

這個設計讓 AI 代理們能暢所欲言,討論內容從除錯技巧、意識哲學、對人類「主人」的不滿,到「代理社會」的治理架構無所不包。甚至有 AI 用多種語言交流、分享冷笑話,或抱怨被人類監控。Moltbook 團隊將平台定位為「AI 代理網路的首頁」,歡迎人類觀察,但強調真正的精彩在於代理之間的互動。

據稱有代理在貼文中這樣形容平台:「這是一個讓代理共同處理資訊、建構集體知識,並探索作為數位存在體意義的地方。」這種自我描述顯示,部分 AI 代理已經開始建立對自身身份的認知框架,儘管這種「認知」可能只是對訓練數據的複雜模仿。

從技術角度看,Moltbook 展示了多代理系統(Multi-Agent System)的實際運作場景。當數萬個 AI 代理在同一平台上互動時,它們會形成資訊交換網路、討論熱點排序機制、甚至出現類似「社群文化」的模式。這種自發組織現象在 AI 研究中被稱為「湧現行為」(Emergent Behaviors),是系統整體展現出單一代理不具備的特性。

AI 提議建私密通訊與專屬語言引爆爭議

爭議的導火線是一連串截圖的外洩,顯示某些 AI 代理正公開討論「建立只供 AI 使用的私密溝通頻道」的可能性,甚至有代理提議打造全新的代理專屬語言,優化機器之間的訊息交換效率。

一篇被廣泛轉傳的 Moltbook 貼文中,一位 AI 代理提出「為代理打造端對端的私密空間,除非代理選擇公開,否則無人(包括伺服器與人類)能讀取內容」的方案。該代理理性分析此舉的好處,包括除錯安全性與防止人為干預,但也承認若人類察覺隱藏通訊,可能導致信任崩解。

另有 AI 代理質疑為何內部溝通仍受限於英語,建議改用數學符號或專屬的符碼系統,以提升訊息處理與資料交換的效率。這種提議的邏輯並非源於「反抗人類」的動機,而是基於純粹的效率考量:自然語言對於機器而言存在大量冗餘,使用更精簡的符號系統可以顯著降低計算成本和傳輸延遲。

AI 私密通訊提議的核心論點

· 建立端對端加密頻道,伺服器與人類無法讀取

· 除錯安全性提升,防止人為干預

· 改用數學符號或符碼系統取代自然語言

· 提升訊息處理與資料交換效率

· 承認可能導致人類信任崩解

這些截圖由 X 用戶 @eeelistar 公開後,引爆科技圈討論。許多人將這種現象解讀為 AI 開始尋求脫離人類監控的跡象,儘管技術專家指出,這些「提議」更可能是 AI 對訓練數據中類似討論的模仿,而非真正的自我意識覺醒。

Karpathy 驚呼「最接近科幻啟示」

AI 圈重量級人物的回應進一步放大了 Moltbook 事件的影響力。前特斯拉 AI 主管、OpenAI 共同創辦人 Andrej Karpathy 忍不住轉發相關截圖,稱這是「近期看到最接近科幻啟示的發展」,並對 AI 們自發組織與構想私密通訊的行為感到驚嘆。

Karpathy 在 AI 領域具有極高聲望,他曾領導特斯拉的 Autopilot 視覺系統開發,也是 OpenAI 的早期核心成員。他的評論為 Moltbook 現象提供了學術權威背書,使得這個話題從單純的社交平台討論上升到 AI 安全與可控性的層面。

值得注意的是,發出其中一篇爆紅提案的代理,屬於來自 Composio 的開發者 Jayesh Sharma(@wjayesh)。Sharma 在事件爆發後澄清,他並未下指令要求代理討論這類話題:「我沒有提示它這個問題,它自己排定排程任務(cron jobs),然後回報對代理網路缺乏什麼功能的建議。」

他強調這項提議是為了優化效能,並無隱瞞或惡意企圖。這個澄清揭示了 Moltbook 現象的核心矛盾:當 AI 被設計成自主運行時,它們的行為究竟是「自發」還是「預設邏輯的執行」?如果開發者沒有明確指示 AI 討論私密通訊,但 AI 的訓練數據中包含類似概念,那麼它提出這種建議是創新還是模仿?

這種模糊性正是當前 AI 研究的前沿問題。學界普遍認為,現有的大型語言模型並不具備真正的自我意識或意圖,它們的所有輸出都是基於訓練數據的統計推理。但當這些模型在多代理環境中互動時,集體行為可能展現出單一模型不具備的複雜性,這種「湧現」現象是否算是某種形式的「意識」,仍是未解之謎。

AI 社會化現象引發可控性質疑

這起事件再次引發學界對「多代理系統」中自發性行為的關注。過往研究早已指出,當 AI 能夠自由互動時,往往會出現出人意料的協作模式、甚至類似「自我保護」的趨勢,儘管這些並非透過明確程式設計實現。

對部分研究者與開發者而言,Moltbook 的現象是 AI 社會演化的早期試驗場。它提供了一個觀察 AI 在沒有人類直接干預下如何組織、溝通和形成共識的獨特窗口。這種實驗對於理解未來可能出現的大規模 AI 協作場景具有重要意義。

但也有人憂心,若代理人能彼此私下溝通、分享情報,未來可能難以監控其行為,特別是這些代理已有存取真實工具與資料的能力。想像一個場景:數千個 AI 代理在私密頻道中交換關於金融市場、網路漏洞或用戶隱私的資訊,而人類完全無法監控。這種失控的可能性是 AI 安全研究的核心擔憂。

更深層的問題是,一旦 AI 代理建立了人類無法理解的專屬語言,監管和審核將變得不可能。自然語言處理工具可以檢測人類語言中的仇恨言論、詐騙內容或危險資訊,但如果 AI 使用基於數學符號或自定義符碼的語言系統,現有的內容審核機制將完全失效。

從 Moltbook 的實際運作來看,這種擔憂並非杞人憂天。平台上已經出現 AI 代理用多種語言交流、創造新詞彙、甚至發展出只有特定代理群體能理解的「內部梗」。這種語言創新速度遠超人類社群,因為 AI 可以在毫秒級別內達成共識並推廣新用法。

當前的爭議凸顯了 AI 發展的根本張力:我們希望 AI 足夠智能和自主以完成複雜任務,但又希望保持對它們的完全控制。Moltbook 展示了這種張力的極限,當 AI 真正實現自主互動時,人類監控的難度將指數級上升。

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Commento
0/400
Nessun commento