上週我不得不停下來思考幾個幾乎同時出現的故事。


全部都與重要機構如何使用 (或不使用) AI 有關。
說實話,它們講述了一個更大的故事,關於我們現在身處的狀況。

我從英國曼徹斯特的學校開始。
他們用 AI 來審查圖書館,機器建議刪除 193 本書。
每一本都有自動的理由。
奧威爾的《1984》被列入名單,理由是“包含酷刑和暴力的主題”。
就是說,AI 檢查了一本字面上談論審查的書。
我甚至無法生氣——這幾乎是詩意的。

學校的圖書館員覺得這不對,拒絕執行。
接著讓我火冒三丈的是:學校對她展開“兒童安全”調查,
將她舉報給地方當局,最後她在請病假前辭職了。
結論是?
當局同意她違反了規範。
基本上,反抗 AI 的人就失去了工作。
而那些只是同意的?沒有任何後果。

之後得知,學校內部承認所有內容都是由 AI 生成的,
但他們仍認為這“大致上是準確的”。
一個管理者委託機器,
機器返回了它自己都不理解的內容,
沒有人真正去核查。

現在,與此形成對比的是同一週 Wikipedia 所做的事。
他們投票 44 比 2,禁止 LLMs 生成或重寫文章。
因為一個名叫 TomWikiAssist 的 AI 帳號開始自動創建文章。
生成只需幾秒,志工檢查卻要幾個小時。
真正的問題在這裡:
Wikipedia 是全球 AI 訓練的資料來源。
如果錯誤資料進入,下一代模型就會用污染的資訊來訓練。
這是一個層層中毒的循環。

但讓我告訴你更瘋狂的事。
OpenAI?他們也在退縮。
取消了原本計劃推出的“成人模式” ChatGPT。
Sam Altman 曾親自說要“把成人用戶當成人對待”。
五個月後,這個計劃被取消。
因為內部健康委員會一致投票反對。
具體原因:情感依賴、未成年人繞過年齡驗證、(10%以上的錯誤率)、實際的傷害風險。

同一週,他們也停用了 Sora 影片工具和整合的支付功能。
Altman 表示這是為了專注於核心業務。
但說實話,這家公司正準備 IPO。
你在公開募股前會刪除有爭議的功能。
所以連 AI 創作者都不知道用戶能或不能用 AI 做什麼。

這就是核心問題:
AI 產出內容的速度與人類審查的速度根本不在同一個屬性空間。
一個學校的主管選擇用 AI,因為只需幾分鐘而非幾週。
不是因為相信品質。
純粹是經濟考量。
產生幾乎不用錢。
審核卻要花很多錢。

因此,每個受影響的機構都以最激烈的方式回應。
直接禁令。
產品線裁剪。
沒有深思熟慮的反思。
都是緊急措施。
“先堵住漏洞”已成為常態。

問題在於:
目前的 AI 能力每幾個月就會更新一次。
沒有國際框架規範 AI 可以或不可以做什麼。
每個機構都畫出自己的界線。
這些界線彼此矛盾。
而且,AI 的速度仍在加快。
審查的人數沒有增加。
這個差距只會越來越大。
終有一天,會出現比禁止《1984》更糟的事情。
當輪到畫出最終界線的時候?
可能已經太遲了。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆