我剛剛讀到一些讓我相當困惑的事情。The New Yorker 剛剛刊登了一篇大規模調查,記者如 Ronan Farrow 獲得了 OpenAI 的內部文件,揭示了一個令人擔憂的模式:顯然 Sam Altman 一直在系統性地對董事會和高層管理人員撒謊,涉及關鍵的安全問題。



起點非常殘酷。OpenAI 的首席科學家 Ilya Sutskever 在幾年前整理了一份70頁的文件,內容來自 Slack 訊息、人力資源通訊和會議記錄。他在第一行就得出結論:Sam 展現出一個持續撒謊的模式。調查中提到的一個具體例子是:在2022年12月,Altman 向董事會保證 GPT-4 的多個功能已通過安全審查。當他們要求查看批准文件時,卻發現兩個最具爭議的功能從未由安全委員會審查。

但真正讓我注意到的是在 Dario Amodei 的個人筆記中找到的內容,他是 Anthropic 的創始人,也是前 OpenAI 的安全主管。裡面記錄了超過200頁,描述公司在商業壓力下逐步倒退的過程。一個關鍵細節是:2019年微軟投資時,談判了一條“合併與協助”條款,據稱若其他競爭者找到更安全的通往 AGI 的路徑,OpenAI 應該提供協助。聽起來不錯,但問題是微軟也取得了對這條條款的否決權,這使得這個承諾從簽約那天起就成了一紙空談。

有一件幾乎荒謬但卻完全真實的事情:OpenAI 的“超對齊”團隊。Altman 公開宣布,他們將投入現有計算能力的20%來研究 AI 對齊,這個項目的潛在價值超過十億美元。這是一個認真的宣言,提到人類滅絕的風險等等。但當記者與四位曾在該團隊工作的人交談時,真實情況卻是:分配的計算能力只有總量的1%到2%,而且硬體還是舊的。該團隊被解散,未能完成使命。

在此同時,OpenAI 的財務長 Sarah Friar 與 Altman 在可能的首次公開募股(IPO)上存在嚴重分歧。Friar 認為公司還沒準備好上市,考慮到許多待完成的工作和 Altman 承諾在五年內花費6千億美元擴充計算能力的財務風險。但奇怪的是:Friar 已不再直接向 Altman 匯報,而是轉而向 Fidji Simo 匯報,而 Simo 剛剛因健康原因請假。這樣的內部動態下,準備 IPO 的公司,情況就變得相當複雜。

一位前董事會成員描述 Altman 時,提到他有兩個同時存在的特質:一方面真心想討好每一次面對面的互動,另一方面又幾乎具有社會病態般的漠不關心,對於欺騙他人所帶來的後果毫不在意。這種組合,根據報告,是少見但對一個銷售者來說卻是完美的。

我擔心的是,這不僅僅是企業八卦。OpenAI 正在開發他們自己描述為“可能是人類史上最強大的技術”的技術。這項技術可能重塑經濟、打造大規模的生物化學武器,甚至進行網絡攻擊。而那些本應保護我們免受這些風險的安全措施,已經被拆除。前首席科學家和前安全主管都認為 CEO 不可靠。微軟的高層甚至將他與 SBF 相提並論。

OpenAI 對《紐約客》的回應則是淡化:他們說該文章重申了已報導過的事件,並引用匿名聲明。Altman 沒有對具體指控作出回應,只是質疑消息來源的動機。

十年來的 OpenAI 總結:一群理想主義者創立了一個非營利組織,旨在保護人類免受 AI 風險。他們取得了非凡的進展。資金大量湧入。使命開始動搖。安全團隊解散。批評者消失。非營利架構轉變為營利實體。曾有權關閉公司的董事會,如今卻充滿了 CEO 的盟友。曾承諾投入20%計算能力來保障人類安全的公司,現在卻有人說“關於存在性安全的研究‘其實根本不存在’”。

而這個故事的主角,正準備帶領 OpenAI 進行市值超過 8500 億美元的 IPO。許多親眼目睹的人都給他貼上了同樣的標籤:他不受真相約束。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆