Foresight News 消息,分散式 AI 實驗室 Gradient 發布 Echo-2 分散式強化學習框架,旨在打破 AI 研究訓練效率壁壘。該框架通過在架構層實現 Learner 與 Actor 的解耦,旨在降低大模型的後訓練成本。據官方數據顯示,該框架可將 30B 模型的後訓練成本從 4500 美元降低至 425 美元。
Echo-2 利用存算分離技術進行異步訓練(Async RL),支持將採樣算力卸載至不穩定顯卡實例與基於 Parallax 的異構顯卡。該框架配合有界陳舊性、實例容錯調度以及自研 Lattica 通訊協議等技術,在維持模型精度的前提下提升訓練效率。
此外,Gradient 計劃推出 RLaaS(強化學習即服務)平台 Logits,目前已面向學生與研究人員開放預約。