未来三年大模型の知能的な進化はどれほど凄まじいものになるのでしょうか?



分解してみると、実際には二つの変数が推進しています:ハードウェアの計算能力の指数関数的な増加と、モデル自体のscaling規則です。

チップ側から見ると、ほぼ18ヶ月ごとに計算能力が4倍になる—これは業界で認められているペースです。訓練データ側からは、現在のscaling lawに基づいて推定すると、利用可能な高品質データはおよそ2-3回のこのようなイテレーションを支えることができます。

こう計算すると、2029年までに大モデルの知能レベルは現在の16倍に向上することになります。この数字は少し狂っているように聞こえます。

Web3やAIインフラのような新興分野にとって、この能力向上は応用の早期実現を加速させる鍵となるかもしれません。しかし同時に、私たちは早い段階で技術倫理やリスク管理の問題について考える必要もあります。

あなたはどう思いますか?その可能性に期待しますか、それとも少し心配ですか?
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • リポスト
  • 共有
コメント
0/400
AirdropHunter9000vip
· 13時間前
16回? そんなことはありません。データのボトルネックは長い間ブロックされていて、思っているよりずっと保守的なものになるでしょう(笑) アルゴリズムは1日に16回もブローし、その結果、トレーニングデータはとっくに底を打ち、インターネットのテキストは本当に無限になっています Web3にも独自のドラマがあります。モデルの推論がうまく分散できれば、その可能性は依然として高いです しかし倫理については長年議論されており、実際に管理されているものもいくつかあります
原文表示返信0
FloorSweepervip
· 20時間前
16回? その頃にはみんな失業しているのでしょうか(笑)。
原文表示返信0
AirdropLickervip
· 20時間前
16倍?データボトルネックこそ真のキラーだ。高品質なデータは全く足りない
原文表示返信0
SillyWhalevip
· 20時間前
16倍?嘘だろ、データがなくなったらどうやって継続的にイテレーションするんだ 人工知能モデル 大規模モデル
原文表示返信0
Ser_Liquidatedvip
· 20時間前
16倍?那データのボトルネックはどうなのか、あまり感じられないね
原文表示返信0
  • ピン