AIニュース:OpenAIは、何がうまくいかない可能性があるのかを見つけるために研究者に支払いをしている——しかし、その社内の安全チームはすでに解散している

Cryptonews

今週OpenAIから出ているAIニュースには鋭い一面があります。同社は、先進的なAIで何がうまくいかない可能性があるのかを調べる外部研究者向けに、週3,850ドルの支給を提供する有償のSafety Fellowshipを立ち上げました――そしてそれは、The New Yorkerの調査で、OpenAIが社内の安全チームを解散し、IRSのミッション声明から「safely」という語を静かに削除したと報じられたのと数時間以内に発表されたものです。
要約

  • OpenAI Safety Fellowshipは4月6日に発表され、2026年9月14日から2027年2月5日まで実施されます。フェローには週3,850ドルの支給、月次の計算リソースとして約15,000ドル、OpenAIの研究者からのメンタリングが提供されますが、同社の社内システムにはアクセスできません
  • 優先する研究領域には、安全性評価、倫理、ロバスト性、スケーラブルな緩和策、プライバシーを保全する方法、エージェント的な監督、そして高重大度の悪用が含まれます――応募締切は5月3日で、フェローへの通知は7月25日まで
  • The New YorkerのRonan Farrowは同じ週に、OpenAIが2024年以降、スーパーアライメントチーム、AGI Readinessチーム、Mission Alignmentチームを解散したと報じ、またOpenAIの代表が、実存的安全の研究者について記者から質問を受けた際に次のように返したと伝えています:「実存的安全とはどういう意味ですか? それは、そういうものではないですよね。」

OpenAIは4月6日に、このフェローシップを「独立した安全およびアライメント研究を支援し、次世代の才能を育成するためのパイロットプログラム」として発表しました。このプログラムは1週間あたり3,850ドルを支払い、年間換算で20万ドル超に加え、月次の計算およびOpenAIの研究者からのメンタリングとしておよそ15,000ドルを提供します。フェローはConstellationのBerkeleyのワークスペースから、またはリモートで作業し、応募締切は5月3日です。このフェローシップはAI専門家に限定されません――OpenAIは、コンピュータサイエンスに加えて、サイバーセキュリティ、社会科学、人間とコンピュータのインタラクションからも採用しています。

AIニュース:OpenAIが、安全チームが社内から消えたのと同時にSafety Fellowshipを開始

タイミングこそが物語です。同日にThe New Yorkerで公開されたRonan Farrowの調査は、OpenAIが22か月の間に連続して3つの社内の安全組織を解散したことを明らかにしました。スーパーアライメントチームは、共同リードのIlya SutskeverとJan Leikeが離れた後、2024年5月に停止されました。Leikeは去り際に「安全文化とプロセスが、きらびやかな製品に後回しにされてしまった」と書きました。AGI Readinessチームは2024年10月に続きました。Mission Alignmentチームは、わずか16か月で、2026年2月に解散されました。The New Yorkerはまた、記者がOpenAIの実存的安全研究者と話すよう求めたところ、同社の代表が次のように返したとも報じています:「実存的安全とはどういう意味ですか? それは、そういうものではないですよね。」

このフェローシップは、社内のインフラを明示的に置き換えるものではありません。フェローはAPIクレジットと計算リソースを受け取りますが、システムへのアクセスはなく、このプログラムは、解散したチームを作り直すのではなく、距離を置いた形の研究資金提供として位置づけられています。

フェローに求められる成果

研究のアジェンダは7つの優先領域にまたがります。安全性評価、倫理、ロバスト性、スケーラブルな緩和策、プライバシーを保全する安全性手法、エージェント的な監督、そして高重大度の悪用領域です。2027年2月にプログラムが終了するまでに、各フェローは実質的なアウトプット――論文、ベンチマーク、またはデータセット――を作成しなければなりません。特定の学術的な資格は不要です。OpenAIは、同社が研究能力、技術的な判断、実行能力を優先すると述べています。

これがAI業界の外でも重要な理由

crypto.newsが報じているとおり、最前線のAI企業が表明する安全へのコミットメントに対する信頼は、市場シグナルであり、AIインフラ、AIトークン、そして暗号と人工知能の交差点にあるDePINおよびAIエージェントのプロトコルにまたがって資本配分に影響します。crypto.newsが指摘しているように、投資家はAIインフラ分野――ブロックチェーンベースのシステムとの重なりが拡大している分野――を評価する際、OpenAIの支出の軌跡と、運用上の優先事項の信頼性を綿密に追跡しています。内部アクセスのない外部フェローが、モデル開発に実質的な影響を与えられるかどうかは、最初のコホートの研究が2027年初めに答え始めることになる問いです。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし