今週OpenAIから出ているAIニュースには鋭い一面があります。同社は、先進的なAIで何がうまくいかない可能性があるのかを調べる外部研究者向けに、週3,850ドルの支給を提供する有償のSafety Fellowshipを立ち上げました――そしてそれは、The New Yorkerの調査で、OpenAIが社内の安全チームを解散し、IRSのミッション声明から「safely」という語を静かに削除したと報じられたのと数時間以内に発表されたものです。
要約
OpenAIは4月6日に、このフェローシップを「独立した安全およびアライメント研究を支援し、次世代の才能を育成するためのパイロットプログラム」として発表しました。このプログラムは1週間あたり3,850ドルを支払い、年間換算で20万ドル超に加え、月次の計算およびOpenAIの研究者からのメンタリングとしておよそ15,000ドルを提供します。フェローはConstellationのBerkeleyのワークスペースから、またはリモートで作業し、応募締切は5月3日です。このフェローシップはAI専門家に限定されません――OpenAIは、コンピュータサイエンスに加えて、サイバーセキュリティ、社会科学、人間とコンピュータのインタラクションからも採用しています。
タイミングこそが物語です。同日にThe New Yorkerで公開されたRonan Farrowの調査は、OpenAIが22か月の間に連続して3つの社内の安全組織を解散したことを明らかにしました。スーパーアライメントチームは、共同リードのIlya SutskeverとJan Leikeが離れた後、2024年5月に停止されました。Leikeは去り際に「安全文化とプロセスが、きらびやかな製品に後回しにされてしまった」と書きました。AGI Readinessチームは2024年10月に続きました。Mission Alignmentチームは、わずか16か月で、2026年2月に解散されました。The New Yorkerはまた、記者がOpenAIの実存的安全研究者と話すよう求めたところ、同社の代表が次のように返したとも報じています:「実存的安全とはどういう意味ですか? それは、そういうものではないですよね。」
このフェローシップは、社内のインフラを明示的に置き換えるものではありません。フェローはAPIクレジットと計算リソースを受け取りますが、システムへのアクセスはなく、このプログラムは、解散したチームを作り直すのではなく、距離を置いた形の研究資金提供として位置づけられています。
研究のアジェンダは7つの優先領域にまたがります。安全性評価、倫理、ロバスト性、スケーラブルな緩和策、プライバシーを保全する安全性手法、エージェント的な監督、そして高重大度の悪用領域です。2027年2月にプログラムが終了するまでに、各フェローは実質的なアウトプット――論文、ベンチマーク、またはデータセット――を作成しなければなりません。特定の学術的な資格は不要です。OpenAIは、同社が研究能力、技術的な判断、実行能力を優先すると述べています。
crypto.newsが報じているとおり、最前線のAI企業が表明する安全へのコミットメントに対する信頼は、市場シグナルであり、AIインフラ、AIトークン、そして暗号と人工知能の交差点にあるDePINおよびAIエージェントのプロトコルにまたがって資本配分に影響します。crypto.newsが指摘しているように、投資家はAIインフラ分野――ブロックチェーンベースのシステムとの重なりが拡大している分野――を評価する際、OpenAIの支出の軌跡と、運用上の優先事項の信頼性を綿密に追跡しています。内部アクセスのない外部フェローが、モデル開発に実質的な影響を与えられるかどうかは、最初のコホートの研究が2027年初めに答え始めることになる問いです。