> 多くのユースケースで探索されているもう一つの方法は、単純なメカニズムをゲームルールにし、AIをプレイヤーにすることです。 **原題:"****AI as the engine, humans as the steering wheel****"****執筆者:イーサリアムの創設者であるヴィタリック****コンパイル:バイシュイ、ゴールデンフィナンス** 政府、職場、ブロックチェーンベースのDAOなど、民主的な構造のどの側面を好むかを人々に尋ねると、権力の集中を避け、誰もシステムの方向性を完全に変えることはできないという強い安心感をユーザーに提供し、多くの人々の意見や知恵を集めることでより質の高い意思決定を行うことができるという同じ議論をよく耳にします。 もし人々に民主主義の構造のどの側面が好きではないか尋ねると、彼らはしばしば同じ不満を述べます:一般の有権者はうまくいっていない、なぜならそれぞれの有権者が結果にほとんど影響を与える機会がほとんどなく、ほとんどの有権者が意思決定に高品質の考えを投入していない、そしてあまりにも低い参加率(システムが攻撃しやすい)または事実上の中央集権が得られることがよくあります、なぜならそれぞれの人がいくつかの影響力のある人物の意見を信頼し、模倣するからです。 この記事の目的は、おそらくAIを使用して、悪影響を及ぼさずに民主的な構造から利益を得ることができるパラダイムを探ることです。 「AIはエンジン、人間はハンドル」。 人間がシステムに提供する情報はごくわずかで、おそらく数百程度ですが、すべてがよく考えられており、非常に高品質です。 AIは、このデータを「目的関数」として扱い、その目標を達成するために最善を尽くすために、たゆまぬ努力で多くの決定を下します。 特に、この記事では、単一のAIを中心に据えることなく、あらゆるAI(または人間と機械のハイブリッド)が自由に参加できる競争の激しいオープンマーケットに頼ることができるのか、という興味深い疑問を探ります。 ! [](https://img.gateio.im/social/moments-392c0d235cf42c4561cf3a2a2355f7cf) ## 目次 * なぜAIに直接管理させないのですか?* フュータルキー* 人類の判断力を蒸留する* ディープファンディング(Deep funding)* プライバシーの追加* エンジン+ステアリングホイールの設計の利点 ## AIに任せればいいんじゃないの? 人間の好みをAIベースのメカニズムに挿入する最も簡単な方法は、AIモデルを作成し、人間が自分の好みをある形式で入力するようにすることです。これを行うための簡単な方法があります:人間の指示リストを含むテキストファイルをシステムのプロンプトに入力するだけです。その後、AIにインターネットへのアクセス権を与えるために、多数の「代理AIフレームワーク」の1つを使用し、組織の資産やソーシャルメディアデータの鍵を提供すると、作業は完了です。 数回のイテレーションを経て、これは多くのユースケースのニーズを満たすのに十分である可能性があります。私は近い将来、AIリーディンググループによる指示(またはリアルタイムチャットの読み取り)に関連する多くの構造が見られるでしょう。 この構造は、長期的な機関のガバナンスメカニズムとして理想的ではありません。 長期的な機関が持つべき貴重な属性の1つは信頼できる中立性です。 この概念を紹介する投稿では、信頼できる中立性の4つの貴重な属性を挙げました。 *特定の人や特定の結果をメカニズムに書き込まないでください* オープンソースで検証可能*シンプルに保つ*頻繁に変更しないでください LLM(またはAIエージェント)は0/4を満たします。このモデルは、訓練プロセス中に多くの特定の人々や結果の嗜好を不可避的にエンコードします。これが時々AIの好みを驚くほどの方向に導くことがあります。たとえば、最近の研究によると、主要なLLMはアメリカの生活よりもパキスタンの生活を重視していることが示されています(!!)。それは開いた重みであるかもしれませんが、それは決してオープンソースではありません。我々は本当にモデルの深部に何が隠れているのかわかりません。それは単純の反対です:LLMのKolmogorov複雑度は何百億ビットであり、おおよそ全米法律(連邦+州+地方)の総和に相当します。さらに、AIの発展が迅速であるため、あなたは3ヶ月ごとに変更しなければなりません。 この理由から、私は多くのユースケースで探索されている別の方法として、単純なメカニズムをゲームのルールにすること、AIをプレイヤーにすることを支持しています。 この洞察力こそが市場を非常に効果的にしています:ルールは比較的愚かな所有権システムであり、端的なケースは裁判所システムによって裁定され、そのシステムはゆっくりと前例を蓄積し調整しています。そして、すべての情報は「エッジで」活動している起業家から提供されています。 ! [](https://img.gateio.im/social/moments-1b61daafc3820831207aa99395ed7f33) 単一の「ゲームプレイヤー」は、LLM、相互作用し、さまざまなインターネットサービスを呼び出すLLMグループ、さまざまなAI +人間の組み合わせ、および他の多くの構造であることができます。機構設計者として、あなたは知る必要はありません。理想的な目標は、自動的に実行されるメカニズムを持つことです-もしそのメカニズムの目標が何を資金提供するかを選択することであれば、それはできるだけビットコインやイーサリアムのブロック報酬のようになるべきです。 この方法の利点は: * それは、任意の単一のモデルをメカニズムに取り込まないようにします; 代わりに、さまざまな参加者と構造から成るオープンマーケットが得られ、それぞれが異なるバイアスを持っています。 オープンモデル、クローズドモデル、エージェントクラス、人間+AIハイブリッド、ロボット、無限の猿などすべてが公正なゲームです; このメカニズムは誰も差別しません。* このメカニズムはオープンソースです。プレイヤーはそうではありませんが、ゲームはオープンソースです - そして、これはかなり十分に理解されているモデルです(たとえば、政党や市場はこのように運営されています)* このメカニズムは非常にシンプルなため、メカニズムの設計者は自分の偏見を設計にコード化する方法が比較的少ないです* 今からシンギュラリティまで3ヶ月ごとに基礎となる参加者のアーキテクチャを再設計する必要があるとしても、メカニズムは変わりません。 メンタリングメカニズムの目標は、参加者の基本的な目標を忠実に反映することです。 少量の情報を提供するだけで済みますが、質の高い情報である必要があります。 提案と検証の非対称性を利用すると考えることができます。これは数独の解決が非常に難しいが、解決策が正しいかどうかを簡単に検証できることに似ています。プレイヤーが「解決者」として行動し、人間が実行するメカニズムを維持し、提案された解決策を検証するタスクははるかに簡単です。 ( フタルキー Futarchyは、最初にRobin Hansonによって提案され、価値の投票を行いながら信念を賭けることを意味します。投票メカニズムは、目標のグループ(どんな目標でも構いませんが、計測可能でなければなりません)を選択し、それらをMという尺度に組み合わせます。意思決定を行う必要がある場合(簡単のためYES/NOと仮定します)、あなたは条件付き市場を設定します:人々に)i(がYESまたはNOを選択するかを賭けるように求めます。)ii###がYESを選択した場合、Mの値、そうでない場合はゼロ、(iii)がNOを選択した場合、Mの値、そうでない場合はゼロ。これらの3つの変数があれば、市場がYESまたはNOがMの値にとって有利かどうかを判断できます。 ! [](https://img.gateio.im/social/moments-f97210964c811a4b5457e32e881e1a9c) 「会社の株価」(暗号通貨の場合はトークン価格)は、理解と測定が簡単なため、最もよく引用される指標ですが、このメカニズムは、月間アクティブユーザー数、特定のグループの自己申告による幸福度の中央値、定量化可能な分散型指標など、さまざまな指標をサポートできます。 Futarchyはもともと人工知能の時代より前に発明されました。 しかし、Futarchyは、前のセクションで説明した「複雑なソルバー、単純なバリデーター」のパラダイムに完全に適合し、Futarchyのトレーダーは人工知能(または人間+人工知能の組み合わせ)になることもできます。 「ソルバー」(予測市場トレーダー)の役割は、提案された各計画が将来の指標の価値にどのように影響するかを判断することです。 難しいです。 ソルバーが正しければ儲かり、ソルバーが正しければ損をします。 バリデーター(指標に投票する人で、指標が「不正」または古くなっていることに気付いた場合、指標を調整し、将来のある時点で指標の実際の値を決定する人)は、「現在の指標の価値はどれくらいか」という単純な質問に答えるだけで済みます。 ( 人間の判断を蒸留する 人間の判断の蒸留は、次のように機能するメカニズムのクラスです。 答えを出さなければならない質問は山ほどあります(100万件)。 自然な例としては、次のようなものがあります。 *このリストの各人は、プロジェクトまたはタスクへの貢献に対してどのくらいのクレジットを受け取る必要がありますか?* これらのコメントの中で、どれがソーシャルメディアプラットフォーム(またはサブコミュニティ)の規則に違反していますか?* これらの指定されたイーサリアムアドレスの中で、どれが本物でユニークな人を表していますか?* これらの物理的な対象の中で、どれがその環境への美的貢献に積極的または消極的な影響を与えていますか? あなたはこれらの質問に答えるためのチームを持っていますが、その代償として多くの労力を費やす必要があります。あなたはチームに少数の質問に回答するように要求するだけです(たとえば、総リストが100万項目ある場合、チームはそのうちの100項目にしか応えないかもしれません)。あなたはチームに間接的な質問をすることさえできます。「アリスは総信用の何パーセントを獲得すべきか」とは尋ねないで、「アリスまたはボブはより多くの信用を得るべきであり、何倍多くか」と尋ねます。陪審団メカニズムを設計する際には、予算委員会、裁判所(判決の価値を決定する)、評価など、現実世界で実証済みのメカニズムを繰り返し使用することができます。もちろん、陪審団参加者自体も新しいAI研究ツールを使用して答えを見つけるのに役立てることができます。 その後、誰もが全体の問題セットに対する数字の回答リストを提出できるようにします(たとえば、各参加者がどれだけのクレジットを受け取るかの推定値を提供する)。参加者には、このタスクを完了するために人工知能を使用することが奨励されますが、彼らは人工知能、人間と機械のハイブリッド、インターネット検索にアクセスでき、他の人間または人工知能の労働者を雇うことができる人工知能、制御論に基づいた強化された猿など、どんな技術でも使用できます。 完全なリストの提供者と陪審員が回答を提出すると、陪審員の回答に基づいて完全なリストが検証され、陪審員の回答と最も互換性のある完全なリストの組み合わせが最終的な答えとして選択されます。 蒸留の人間の判断メカニズムはフタルキーのそれとは異なりますが、いくつかの重要な類似点があります。 * futarchyでは、「解算者」が予測を行い、その予測に基づく「真のデータ」(解算者に報酬または罰を与えるための出力指標値)は、陪審団が運営する予言マシンです。* 蒸留された人間の判断では、「解算者」が多くの問題に答え、彼らの予測は陪審団が提供するこれらの問題の一部の高品質な回答に基づいています。 ! [])https://img.gateio.im/social/moments-c370546e826b9a01499438d77a3d2781( 信用割り当てに使用される、人間の判断を蒸留するためのおもちゃの例を示す、Pythonコードはこちらを参照してください。スクリプトは、あなたが陪審団として行動し、いくつかのAI生成(および人間生成)完全リストが事前にコードに含まれている必要があります。このメカニズムは、陪審団の答えに最も適した完全リストの線形結合を識別します。この場合、勝利の組み合わせは0.199 \* Claudeの答え+0.801 \* Deepseekの答えです。この組み合わせは、任意の単一モデルよりも陪審団の答えにより適合しています。これらの係数は、提出者に報酬として与えられます。 この「ソーレン打倒」の例では、「人間がハンドルとして機能する」側面は2つの点で表れています。まず、すべての問題には高品質な人間の判断が適用されていますが、これは依然として陪審団を「技術官僚」として利用したパフォーマンス評価になっています。次に、「ソーレン打倒」が正しい目標であるかどうかを決定する暗黙の投票メカニズムがあります(例えば、ソーレンと同盟を結ぼうとするか、あるいは平和的な譲歩として東岸のすべての領土を彼に譲渡しようとするなどとは異なります)。他にも、陪審団の使命がより直接的な価値観を持つ人間の判断の例があります:たとえば、分散型ソーシャルメディアプラットフォーム(またはサブコミュニティ)を想像してみてください。陪審団の仕事は、ランダムに選択されたフォーラムの投稿がコミュニティの規則を守るかどうかを判断することです。 蒸留の人間の判断パラダイムには、いくつかの未解決の変数があります。 * サンプリング方法は?完全なリストの提出者は多くの回答を提供する役割を果たします。陪審員は高品質な回答を提供する役割を果たします。陪審員を選択し、陪審員に問題を選択する方法は、モデルが陪審員の回答と最もよく一致する能力を示すように陪審員を選択する必要があります。考慮すべき要因には次のものがあります:* 専門知識と偏見のバランス:熟練した陪審員は通常、専門分野に特化しているため、彼らに評価すべきコンテンツを選択させると、より高品質な入力が得られます。一方、選択肢が多すぎると、偏見(陪審員が関連する人のコンテンツを好む)や抽出の欠点(特定のコンテンツがシステム的に評価されていない)が生じる可能性があります。* 古典的なハッキング:コンテンツが人工知能システムを「操作」しようとする試みがあります。たとえば、コントリビューターが印象的に見えるが無意味な大量のコードを生成することです。これは、審査員がそれを検出できることを意味しますが、静的な人工知能モデルは積極的な試みがない限りそれを検出しません。このような行動を捉える可能性のある方法の1つは、チャレンジメカニズムを追加することです。このメカニズムを通じて個人がこのような試みをマークし、審査員がそれを判断することを保証します(これにより、人工知能開発者がそれらを正しく捕捉するよう奨励されます)。審査員が同意すれば、通報者には報酬が支払われます。審査員が同意しない場合は罰金が課されます。*どの採点機能を使用していますか? 現在のディープ・グラントのパイロット版で使われているアイデアの1つは、陪審員に「AとBのどちらがより多くのクレジットを得るべきか、そしてどのくらいのクレジットを得るべきか」と尋ねることです。 スコアリング関数は score)x### = sum()log(x)( - です。 log(x([B] - log)juror\_ratio([A] \*\* 2 )A, B, juror\_ratio( in jury\_answers): つまり、陪審員の回答ごとに、完全なリストのレートが陪審員によって提供されたレートからどれだけ離れているかを尋ね、距離の 2 乗に比例したペナルティ (対数空間) を追加します。 これは、採点関数には多くの設計空間があり、採点関数の選択は、陪審員にどの質問をするかの選択に関連していることを示すためです。*完全なリストの提出者にどのように報酬を与えますか?理想的な状況では、複数の参加者に非ゼロの報酬を頻繁に与え、独占メカニズムを避けたいと思うかもしれませんが、また、以下の属性を満たしたいと思うかもしれません:参加者が同じ(またはわずかに変更した)回答セットを複数回提出して報酬を増やすことができないようにすること。有望な方法の一つは、陪審員の回答に最も適した完全なリストの線形組合(係数は非負で合計が1になる)を直接計算し、これらの同じ係数を使用して報酬を分割することです。他にも方法があるかもしれません。 全体として、目標は既知の有効で偏見の少ない、時間の経過に耐える人間の判断メカニズムを採用することです(たとえば、裁判所システムの対立構造がどのようにして論争の当事者で情報が多いが偏見を持っている一方、裁判官は情報が少ないが偏見を持っていないかもしれないかを想像してください)、そしてこれらのメカニズムを合理的かつ高い忠実度で非常に低コストな予測指標として使用することです(これは大規模な予測モデルの「蒸留」の仕組みに似ています)。 ) ディープファイナンス ディープファイナンスとは、「Xの信用の何パーセントがYに属するか」という問いを埋めるために、人間の蒸留の判断を適用することです。グラフ上部の重み付けの問題。 最も簡単な方法は、1つの例を直接使って説明することです: ! [](https://img.gateio.im/social/moments-d7f60d040a50a7d49ddd8a385b2fe42d) 2つの階層の深い資金調達の例の出力:イーサリアムの思想の起源。ここでPythonコードを確認してください。 ここでは、イーサリアムへの哲学的貢献に対する名誉を割り当てることが目標です。例を見てみましょう: *ここに示されているシミュレートされたディープファンディングラウンドは、サイファーパンク運動に20.5%、技術進歩主義に9.2%のクレジットを与えています。* 各ノードで、あなたは質問をします:それはどの程度までオリジナルの貢献ですか(したがって、それ自体は称賛に値します)、そしてそれは他の上流の影響のどの程度の再結合ですか? サイファーパンク・ムーブメントの場合、40%が新規で、60%が依存しています。リベラルな小政府主義とアナキズムは、サイファーパンク運動の17.3%の功績をあげたが、スイスの直接民主制では5%に過ぎない。* ただし、自由主義の小さな政府主義と無政府主義もビットコインの通貨哲学に影響を与え、それによってイーサリアムの哲学にも影響を与えています。*自由主義的小政府主義和非政府主義がイーサリアムへの総貢献度を計算するには、各パス上のエッジを掛け合わせ、それを合計する必要があります:0.205 \* 0.6 \* 0.173 + 0.195 \* 0.648 \* 0.201 ≈ 0.0466。したがって、イーサリアムの哲学に貢献したすべての人々に報酬を与えるために100ドルを寄付しなければならない場合、このシミュレートされたディープフィナンスラウンドに基づいて、自由主義の小政府主義者と無政府主義者は4.66ドルを受け取ることになります。 この方法は、以前の作業を基にしており、構造が非常に明確な領域に適用することを目的としています。学術界(引用図を思い浮かべてください)やオープンソースソフトウェア(ライブラリ依存関係やフォークを考えてみてください)は、自然な例です。 運用がスムーズなデプスファンディングシステムの目標は、グローバルなグラフを作成し維持することであり、特定のプロジェクトをサポートしたい支援者は、そのノードを表すアドレスに資金を送金でき、資金はエッジの重みに基づいて自動的にその依存関係項目に伝播されます(およびそれらの依存関係項目に再帰的に)。 内蔵のディープファンディングデバイスを使用してトークンを発行する分散型プロトコルを想像することができます:プロトコル内の分散型ガバナンスは、プロトコルが自動的にトークンを発行し、それ自身に対応するノードに預けるため、ディープファンディングメカニズムを実行する陪審員を選択します。 そうすることで、プロトコルはプログラムですべての直接的および間接的な貢献者に報酬を与え、ビットコインまたはイーサリアムのブロック報酬が特定のタイプの貢献者(マイナー)に報酬を与える方法を彷彿とさせます。 エッジの重みに影響を与えることで、陪審員は評価する貢献の種類を常に定義できます。 このメカニズムは、マイニング、販売、または1回限りのエアドロップに代わる、分散型で長期的に持続可能な代替手段として機能します。 ## プライバシーの追加 通常、上記の例の問題に正しい判断を下すには、個人情報にアクセスできる必要があります:組織の内部チャット記録、コミュニティメンバーの秘密の情報など。特にスケールの小さい環境では、「単一のAIのみ」を使用する利点は、情報にアクセスさせることが全員に公開するよりも受け入れやすいということです。 このようなケースで蒸留の人間の判断や多額の資金が機能するために、暗号技術を使用してAIに個人情報への安全なアクセスを許可することができます。 この考え方は、マルチパーティ計算)MPC###、完全準同型暗号化(FHE)、信頼できる実行環境(TEE)、または同様のメカニズムを使用して個人情報を提供することですただし、その出力がメカニックに直接入る「完全なリストコミット」である場合に限ります。 あなたがそうするなら、機構セットを AI モデルに制限する必要があります(人間または AI + 人間の組み合わせではなく、データを人間に見せることはできません)、特定のベース(たとえば MPC、FHE、信頼できるハードウェア)で実行されるモデル。主要な研究方向の1つは、最近の十分に効果的で意味のある実用的なバージョンを見つけることです。 ## エンジン+ステアリングホイールの設計の利点 このような設計には多くの有望な利点があります。 最も重要な利点は、DAOを構築できるため、人間の有権者が方向性をコントロールできることですが、あまりにも多くの決定に縛られることはありません。 彼らは、全員がN個の決定を下す必要はないが、単に決定を下すだけでなく(デリゲートの通常の動作方法)、直接表現するのが難しい豊かな好みをより引き出す力を持っているという妥協点に到達します。 また、このようなメカニズムは、インセンティブのスムーズさを持つようです。ここでいう「インセンティブのスムーズさ」とは、2つの要素の組み合わせを指します。 * 拡散:投票機構が採用するどんな単一の行動も、どんな単一の参加者の利益にも過度の影響を与えない。* 混乱: 投票決定とそれが参加者の利益に与える影響の関係は、より複雑で計算が難しい。 ここでの混乱と拡散という用語は、暗号学から取られており、これらは暗号化とハッシュ関数の安全性の重要な特性です。 「アリスの会社に2億ドル」、「ボブの会社に1億ドル」という形で定期的に行動を起こす代わりに、政府のトップは多数の参加者に均等に適用されるように設計されたルールを可決し、それを別のアクターグループによって解釈されます。 このアプローチが機能すれば、贈収賄やその他の形態の汚職の利益を大幅に減らすことができるというメリットがあります。 実際によく起こることですが、違反すると、これらの問題はすぐにかなり拡大します。 AIは明らかに将来の重要な構成要素となるでしょう。これは、将来のガバナンスに避けられない重要な構成要素となるでしょう。ただし、AIをガバナンスに参加させると明らかなリスクがあります:AIには偏見があり、トレーニングプロセス中に意図的に破壊される可能性があり、AI技術は非常に速く発展しており、「AIに権力を与える」ということは実際には「AIをアップグレードする責任を持つ人に権力を与える」ということを意味するかもしれません。蒸留された人間の判断は、前進する代替手段を提供し、AIの力を自由な市場の方法で利用しながら、人間のコントロールを維持したまま民主主義を維持できるようにします。 Devansh Mehta、Davide Crapis さん、Julian Zawistowski さんには、フィードバックとレビューを特に感謝し、Tina Zhen さん、Shaw Walters さん、他の皆さんとのディスカッションもありがとうございます。
Vitalikの新文:未来のガバナンスの新しいパラダイム「AIエンジン+人間のハンドル」
原題:"AI as the engine, humans as the steering wheel"
執筆者:イーサリアムの創設者であるヴィタリック
コンパイル:バイシュイ、ゴールデンフィナンス
政府、職場、ブロックチェーンベースのDAOなど、民主的な構造のどの側面を好むかを人々に尋ねると、権力の集中を避け、誰もシステムの方向性を完全に変えることはできないという強い安心感をユーザーに提供し、多くの人々の意見や知恵を集めることでより質の高い意思決定を行うことができるという同じ議論をよく耳にします。
もし人々に民主主義の構造のどの側面が好きではないか尋ねると、彼らはしばしば同じ不満を述べます:一般の有権者はうまくいっていない、なぜならそれぞれの有権者が結果にほとんど影響を与える機会がほとんどなく、ほとんどの有権者が意思決定に高品質の考えを投入していない、そしてあまりにも低い参加率(システムが攻撃しやすい)または事実上の中央集権が得られることがよくあります、なぜならそれぞれの人がいくつかの影響力のある人物の意見を信頼し、模倣するからです。
この記事の目的は、おそらくAIを使用して、悪影響を及ぼさずに民主的な構造から利益を得ることができるパラダイムを探ることです。 「AIはエンジン、人間はハンドル」。 人間がシステムに提供する情報はごくわずかで、おそらく数百程度ですが、すべてがよく考えられており、非常に高品質です。 AIは、このデータを「目的関数」として扱い、その目標を達成するために最善を尽くすために、たゆまぬ努力で多くの決定を下します。 特に、この記事では、単一のAIを中心に据えることなく、あらゆるAI(または人間と機械のハイブリッド)が自由に参加できる競争の激しいオープンマーケットに頼ることができるのか、という興味深い疑問を探ります。
!
目次
AIに任せればいいんじゃないの?
人間の好みをAIベースのメカニズムに挿入する最も簡単な方法は、AIモデルを作成し、人間が自分の好みをある形式で入力するようにすることです。これを行うための簡単な方法があります:人間の指示リストを含むテキストファイルをシステムのプロンプトに入力するだけです。その後、AIにインターネットへのアクセス権を与えるために、多数の「代理AIフレームワーク」の1つを使用し、組織の資産やソーシャルメディアデータの鍵を提供すると、作業は完了です。
数回のイテレーションを経て、これは多くのユースケースのニーズを満たすのに十分である可能性があります。私は近い将来、AIリーディンググループによる指示(またはリアルタイムチャットの読み取り)に関連する多くの構造が見られるでしょう。
この構造は、長期的な機関のガバナンスメカニズムとして理想的ではありません。 長期的な機関が持つべき貴重な属性の1つは信頼できる中立性です。 この概念を紹介する投稿では、信頼できる中立性の4つの貴重な属性を挙げました。
*特定の人や特定の結果をメカニズムに書き込まないでください
LLM(またはAIエージェント)は0/4を満たします。このモデルは、訓練プロセス中に多くの特定の人々や結果の嗜好を不可避的にエンコードします。これが時々AIの好みを驚くほどの方向に導くことがあります。たとえば、最近の研究によると、主要なLLMはアメリカの生活よりもパキスタンの生活を重視していることが示されています(!!)。それは開いた重みであるかもしれませんが、それは決してオープンソースではありません。我々は本当にモデルの深部に何が隠れているのかわかりません。それは単純の反対です:LLMのKolmogorov複雑度は何百億ビットであり、おおよそ全米法律(連邦+州+地方)の総和に相当します。さらに、AIの発展が迅速であるため、あなたは3ヶ月ごとに変更しなければなりません。
この理由から、私は多くのユースケースで探索されている別の方法として、単純なメカニズムをゲームのルールにすること、AIをプレイヤーにすることを支持しています。 この洞察力こそが市場を非常に効果的にしています:ルールは比較的愚かな所有権システムであり、端的なケースは裁判所システムによって裁定され、そのシステムはゆっくりと前例を蓄積し調整しています。そして、すべての情報は「エッジで」活動している起業家から提供されています。
!
単一の「ゲームプレイヤー」は、LLM、相互作用し、さまざまなインターネットサービスを呼び出すLLMグループ、さまざまなAI +人間の組み合わせ、および他の多くの構造であることができます。機構設計者として、あなたは知る必要はありません。理想的な目標は、自動的に実行されるメカニズムを持つことです-もしそのメカニズムの目標が何を資金提供するかを選択することであれば、それはできるだけビットコインやイーサリアムのブロック報酬のようになるべきです。
この方法の利点は:
メンタリングメカニズムの目標は、参加者の基本的な目標を忠実に反映することです。 少量の情報を提供するだけで済みますが、質の高い情報である必要があります。
提案と検証の非対称性を利用すると考えることができます。これは数独の解決が非常に難しいが、解決策が正しいかどうかを簡単に検証できることに似ています。プレイヤーが「解決者」として行動し、人間が実行するメカニズムを維持し、提案された解決策を検証するタスクははるかに簡単です。
( フタルキー
Futarchyは、最初にRobin Hansonによって提案され、価値の投票を行いながら信念を賭けることを意味します。投票メカニズムは、目標のグループ(どんな目標でも構いませんが、計測可能でなければなりません)を選択し、それらをMという尺度に組み合わせます。意思決定を行う必要がある場合(簡単のためYES/NOと仮定します)、あなたは条件付き市場を設定します:人々に)i(がYESまたはNOを選択するかを賭けるように求めます。)ii###がYESを選択した場合、Mの値、そうでない場合はゼロ、(iii)がNOを選択した場合、Mの値、そうでない場合はゼロ。これらの3つの変数があれば、市場がYESまたはNOがMの値にとって有利かどうかを判断できます。
!
「会社の株価」(暗号通貨の場合はトークン価格)は、理解と測定が簡単なため、最もよく引用される指標ですが、このメカニズムは、月間アクティブユーザー数、特定のグループの自己申告による幸福度の中央値、定量化可能な分散型指標など、さまざまな指標をサポートできます。
Futarchyはもともと人工知能の時代より前に発明されました。 しかし、Futarchyは、前のセクションで説明した「複雑なソルバー、単純なバリデーター」のパラダイムに完全に適合し、Futarchyのトレーダーは人工知能(または人間+人工知能の組み合わせ)になることもできます。 「ソルバー」(予測市場トレーダー)の役割は、提案された各計画が将来の指標の価値にどのように影響するかを判断することです。 難しいです。 ソルバーが正しければ儲かり、ソルバーが正しければ損をします。 バリデーター(指標に投票する人で、指標が「不正」または古くなっていることに気付いた場合、指標を調整し、将来のある時点で指標の実際の値を決定する人)は、「現在の指標の価値はどれくらいか」という単純な質問に答えるだけで済みます。
( 人間の判断を蒸留する
人間の判断の蒸留は、次のように機能するメカニズムのクラスです。 答えを出さなければならない質問は山ほどあります(100万件)。 自然な例としては、次のようなものがあります。
*このリストの各人は、プロジェクトまたはタスクへの貢献に対してどのくらいのクレジットを受け取る必要がありますか?
あなたはこれらの質問に答えるためのチームを持っていますが、その代償として多くの労力を費やす必要があります。あなたはチームに少数の質問に回答するように要求するだけです(たとえば、総リストが100万項目ある場合、チームはそのうちの100項目にしか応えないかもしれません)。あなたはチームに間接的な質問をすることさえできます。「アリスは総信用の何パーセントを獲得すべきか」とは尋ねないで、「アリスまたはボブはより多くの信用を得るべきであり、何倍多くか」と尋ねます。陪審団メカニズムを設計する際には、予算委員会、裁判所(判決の価値を決定する)、評価など、現実世界で実証済みのメカニズムを繰り返し使用することができます。もちろん、陪審団参加者自体も新しいAI研究ツールを使用して答えを見つけるのに役立てることができます。
その後、誰もが全体の問題セットに対する数字の回答リストを提出できるようにします(たとえば、各参加者がどれだけのクレジットを受け取るかの推定値を提供する)。参加者には、このタスクを完了するために人工知能を使用することが奨励されますが、彼らは人工知能、人間と機械のハイブリッド、インターネット検索にアクセスでき、他の人間または人工知能の労働者を雇うことができる人工知能、制御論に基づいた強化された猿など、どんな技術でも使用できます。
完全なリストの提供者と陪審員が回答を提出すると、陪審員の回答に基づいて完全なリストが検証され、陪審員の回答と最も互換性のある完全なリストの組み合わせが最終的な答えとして選択されます。
蒸留の人間の判断メカニズムはフタルキーのそれとは異なりますが、いくつかの重要な類似点があります。
! [])https://img.gateio.im/social/moments-c370546e826b9a01499438d77a3d2781(
信用割り当てに使用される、人間の判断を蒸留するためのおもちゃの例を示す、Pythonコードはこちらを参照してください。スクリプトは、あなたが陪審団として行動し、いくつかのAI生成(および人間生成)完全リストが事前にコードに含まれている必要があります。このメカニズムは、陪審団の答えに最も適した完全リストの線形結合を識別します。この場合、勝利の組み合わせは0.199 * Claudeの答え+0.801 * Deepseekの答えです。この組み合わせは、任意の単一モデルよりも陪審団の答えにより適合しています。これらの係数は、提出者に報酬として与えられます。
この「ソーレン打倒」の例では、「人間がハンドルとして機能する」側面は2つの点で表れています。まず、すべての問題には高品質な人間の判断が適用されていますが、これは依然として陪審団を「技術官僚」として利用したパフォーマンス評価になっています。次に、「ソーレン打倒」が正しい目標であるかどうかを決定する暗黙の投票メカニズムがあります(例えば、ソーレンと同盟を結ぼうとするか、あるいは平和的な譲歩として東岸のすべての領土を彼に譲渡しようとするなどとは異なります)。他にも、陪審団の使命がより直接的な価値観を持つ人間の判断の例があります:たとえば、分散型ソーシャルメディアプラットフォーム(またはサブコミュニティ)を想像してみてください。陪審団の仕事は、ランダムに選択されたフォーラムの投稿がコミュニティの規則を守るかどうかを判断することです。
蒸留の人間の判断パラダイムには、いくつかの未解決の変数があります。
全体として、目標は既知の有効で偏見の少ない、時間の経過に耐える人間の判断メカニズムを採用することです(たとえば、裁判所システムの対立構造がどのようにして論争の当事者で情報が多いが偏見を持っている一方、裁判官は情報が少ないが偏見を持っていないかもしれないかを想像してください)、そしてこれらのメカニズムを合理的かつ高い忠実度で非常に低コストな予測指標として使用することです(これは大規模な予測モデルの「蒸留」の仕組みに似ています)。
) ディープファイナンス
ディープファイナンスとは、「Xの信用の何パーセントがYに属するか」という問いを埋めるために、人間の蒸留の判断を適用することです。グラフ上部の重み付けの問題。
最も簡単な方法は、1つの例を直接使って説明することです:
!
2つの階層の深い資金調達の例の出力:イーサリアムの思想の起源。ここでPythonコードを確認してください。
ここでは、イーサリアムへの哲学的貢献に対する名誉を割り当てることが目標です。例を見てみましょう:
*ここに示されているシミュレートされたディープファンディングラウンドは、サイファーパンク運動に20.5%、技術進歩主義に9.2%のクレジットを与えています。
この方法は、以前の作業を基にしており、構造が非常に明確な領域に適用することを目的としています。学術界(引用図を思い浮かべてください)やオープンソースソフトウェア(ライブラリ依存関係やフォークを考えてみてください)は、自然な例です。
運用がスムーズなデプスファンディングシステムの目標は、グローバルなグラフを作成し維持することであり、特定のプロジェクトをサポートしたい支援者は、そのノードを表すアドレスに資金を送金でき、資金はエッジの重みに基づいて自動的にその依存関係項目に伝播されます(およびそれらの依存関係項目に再帰的に)。
内蔵のディープファンディングデバイスを使用してトークンを発行する分散型プロトコルを想像することができます:プロトコル内の分散型ガバナンスは、プロトコルが自動的にトークンを発行し、それ自身に対応するノードに預けるため、ディープファンディングメカニズムを実行する陪審員を選択します。 そうすることで、プロトコルはプログラムですべての直接的および間接的な貢献者に報酬を与え、ビットコインまたはイーサリアムのブロック報酬が特定のタイプの貢献者(マイナー)に報酬を与える方法を彷彿とさせます。 エッジの重みに影響を与えることで、陪審員は評価する貢献の種類を常に定義できます。 このメカニズムは、マイニング、販売、または1回限りのエアドロップに代わる、分散型で長期的に持続可能な代替手段として機能します。
プライバシーの追加
通常、上記の例の問題に正しい判断を下すには、個人情報にアクセスできる必要があります:組織の内部チャット記録、コミュニティメンバーの秘密の情報など。特にスケールの小さい環境では、「単一のAIのみ」を使用する利点は、情報にアクセスさせることが全員に公開するよりも受け入れやすいということです。
このようなケースで蒸留の人間の判断や多額の資金が機能するために、暗号技術を使用してAIに個人情報への安全なアクセスを許可することができます。 この考え方は、マルチパーティ計算)MPC###、完全準同型暗号化(FHE)、信頼できる実行環境(TEE)、または同様のメカニズムを使用して個人情報を提供することですただし、その出力がメカニックに直接入る「完全なリストコミット」である場合に限ります。
あなたがそうするなら、機構セットを AI モデルに制限する必要があります(人間または AI + 人間の組み合わせではなく、データを人間に見せることはできません)、特定のベース(たとえば MPC、FHE、信頼できるハードウェア)で実行されるモデル。主要な研究方向の1つは、最近の十分に効果的で意味のある実用的なバージョンを見つけることです。
エンジン+ステアリングホイールの設計の利点
このような設計には多くの有望な利点があります。 最も重要な利点は、DAOを構築できるため、人間の有権者が方向性をコントロールできることですが、あまりにも多くの決定に縛られることはありません。 彼らは、全員がN個の決定を下す必要はないが、単に決定を下すだけでなく(デリゲートの通常の動作方法)、直接表現するのが難しい豊かな好みをより引き出す力を持っているという妥協点に到達します。
また、このようなメカニズムは、インセンティブのスムーズさを持つようです。ここでいう「インセンティブのスムーズさ」とは、2つの要素の組み合わせを指します。
ここでの混乱と拡散という用語は、暗号学から取られており、これらは暗号化とハッシュ関数の安全性の重要な特性です。
「アリスの会社に2億ドル」、「ボブの会社に1億ドル」という形で定期的に行動を起こす代わりに、政府のトップは多数の参加者に均等に適用されるように設計されたルールを可決し、それを別のアクターグループによって解釈されます。 このアプローチが機能すれば、贈収賄やその他の形態の汚職の利益を大幅に減らすことができるというメリットがあります。 実際によく起こることですが、違反すると、これらの問題はすぐにかなり拡大します。
AIは明らかに将来の重要な構成要素となるでしょう。これは、将来のガバナンスに避けられない重要な構成要素となるでしょう。ただし、AIをガバナンスに参加させると明らかなリスクがあります:AIには偏見があり、トレーニングプロセス中に意図的に破壊される可能性があり、AI技術は非常に速く発展しており、「AIに権力を与える」ということは実際には「AIをアップグレードする責任を持つ人に権力を与える」ということを意味するかもしれません。蒸留された人間の判断は、前進する代替手段を提供し、AIの力を自由な市場の方法で利用しながら、人間のコントロールを維持したまま民主主義を維持できるようにします。
Devansh Mehta、Davide Crapis さん、Julian Zawistowski さんには、フィードバックとレビューを特に感謝し、Tina Zhen さん、Shaw Walters さん、他の皆さんとのディスカッションもありがとうございます。