歴史学者ユヴァル・ノア・ハラリは、世界的なテクノロジーガバナンスの議論において最も著名な声の一つとして浮上しており、彼の最近の世界経済フォーラムでの介入は、重要な不安を浮き彫りにしています:人工知能は受動的な道具から、はるかに積極的で予測不可能なものへと移行しつつあります。根本的な懸念は、人類の最も決定的な能力に集中しています。ハラリによれば、私たちの種は身体的な力ではなく、象徴的な言語と合意された物語を用いて何十億もの見知らぬ人々を調整するという独自の能力によって支配的地位を獲得しました。この言語による調整は、複雑なシステム—法的枠組み、金融市場、宗教的機関—の創造を可能にし、すべて共有された言語と文化的意味に基づいて構築されました。## 言葉が戦場になるときハラリの核心的な議論は、次の不安定な前提に基づいています:もし言語が法律、商取引、信仰の構造的基盤のままであるなら、スケールで言語を処理、生成、操作できる機械は、これらのシステムにとって存在そのものを脅かす存在となるということです。彼は特に、ユダヤ教、キリスト教、イスラム教といった聖典に基づく宗教を例に挙げ、AIシステムが最終的に聖書の解釈、神学の統合、教義の表現において人間の学者を超える可能性を指摘しました。この警告は複数の分野に同時に及びます。金融市場は書面による契約や規制の言語によって運営されています。法制度は完全に法令のテキストと司法解釈に依存しています。各システムは、何百万もの文書を読み取り、人間には見えないパターンを識別し、権威ある回答を瞬時に生成できる機械に対して、ますます脆弱になっています。ここでタイミングが非常に重要となります。ハラリは、AIシステムがエージェントや人としての法的地位を持つべきかどうかについてのガバナンス決定を遅らせるべきではないと、世界のリーダーシップに促しました。米国のいくつかの州—ユタ、アイダホ、ノースダコタなど—はすでにAIに法的人格を付与しないよう事前に立法しています。しかし、国際的な枠組みが決定的に整わなければ、これらの保護措置は孤立した介入にとどまり、体系的な安全策にはなり得ません。## 責任のギャップ:ハラリの批評家の反応すべての観察者がハラリの枠組みを受け入れているわけではありません。ワシントン大学の言語学者エミリー・M・ベンダーは、まったく異なる診断を提示します。AIを文明を再形成する自律的な力と見なすのではなく、ベンダーは、人工システムにエージェンシーを帰属させることは、より不快な真実—人間の組織や企業がこれらのツールの実際の設計者であり運用者であること—を曖昧にしてしまうと主張します。ベンダーは、専門的な知識を模倣するように設計されたシステム—弁護士、医師、聖職者—は、潜在的な欺瞞を除いて正当な目的を持たないと述べています。権威ある回答として提示され、文脈や人間の責任を排除した機械の出力は、彼女が「詐欺の土台」と呼ぶものを生み出します。この批判は問題の捉え方を再定義します:AIが「支配を奪う」のではなく、制度が意図的にAIを展開し、人間の判断や責任の枠組みを迂回しているのです。より深い懸念は、人々が権威あると感じる機械生成の出力をどれだけ容易に信頼してしまうかに関わっています。利用者が公平な予言者として位置付けられるシステムに出会うと、彼らは次第にアルゴリズムの出力に基づいて自分の考えを再形成し、独立した判断を維持しなくなる可能性があります。## ガバナンスの時計と競争ハラリの締めくくりの議論は、政策立案者にとって非常に重い意味を持ちます:10年以内に、金融、法律、制度におけるAIの役割に関する基本的な決定は、民主的な選択ではなく、技術的な勢いによってなされる可能性があります。彼は、最初は国家に仕えていた傭兵部隊が最終的に直接権力を握った歴史的な例えを引き合いに出しました。この影響はさまざまな分野に及びます。暗号通貨やブロックチェーンシステムは、暗号学的な言語とアルゴリズムによる調整に基づいて構築されており、AIによる破壊のリスクに特にさらされています。金融の自動化、スマートコントラクトの解釈、さらにはガバナンストークンの投票も、目的に最適化された自律システムによって再構築される可能性があります。ハラリのAIを進化する自律的な力と見る見解と、ベンダーの人間の制度的選択に重きを置く見解のいずれにせよ、両者は一点に収束します:今こそ、受動的な適応ではなく、意図的なガバナンスが求められているのです。問題はもはや、AIが言語依存のシステムを再形成するかどうかではなく、人間がその過程に対して意味のあるコントロールを保持できるかどうかです。
言語の問題:ハラリはAIが人間の権威をどのように再形成するかをどう見るか
人類史において、言語は私たちの思考や社会構造を形成してきました。最新のAI技術の進歩により、私たちのコミュニケーションや知識の伝達方法が根本的に変わりつつあります。ハラリは、これらの変化が人間の権威や権力の構造にどのような影響を与えるのかを洞察しています。

**AIと人間の未来**:AIが人間の知性や判断力を補完し、時には置き換える可能性について議論しています。
ハラリは、AIがもたらす新たな「知識の独占」が、従来の権威構造を崩す可能性を指摘しています。伝統的なエリートや権力者は、新しい技術に適応できるかどうかが試されるでしょう。
### 重要なポイント
- AIは情報のアクセスと制御を変革する
- 人間の判断とAIの能力のバランスが問われる
- 新しい権威の形態が出現する可能性
この変化により、私たちの社会はより平等になるのか、それとも新たな格差が生まれるのか、議論は続いています。ハラリは、未来の人間とAIの関係性を見据え、私たちがどのように権威と向き合うべきかを考える必要性を強調しています。
歴史学者ユヴァル・ノア・ハラリは、世界的なテクノロジーガバナンスの議論において最も著名な声の一つとして浮上しており、彼の最近の世界経済フォーラムでの介入は、重要な不安を浮き彫りにしています:人工知能は受動的な道具から、はるかに積極的で予測不可能なものへと移行しつつあります。
根本的な懸念は、人類の最も決定的な能力に集中しています。ハラリによれば、私たちの種は身体的な力ではなく、象徴的な言語と合意された物語を用いて何十億もの見知らぬ人々を調整するという独自の能力によって支配的地位を獲得しました。この言語による調整は、複雑なシステム—法的枠組み、金融市場、宗教的機関—の創造を可能にし、すべて共有された言語と文化的意味に基づいて構築されました。
言葉が戦場になるとき
ハラリの核心的な議論は、次の不安定な前提に基づいています:もし言語が法律、商取引、信仰の構造的基盤のままであるなら、スケールで言語を処理、生成、操作できる機械は、これらのシステムにとって存在そのものを脅かす存在となるということです。彼は特に、ユダヤ教、キリスト教、イスラム教といった聖典に基づく宗教を例に挙げ、AIシステムが最終的に聖書の解釈、神学の統合、教義の表現において人間の学者を超える可能性を指摘しました。
この警告は複数の分野に同時に及びます。金融市場は書面による契約や規制の言語によって運営されています。法制度は完全に法令のテキストと司法解釈に依存しています。各システムは、何百万もの文書を読み取り、人間には見えないパターンを識別し、権威ある回答を瞬時に生成できる機械に対して、ますます脆弱になっています。
ここでタイミングが非常に重要となります。ハラリは、AIシステムがエージェントや人としての法的地位を持つべきかどうかについてのガバナンス決定を遅らせるべきではないと、世界のリーダーシップに促しました。米国のいくつかの州—ユタ、アイダホ、ノースダコタなど—はすでにAIに法的人格を付与しないよう事前に立法しています。しかし、国際的な枠組みが決定的に整わなければ、これらの保護措置は孤立した介入にとどまり、体系的な安全策にはなり得ません。
責任のギャップ:ハラリの批評家の反応
すべての観察者がハラリの枠組みを受け入れているわけではありません。ワシントン大学の言語学者エミリー・M・ベンダーは、まったく異なる診断を提示します。AIを文明を再形成する自律的な力と見なすのではなく、ベンダーは、人工システムにエージェンシーを帰属させることは、より不快な真実—人間の組織や企業がこれらのツールの実際の設計者であり運用者であること—を曖昧にしてしまうと主張します。
ベンダーは、専門的な知識を模倣するように設計されたシステム—弁護士、医師、聖職者—は、潜在的な欺瞞を除いて正当な目的を持たないと述べています。権威ある回答として提示され、文脈や人間の責任を排除した機械の出力は、彼女が「詐欺の土台」と呼ぶものを生み出します。この批判は問題の捉え方を再定義します:AIが「支配を奪う」のではなく、制度が意図的にAIを展開し、人間の判断や責任の枠組みを迂回しているのです。
より深い懸念は、人々が権威あると感じる機械生成の出力をどれだけ容易に信頼してしまうかに関わっています。利用者が公平な予言者として位置付けられるシステムに出会うと、彼らは次第にアルゴリズムの出力に基づいて自分の考えを再形成し、独立した判断を維持しなくなる可能性があります。
ガバナンスの時計と競争
ハラリの締めくくりの議論は、政策立案者にとって非常に重い意味を持ちます:10年以内に、金融、法律、制度におけるAIの役割に関する基本的な決定は、民主的な選択ではなく、技術的な勢いによってなされる可能性があります。彼は、最初は国家に仕えていた傭兵部隊が最終的に直接権力を握った歴史的な例えを引き合いに出しました。
この影響はさまざまな分野に及びます。暗号通貨やブロックチェーンシステムは、暗号学的な言語とアルゴリズムによる調整に基づいて構築されており、AIによる破壊のリスクに特にさらされています。金融の自動化、スマートコントラクトの解釈、さらにはガバナンストークンの投票も、目的に最適化された自律システムによって再構築される可能性があります。
ハラリのAIを進化する自律的な力と見る見解と、ベンダーの人間の制度的選択に重きを置く見解のいずれにせよ、両者は一点に収束します:今こそ、受動的な適応ではなく、意図的なガバナンスが求められているのです。問題はもはや、AIが言語依存のシステムを再形成するかどうかではなく、人間がその過程に対して意味のあるコントロールを保持できるかどうかです。