阿里巴巴千問(Qwen)シリーズ最新フラッグシップ Qwen3.6-27B が 2026 年 4 月 22 日の夜に正式にオープンソース化されました。この27B密度モデルは Terminal-Bench 2.0 で Claude 4.5 Opus を 59.3 点で追い越し、引数数も1/14未満で、SWE-bench Verified では 77.2 で前世代の 397B MoE フラッグシップの 76.2 を超えました。完全なモデルは 55.6 GB で、Q4_K_M 量子化により 16.8 GB に圧縮され、消費者向けハードウェア上で動作可能です。OpenClaw、Hermes Agent などのローカルエージェントフレームワークにとって、初めて実用的なローカル大脳を持つモデルとなりました。(前提:Anthropic による封殺を受け、OpenClaw はユーザーに API キーの使用や Qwen、Kimi などの代替案への切り替えを推奨しています)(補足:アメリカのAIは「審査」されて研究室に閉じ込められる一方、中国はオープンソースモデルを積極的に推進しています。なぜ?)この記事の目次Toggle* ベンチマーク成績:最も注目すべき3つの結論* 仕様:消費者向けハードウェアで動かせる千億規模の性能* なぜ OpenClaw と Hermes Agent のローカル大脳なのか?* オープンソース vs クローズド:アリの戦略展開と地政学的状況2026 年 4 月 22 日の夜、阿里巴巴千問チームはひそかに Hugging Face に爆弾を投下しました:Qwen3.6-27B が正式にオープンソース化され、Apache 2.0 ライセンスの下、誰でも自由に商用利用可能です。一見平凡な数字に見えますが、その背後には重要な意味があります。27B密度構造(MoE ではなく)で、端末エージェントのテストにおいて初めて Anthropic のクローズドフラッグシップ Claude 4.5 Opus に追いつき、体積も 55.6 GB で、前世代の 397B MoE モンスター(807 GB 必要)を打ち負かしました。ローカル展開、エージェント動作、消費者向けハードウェア対応の3条件をすべて満たしています。### ベンチマーク成績:最も注目すべき3つの結論Qwen チームは、実際のエージェントプログラム設計能力を反映する10項目のベンチマークテストを選び、Qwen3.6-27B の結果は以下の通りです。| ベンチマーク || --- |Qwen3.6-27B |Qwen3.5-27B |Qwen3.6-35B-A3B |Qwen3.5-397B-A17B |Claude 4.5 Opus || --- | --- | --- | --- | --- | --- || SWE-bench Verified |**77.2** |75.0 |73.4 |76.2 |80.9 || SWE-bench Pro |**53.5** |51.2 |49.5 |50.9 |57.1 || SWE-bench Multilingual |**71.3** |69.3 |67.2 |69.3 |77.5 || Terminal-Bench 2.0 |**59.3** |41.6 |51.5 |52.5 |59.3 || SkillsBench Avg5 |**48.2** |27.2 |28.7 |30.0 |45.3 || QwenWebBench |**1487** |1068 |1397 |1186 |1536 || NL2Repo |**36.2** |27.3 |29.4 |32.2 |43.2 || Claw-Eval Avg |**72.4** |64.3 |68.7 |70.7 |76.6 || Claw-Eval Pass^3 |**60.6** |46.2 |50.0 |48.1 |59.6 || QwenClawBench |**53.4** |52.2 |52.6 |51.8 |52.3 |3つの重要な結論を個別に強調します:**第一に、Terminal-Bench 2.0 59.3 点で Claude 4.5 Opus に追いついたこと**——これは27B密度モデルがエンドポイントエージェントのタスクで初めて Anthropic のクローズドフラッグシップに追いついた例です。Qwen3.5-27B の旧バージョンは41.6点で、1世代で17.7点の向上です。**第二に、SWE-bench Verified 77.2 点が Qwen3.5-397B-A17B の 76.2 点を超えたこと**——27B密度モデルは前世代の397B MoE フラッグシップを打ち負かし、モデル体積は807 GB から55.6 GB に縮小され、14倍以上の圧縮を実現しました。**第三に、SkillsBench が 27.2 から 48.2(+77%)に向上し、Claw-Eval Pass^3 も 60.6 で Claude 4.5 Opus の 59.6 を超えたこと**——多ターン、多ステップの一貫性が今回の最大のアップグレードであり、複雑なエージェントタスクを連続して実行する際の崩壊や偏りを抑えることに成功しています。知識と推論の面でも優れた結果を示し:MMLU-Pro **86.2**、MMLU-Redux **93.5**、GPQA Diamond **87.8**、AIME 2026 **94.1**、LiveCodeBench v6 **83.9** など、同じ引数数の前世代を凌駕しています。### 仕様:消費者向けハードウェアで動かせる千億規模の性能Qwen3.6-27B は純粋な密度構造であり、27B の引数数は MoE のアクティブ引数ではなく、推論時に完全に起動される実引数です。ネイティブのコンテキスト長は **262,144 トークン** で、YaRN 拡張により最大 **1,010,000 トークン(約 1M)** まで拡張可能です。長いファイル解析やリポジトリ横断理解を必要とするコーディングエージェントにとって必須の仕様です。完全精度モデルは 55.6 GB で、Q4_K_M 量子化を用いると 16.8 GB に圧縮され、24 GB のビデオメモリを持つ Mac M シリーズや消費者向け GPU で直接ロード可能です。ライセンスは **Apache 2.0** で、商用利用も追加のライセンス料不要です。展開には SGLang ≥0.5.10 または vLLM ≥0.19.0 を推奨し、KTransformers や HF Transformers もサポートします。さらに、Qwen3.6-27B はビジョンエンコーダを統合し、画像・文字・動画の理解も可能な、純粋なテキストモデルではありません。### なぜ OpenClaw と Hermes Agent のローカル大脳なのか?元の速報では2つのエージェントフレームワークに言及しています:OpenClaw と Hermes Agent。OpenClaw は開発者に人気の、Claude Code 風のローカルエージェントアプリケーションです。今年4月初めに Anthropic による封殺を受けました。Anthropic は利用規約違反を理由にアカウント制限を行い、OpenClaw の公式はユーザーに API キーの利用や Qwen、Kimi などのローカル代替モデルへの切り替えを推奨しています。Qwen3.6-27B のオープンソース化は、この代替路線のニーズに正確に応えたものであり、ローカル動作可能、Claude級のベンチマーク追従、Apache 2.0 の無料商用利用が可能という3条件を満たしています。Hermes Agent は NousResearch が主導するオープンソースのエージェントフレームワークで、「自己学習スキル」ループを重視します——execute、evaluate、extract、refine、retrieve の5ステップを通じて、エージェントはタスク実行後にスキルを抽出し記憶に保存し、次回類似問題に即座に対応できる仕組みです。OpenClaw が直感的操作を重視するのに対し、Hermes は長期的な自己進化能力を強調し、NousPortal、OpenRouter、NVIDIA NIM、LM Studio、Ollama など多様なバックエンドに対応しています。両者の共通の課題は、「本格的なモデルをローカルで動かすこと」です。Qwen3.6-27B は Claw-Eval(コーディングエージェント向け評価セット)で平均72.4点、Pass^3 60.6点を獲得し、Claude 4.5 Opus を超え、これらのフレームワークにとって本格的なローカル選択肢となっています。### オープンソース vs クローズド:アリの戦略展開と地政学的状況Qwen3.6-27B のオープンソース化は孤立した事例ではありません。阿里は少し前の4月16日に Qwen3.6-35B-A3B(MoE 構造、35B 総引数、3B アクティブ)をオープンソース化しました。今回の27B密度モデルのオープンソースは、「ローカルで完全展開可能、MoE 分割不要」という空白を埋めるものです。一方、Qwen3.6-Plus や Qwen3.5-Omni は依然クローズドのままで、クラウドAPIを通じて商用化しています。開放と閉鎖の戦略は、阿里の明確な方針を示しています:オープンソースでエコシステムと信頼を築き、クローズドのフラッグシップで収益化を図る。この背景には、米中のAIオープンソース競争の局面変化があります。動区の報道によると、Meta のザッカーバーグは「オープンソースAI」路線を放棄し、阿里の Qwen を用いた有料AI「Avocado」の開発にシフトしたとのことです。米国の巨大テックはオープンソースを縮小し、中国の企業は積極的にオープンソースを推進しています。この逆転の状況は加速しています。開発者やローカル展開を求めるユーザーにとって、「オープンソースにするかどうか」ではなく、「どのモデルが最も十分か」が重要になりつつあり、Qwen3.6-27B はその答えの一つとして非常に明確な選択肢となっています。
Qwen3.6-27B オープンソース発表「Openclaw、Hermesが第一選択」:AI パフォーマンスはClaude Opus 4.5と同等、コストは14分の1に削減
阿里巴巴千問(Qwen)シリーズ最新フラッグシップ Qwen3.6-27B が 2026 年 4 月 22 日の夜に正式にオープンソース化されました。この27B密度モデルは Terminal-Bench 2.0 で Claude 4.5 Opus を 59.3 点で追い越し、引数数も1/14未満で、SWE-bench Verified では 77.2 で前世代の 397B MoE フラッグシップの 76.2 を超えました。完全なモデルは 55.6 GB で、Q4_K_M 量子化により 16.8 GB に圧縮され、消費者向けハードウェア上で動作可能です。OpenClaw、Hermes Agent などのローカルエージェントフレームワークにとって、初めて実用的なローカル大脳を持つモデルとなりました。 (前提:Anthropic による封殺を受け、OpenClaw はユーザーに API キーの使用や Qwen、Kimi などの代替案への切り替えを推奨しています) (補足:アメリカのAIは「審査」されて研究室に閉じ込められる一方、中国はオープンソースモデルを積極的に推進しています。なぜ?)
この記事の目次
Toggle
2026 年 4 月 22 日の夜、阿里巴巴千問チームはひそかに Hugging Face に爆弾を投下しました:Qwen3.6-27B が正式にオープンソース化され、Apache 2.0 ライセンスの下、誰でも自由に商用利用可能です。一見平凡な数字に見えますが、その背後には重要な意味があります。27B密度構造(MoE ではなく)で、端末エージェントのテストにおいて初めて Anthropic のクローズドフラッグシップ Claude 4.5 Opus に追いつき、体積も 55.6 GB で、前世代の 397B MoE モンスター(807 GB 必要)を打ち負かしました。ローカル展開、エージェント動作、消費者向けハードウェア対応の3条件をすべて満たしています。
ベンチマーク成績:最も注目すべき3つの結論
Qwen チームは、実際のエージェントプログラム設計能力を反映する10項目のベンチマークテストを選び、Qwen3.6-27B の結果は以下の通りです。
3つの重要な結論を個別に強調します:第一に、Terminal-Bench 2.0 59.3 点で Claude 4.5 Opus に追いついたこと——これは27B密度モデルがエンドポイントエージェントのタスクで初めて Anthropic のクローズドフラッグシップに追いついた例です。Qwen3.5-27B の旧バージョンは41.6点で、1世代で17.7点の向上です。第二に、SWE-bench Verified 77.2 点が Qwen3.5-397B-A17B の 76.2 点を超えたこと——27B密度モデルは前世代の397B MoE フラッグシップを打ち負かし、モデル体積は807 GB から55.6 GB に縮小され、14倍以上の圧縮を実現しました。第三に、SkillsBench が 27.2 から 48.2(+77%)に向上し、Claw-Eval Pass^3 も 60.6 で Claude 4.5 Opus の 59.6 を超えたこと——多ターン、多ステップの一貫性が今回の最大のアップグレードであり、複雑なエージェントタスクを連続して実行する際の崩壊や偏りを抑えることに成功しています。
知識と推論の面でも優れた結果を示し:MMLU-Pro 86.2、MMLU-Redux 93.5、GPQA Diamond 87.8、AIME 2026 94.1、LiveCodeBench v6 83.9 など、同じ引数数の前世代を凌駕しています。
仕様:消費者向けハードウェアで動かせる千億規模の性能
Qwen3.6-27B は純粋な密度構造であり、27B の引数数は MoE のアクティブ引数ではなく、推論時に完全に起動される実引数です。ネイティブのコンテキスト長は 262,144 トークン で、YaRN 拡張により最大 1,010,000 トークン(約 1M) まで拡張可能です。長いファイル解析やリポジトリ横断理解を必要とするコーディングエージェントにとって必須の仕様です。完全精度モデルは 55.6 GB で、Q4_K_M 量子化を用いると 16.8 GB に圧縮され、24 GB のビデオメモリを持つ Mac M シリーズや消費者向け GPU で直接ロード可能です。ライセンスは Apache 2.0 で、商用利用も追加のライセンス料不要です。展開には SGLang ≥0.5.10 または vLLM ≥0.19.0 を推奨し、KTransformers や HF Transformers もサポートします。さらに、Qwen3.6-27B はビジョンエンコーダを統合し、画像・文字・動画の理解も可能な、純粋なテキストモデルではありません。
なぜ OpenClaw と Hermes Agent のローカル大脳なのか?
元の速報では2つのエージェントフレームワークに言及しています:OpenClaw と Hermes Agent。OpenClaw は開発者に人気の、Claude Code 風のローカルエージェントアプリケーションです。今年4月初めに Anthropic による封殺を受けました。Anthropic は利用規約違反を理由にアカウント制限を行い、OpenClaw の公式はユーザーに API キーの利用や Qwen、Kimi などのローカル代替モデルへの切り替えを推奨しています。Qwen3.6-27B のオープンソース化は、この代替路線のニーズに正確に応えたものであり、ローカル動作可能、Claude級のベンチマーク追従、Apache 2.0 の無料商用利用が可能という3条件を満たしています。
Hermes Agent は NousResearch が主導するオープンソースのエージェントフレームワークで、「自己学習スキル」ループを重視します——execute、evaluate、extract、refine、retrieve の5ステップを通じて、エージェントはタスク実行後にスキルを抽出し記憶に保存し、次回類似問題に即座に対応できる仕組みです。OpenClaw が直感的操作を重視するのに対し、Hermes は長期的な自己進化能力を強調し、NousPortal、OpenRouter、NVIDIA NIM、LM Studio、Ollama など多様なバックエンドに対応しています。両者の共通の課題は、「本格的なモデルをローカルで動かすこと」です。Qwen3.6-27B は Claw-Eval(コーディングエージェント向け評価セット)で平均72.4点、Pass^3 60.6点を獲得し、Claude 4.5 Opus を超え、これらのフレームワークにとって本格的なローカル選択肢となっています。
オープンソース vs クローズド:アリの戦略展開と地政学的状況
Qwen3.6-27B のオープンソース化は孤立した事例ではありません。阿里は少し前の4月16日に Qwen3.6-35B-A3B(MoE 構造、35B 総引数、3B アクティブ)をオープンソース化しました。今回の27B密度モデルのオープンソースは、「ローカルで完全展開可能、MoE 分割不要」という空白を埋めるものです。一方、Qwen3.6-Plus や Qwen3.5-Omni は依然クローズドのままで、クラウドAPIを通じて商用化しています。開放と閉鎖の戦略は、阿里の明確な方針を示しています:オープンソースでエコシステムと信頼を築き、クローズドのフラッグシップで収益化を図る。
この背景には、米中のAIオープンソース競争の局面変化があります。動区の報道によると、Meta のザッカーバーグは「オープンソースAI」路線を放棄し、阿里の Qwen を用いた有料AI「Avocado」の開発にシフトしたとのことです。米国の巨大テックはオープンソースを縮小し、中国の企業は積極的にオープンソースを推進しています。この逆転の状況は加速しています。開発者やローカル展開を求めるユーザーにとって、「オープンソースにするかどうか」ではなく、「どのモデルが最も十分か」が重要になりつつあり、Qwen3.6-27B はその答えの一つとして非常に明確な選択肢となっています。