Qwen3.6-27B відкритий вихід у світ «Openclaw, Hermes — перший вибір»: показники ШІ зрівнялися з Claude Opus 4.5, витрати зменшилися в 14 разів

Алібаба Qwen серії (Qwen) остання флагманська модель Qwen3.6-27B офіційно стала відкритою 22 квітня 2026 року ввечері. Ця модель з 27B щільних параметрів у Terminal-Bench 2.0 набрала 59.3 балів, обійшовши Claude 4.5 Opus з 59.3, і при цьому з меншим ніж 1/14 кількістю параметрів, у SWE-bench Verified показала 77.2, перевищивши попереднього покоління 397B MoE флагмана з 76.2. Повна модель має 55.6 ГБ, а з кількісним стисненням Q4_K_M — 16.8 ГБ, що дозволяє запускати її на споживчому обладнанні, роблячи першим у світі локальним ядром для таких агентських фреймворків, як OpenClaw, Hermes Agent тощо.
(Передісторія: через заборону Anthropic, OpenClaw рекомендує користувачам перейти на API-ключ або використовувати альтернативи Qwen, Kimi тощо.)
(Додатковий контекст: США вимагають «цензуру» для AI у лабораторіях! Чому Китай повністю відмовляється від відкритих моделей?)

Зміст статті

Перемикач

  • Результати бенчмарків: три найяскравіші висновки
  • Технічні характеристики: ефективність у 100 мільярдів параметрів для споживчого обладнання
  • Чому саме OpenClaw і Hermes Agent — локальні «мозки»?
  • Відкритий код vs закритий: стратегія Alibaba та геополітичний контекст

22 квітня 2026 року ввечері команда Alibaba Qwen тихо опублікувала на Hugging Face «бомбу»: Qwen3.6-27B офіційно стала відкритою, під ліцензією Apache 2.0, будь-хто може вільно комерційно використовувати. Зовні цифри здаються звичайними, але за цим криється неабиякий сенс — модель з 27B щільних параметрів (не MoE), вперше у тестах агентів на терміналі досягла рівня закритого флагмана Anthropic Claude 4.5 Opus, і при цьому з розміром 55.6 ГБ обійшла попереднього покоління 397B MoE, для якого потрібно було 807 ГБ відеопам’яті для повноцінної роботи. Локальне розгортання, здатність агентів працювати, споживчий рівень обладнання — всі три умови виконані для Qwen3.6-27B.

Результати бенчмарків: три найяскравіші висновки

Команда Qwen обрала 10 тестів, що відображають реальні можливості програмування агентів, результати Qwen3.6-27B такі:

Бенчмарк
Qwen3.6-27B
Qwen3.5-27B
Qwen3.6-35B-A3B
Qwen3.5-397B-A17B
Claude 4.5 Opus
SWE-bench Verified
77.2
75.0
73.4
76.2
80.9
SWE-bench Pro
53.5
51.2
49.5
50.9
57.1
SWE-bench Multilingual
71.3
69.3
67.2
69.3
77.5
Terminal-Bench 2.0
59.3
41.6
51.5
52.5
59.3
SkillsBench Avg5
48.2
27.2
28.7
30.0
45.3
QwenWebBench
1487
1068
1397
1186
1536
NL2Repo
36.2
27.3
29.4
32.2
43.2
Claw-Eval Avg
72.4
64.3
68.7
70.7
76.6
Claw-Eval Pass^3
60.6
46.2
50.0
48.1
59.6
QwenClawBench
53.4
52.2
52.6
51.8
52.3

Три ключові висновки окремо: по-перше, Terminal-Bench 2.0 59.3 — Claude 4.5 Opus — це перший раз, коли модель з 27B щільних параметрів у терміналі досягла рівня закритого флагмана Anthropic, тоді як попередня версія Qwen3.5-27B мала лише 41.6, тобто приріст 17.7 балів. по-друге, SWE-bench Verified 77.2 перевищує 76.2 у Qwen3.5-397B-A17B — модель з 27B знищила попереднього покоління 397B MoE флагмана, зменшивши розмір з 807 ГБ до 55.6 ГБ, більш ніж у 14 разів. по-третє, SkillsBench зросла з 27.2 до 48.2 (+77%), а Pass^3 у Claw-Eval — 60.6 проти 59.6 Claude 4.5 Opus — багатократна та багатоступенева узгодженість стала найбільшим оновленням, що свідчить про здатність моделі виконувати складні агентські завдання без частих збоїв або відхилень.

У сфері знань і логіки також високі показники: MMLU-Pro 86.2, MMLU-Redux 93.5, GPQA Diamond 87.8, AIME 2026 94.1, LiveCodeBench v6 83.9, що повністю перевищує попередні моделі з аналогічною кількістю параметрів.

Технічні характеристики: ефективність у 100 мільярдів параметрів для споживчого обладнання

Qwen3.6-27B — це чисто щільна архітектура, 27B параметрів — не MoE, а реальні активні параметри, що активуються під час кожного запуску. Початкова довжина контексту — 262 144 токенів, з розширенням за допомогою YaRN до максимуму 1 010 000 токенів (близько 1 мільйона), що є необхідним для аналізу довгих файлів або розуміння міждокументних зв’язків у кодових агентів. Повна модель у точності — 55.6 ГБ, з кількісним стисненням Q4_K_M — до 16.8 ГБ, що дозволяє запускати її на Mac з 24 ГБ відеопам’яті або споживчих GPU. Ліцензія — Apache 2.0, без додаткових платежів для комерційного використання. Рекомендується розгортання з SGLang ≥0.5.10 або vLLM ≥0.19.0, підтримуються KTransformers і HF Transformers. Крім того, Qwen3.6-27B має вбудований візуальний енкодер, що підтримує обробку зображень, відео та тексту, а не є чисто текстовою моделлю.

Чому саме OpenClaw і Hermes Agent — локальні «мозки»?

Перший швидкий огляд згадує два агентські фреймворки: OpenClaw і Hermes Agent. OpenClaw — популярний локальний агент, схожий на Claude Code, — у квітні цього року був заборонений Anthropic. Після обмежень через порушення правил сервісу, офіційно рекомендується перейти на API-ключ або використовувати альтернативи Qwen, Kimi тощо. Відкритий код Qwen3.6-27B ідеально відповідає цій стратегії: працює локально, досягає рівня Claude у бенчмарках, ліцензія Apache 2.0 — безкоштовно для комерції, і все це — у одній моделі.

Hermes Agent — це відкритий фреймворк від NousResearch, що робить акцент на «самонавчанні навичок» через цикл: execute, evaluate, extract, refine, retrieve. Це дозволяє агенту автоматично вдосконалювати свої навички та зберігати їх у пам’яті для майбутніх завдань. На відміну від OpenClaw, Hermes орієнтований на довгострокову еволюцію та підтримує інтеграцію з різними бекендами, такими як NousPortal, OpenRouter, NVIDIA NIM, LM Studio, Ollama. Обидва фреймворки стикаються з однією проблемою: запускати на локальній машині справді потужну модель. Qwen3.6-27B у Claw-Eval (спеціально для оцінки кодових агентів) отримала середній бал 72.4 і Pass^3 — 60.6, перевищуючи Claude 4.5 Opus, пропонуючи цим двом фреймворкам серйозний локальний варіант.

Відкритий код vs закритий: стратегія Alibaba та геополітичний контекст

Відкриття Qwen3.6-27B — не ізольована подія. Раніше у квітні Alibaba відкрила модель Qwen3.6-35B-A3B (MoE, 35B параметрів, 3B активних), а тепер — модель з 27B щільних параметрів, що доповнює «можна повністю розгорнути локально без MoE». Водночас Qwen3.6-Plus і Qwen3.5-Omni залишаються закритими і пропонуються через API для комерційного використання. Один відкритий, інший — закритий, стратегія Alibaba чітка: відкритий код для створення екосистеми і довіри, закриті флагмани — для монетизації.

Глибший контекст — це зміна у глобальній конкуренції AI між Китаєм і США. Згідно з повідомленнями, Meta нібито відмовилася від «відкритого AI», натомість підтримує Alibaba Qwen для комерційної розробки AI під назвою Avocado. США зменшують відкритий код, Китай активно відмовляється від відкритих моделей — цей зсув швидко закріплюється. Для розробників і тих, хто прагне локального розгортання, питання «чи відкривати модель» поступово змінюється на «яка модель є достатньо потужною». Qwen3.6-27B — один із найчіткіших відповідей на цю актуальну потребу.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити