За моніторингом 1M AI News, платформа з відкритим кодом для AI-агентів OpenClaw випустила версію 2026.4.2. Ця версія містить 2 breaking changes, приблизно 15 покращень функціональності та понад 30 виправлень.
Дві breaking changes продовжують зовнішню інтеграцію архітектури плагінів, запущену 2026.3.31: конфігурація xAI x_search і конфігурація Firecrawl web_fetch перемістилися з основного шляху до власного шляху плагіна; старі конфігурації можна автоматично перенести через openclaw doctor --fix.
Найщільніша в цій версії єдина тема — централізація безпеки з’єднань HTTP від постачальників; contributor vincentkoc подав 8 відповідних виправлень. Раніше запитова автентифікація, налаштування проксі, TLS-стратегії та обробка заголовків для шляхів спільного HTTP, потокової передачі та WebSocket були розпорошені по адаптаціях для кожного постачальника; тепер усе зведено воєдино: централізовано стратегії нативних/проксі-запитів для GitHub Copilot, Anthropic та сумісних з OpenAI кінцевих точок, щоб запобігти наслідуванню нативних значень за замовчуванням проксійними або підробленими кінцевими точками; маршрутизація медіазапитів на кшталт аудіо й зображень здійснюється через спільний HTTP-шлях; кінцеві точки для генерації зображень більше не роблять припущення щодо дозволів доступу до приватної мережі на основі налаштованого base URL; зіставлення ключів для webhook’ів через різні канали уніфікується із застосуванням функції порівняння, стійкої до часу. Для користувачів, які самостійно хостять або підключають кількох третіх постачальників, ці зміни закривають низку вразливостей із підробкою запитів і наслідуванням стратегій.
Щодо нових функцій: на Android-додатку додано інтеграцію Google Assistant; користувач може напряму з голосового помічника запускати OpenClaw і надсилати підказку в інтерфейс діалогу. Змінилися виконувані значення за замовчуванням: для шлюзу й хостів вузлів тепер за замовчуванням встановлено security=full та ask=off, тобто примусова безпечна стратегія без підтвердження спливаючим вікном щоразу. У системі плагінів додано хуки before_agent_reply, які дозволяють плагінам перед відповіддю LLM виконати коротке замикання всього процесу за допомогою синтезованої відповіді. Task Flow продовжує вдосконалюватися: додано генерацію підкерованих (вкладених) задач під хостинг і наміри «липкої» (sticky) скасування; зовнішній оркестратор може негайно зупинити диспетчеризацію й очікувати, поки активні підзадачі завершаться природно.
Інші виправлення: внутрішні теги для antml:thinking у моделях Anthropic раніше могли витікати в текст, видимий користувачам; тепер їх фільтрують на виході. Виклики інструментів Kimi Coding втрачали параметри через несумісність форматів Anthropic і OpenAI — виконано нормалізацію. Для MS Teams при перевищенні 4000 символів під час потокової передачі більше не відтворюється повторно вже переданий контент.