Результати пошуку для "GPT"
2026-03-27
05:07

20B малий модельний пошук досягає рівня GPT-5 та Opus: векторна база даних Chroma відкриває модель пошуку Agent Context-1

Відкритий векторний бази даних Chroma випустила Context-1, модель пошуку агента з 200 мільярдами параметрів для багатократного пошуку. Ця модель використовує технологію саморедагування контексту, тренуючи на багатьох завданнях за допомогою підкріплювального навчання та механізму курсів, демонструючи відмінні результати, особливо в галузях веб, фінансів та права, а також показуючи міжгалузеві можливості пошуку в сфері електронної пошти.
Більше
04:22

Чи вже настав «момент GPT» для втілесного інтелекту? Axis Robotics оголошує про завершення тестування та незабаром запуститься на блокчейні Base

> Джерело статті: Axis Axis Robotics переформатує різноманітність даних та масштабованість виробництва втіленого інтелекту за допомогою стратегії, орієнтованої на імітацію (Simulation-First). У 2025 році декілька технологічних напрямків робототехніки швидко конвергуються: комерціалізація ланцюга поставок втіленого обладнання дає минулим дорогим прототипам реальну можливість масштабованого запуску; моделі Vision-Language-Action (VLA) надають роботам «мозок» для розуміння семантики, міркування та планування; а багатошарова піраміда даних, що складається з відеопріоритету та імітаційного синтезу, постачає неперервне паливо для постійної еволюції втіленого інтелекту. Однак індустрія все ще стикається з найбільшим вузьким місцем: даними. На відміну від великих мовних моделей та автономного водіння, втілений інтелект все ще має величезний дефіцит даних на етапі попередньої підготовки
Більше
13:23

OpenClaw випустив версію 2026.3.22, запустив ринок плагінів ClawHub

OpenClaw 22 березня випустив нову версію, яка включає ринок плагінів ClawHub, підтримку моделей MiniMax M2.7, GPT-5.4-mini та GPT-5.4-nano, а також запроваджує функцію одноагентного висновку. Одночасно інтегровані OpenShell і SSH-пісочниця, а також підключені кілька пошукових інструментів.
Більше
01:39

AI інструмент програмування Cursor випустив модель Composer 2, продуктивність якої перевищує Opus 4.6, ціна знизилася до 14% від попередньої версії

Cursor на 20 березня випустив третє поління моделі кодування Composer 2 зі значним зниженням ціни до $0,50 за мільйон токенів введення та $2,50 за виведення, одночасно запустивши швидку версію. Composer 2 показує бращі результати за кількома тестами порівняно з попередньою версією, але нижче за GPT-5.4, поліпшення походить переважно від подальшого попередньої підготовки базової моделі та навчання з підкріпленням. Модель доступна тільки для внутрішнього використання в Cursor, а материнська компанія Anysphere має оцінку в $293 млрд.
Більше
00:02

OpenAI випустила GPT-5.4 mini та nano, ціни на які досягають 4-критної вартості попередніх версій

OpenAI 18 березня випустила нові моделі GPT-5.4 mini та GPT-5.4 nano, які спрямовані на мультимодальні та програмування сценарії з суттєво підвищеною ціною. GPT-5.4 mini демонструє відмінну продуктивність у тестах програмування, підтримує великомасштабний контекст та багатофункціональні операції. Крім того, користувачі безплатної версії chatGPT також зможуть спробувати нові функції міркування.
Більше
15:32

Rakuten Group випустив японську велику мовну модель Rakuten AI 3.0, що викликало суперечки через підозру на основі архітектури DeepSeek

Група Rakuten випустила японськомовну модель Rakuten AI 3.0 17 березня, стверджуючи, що вона перевершує GPT-4o у багатьох японськомовних тестах. Однак користувачі мережі виявили, що модель може базуватися на розробці DeepSeek і поставили під сумнів її упередженість на користь Китаю та автентичність самостійно розробленої технології, що спровокувало обговорення.
Більше
08:53

Rakuten випустив модель Rakuten AI 3.0, файли конфігурації показують, що базова архітектура — DeepSeek V3

Група Rakuten 17 березня випустила високопродуктивну AI-модель під назвою Rakuten AI 3.0 з параметрами 671B, оптимізовану для японської мови. Стверджується, що вона перевищує GPT-4o за кількома бенчмарками. Модель вільно поширюється з відкритим кодом за ліцензією Apache 2.0, побудована на основі доопрацювання моделі DeepSeek V3 і отримала підтримку обчислювальних ресурсів від японського уряду.
Більше
03:23

Засновник OpenClaw поділився рейтингом адаптації моделей штучного інтелекту, де вітчизняні minimax-m2.1 та kimi-k2.5 посіли друге та третє місця відповідно.

Засновник OpenClaw Пітер Стенберг поділився результатами бенчмарку PinchBench, які показали, що Gemini 3 Flash посідає перше місце у завданнях проксі з успішністю 95.1%, внутрішні моделі minimax-m2.1 та kimi-k2.5 посідають друге та третє місця з успішністю 93.6% та 93.4%. Інші моделі, такі як Claude Sonnet 4.5 та GPT-4o, показали нижчі результати.
Більше