Cohere представляє Tiny Aya, компактну багатомовну модель штучного інтелекту для локального розгортання

Коротко

Маленький Aya від Cohere представляє компактну багатомовну систему штучного інтелекту, яка забезпечує високоякісний переклад і генеративну продуктивність понад 70 мов, при цьому залишаючись достатньо ефективною для роботи на споживчому обладнанні.

Cohere Unveils Tiny Aya, A Compact Multilingual AI Model For Local Deployment

Компанія AI Cohere представила Tiny Aya — компактну багатомовну модель, розроблену для забезпечення високоякісного перекладу, розуміння мови та генеративної роботи, при цьому достатньо малої для запуску на пристроях споживачів. За словами компанії, Tiny Aya має на меті розширити можливості багатомовного штучного інтелекту за межі домінуючих веб-мов, поєднуючи ефективну архітектуру з дослідженнями, спрямованими на мовне різноманіття. У документі зазначається, що модель «охоплює понад 70 мов*, включаючи багато мов з меншими ресурсами з усього світу», і створена для роботи локально без залежності від масштабної хмарної інфраструктури.

Випуск включає TinyAya‑Base — попередньо натреновану модель з 3,35 мільярдами параметрів, та TinyAya‑Global — версію з налаштуванням під інструкції, оптимізовану для стабільної роботи в 67 мовах. Cohere також представляє регіонально-спеціалізовані варіанти, які посилюють можливості в окремих мовних спільнотах, зберігаючи широке багатомовне охоплення. Компанія зазначає, що ці моделі підтримуються новим багатомовним набором даних для тонкого налаштування та бенчмарками, спрямованими на стандартизацію оцінювання та заохочення подальших досліджень. Один із фрагментів підкреслює, що Tiny Aya «забезпечує сильну, збалансовану продуктивність у 67 підтримуваних мов», позиціонуючи її як практичний варіант для розробників, що працюють у різних мовних середовищах.

Cohere наголошує, що Tiny Aya створена для підтримки стабільності у мовах, які недостатньо представлені в Інтернеті, протистоячи типовому дисбалансу продуктивності, характерному для багатомовних систем. Технічний звіт, що супроводжує реліз, описує методи, такі як покращена токенізація, природність синтетичних даних і цілеспрямовані стратегії злиття, які, за словами компанії, допомагають зберегти мовну нюансованість і водночас забезпечити ефективне навчання. У документі зазначається, що пост‑навчання було завершено «на одному кластері з 64 H100 GPU», що підкреслює фокус проекту на ефективності, а не на масштабних обчисленнях.

Tiny Aya зміцнює багатомовний ШІ з послідовною продуктивністю, ефективною токенізацією та спеціалізованими регіональними моделями

Оцінки продуктивності показують, що Tiny Aya конкурує або перевищує існуючі багатомовні моделі подібного розміру, особливо у перекладі, відкритому генеративному режимі та математичному мисленні для мов з меншими ресурсами. Cohere підкреслює стабільну поведінку моделі у різних мовних налаштуваннях, описуючи її як систему, створену для реального застосування, а не для вузьких бенчмарків. Конструкція токенізатора зменшує фрагментацію скриптів, знижуючи кількість токенів у реченні та підвищуючи ефективність виведення на локальному обладнанні. У документі зазначається, що Tiny Aya «досягає найефективнішої токенізації у більшості оцінених мов», підтримуючи свою мету доступності.

Сімейство моделей включає регіонально-орієнтовані варіанти — TinyAya‑Earth, TinyAya‑Fire і TinyAya‑Water — кожен з яких оптимізований для різних мовних груп, зберігаючи глобальну застосовність. Cohere позиціонує ці моделі як основу для розвитку, керованого спільнотою, заохочуючи дослідників адаптувати їх для нових мов, доменів і локалізованих рамок оцінювання. Як підсумовує документ, компанія бачить «жваву екосистему багатьох моделей, сформовану багатьма голосами», а не одну домінуючу багатомовну систему.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити