Tiny Aya dari Cohere memperkenalkan sistem AI multibahasa yang ringkas yang memberikan kinerja terjemahan dan generatif berkualitas tinggi di lebih dari 70 bahasa sambil tetap efisien cukup untuk dijalankan secara lokal di perangkat konsumen.
Perusahaan AI Cohere telah memperkenalkan Tiny Aya, sebuah model multibahasa yang kompak yang dirancang untuk memberikan terjemahan berkualitas tinggi, pemahaman bahasa, dan kinerja generatif sambil tetap cukup kecil untuk dijalankan di perangkat konsumen. Menurut perusahaan, Tiny Aya bertujuan untuk memperluas AI multibahasa di luar bahasa web dominan dengan menggabungkan arsitektur yang efisien dengan penelitian yang berfokus pada keberagaman linguistik. Seperti yang disebutkan dalam dokumen, model ini “menjangkau lebih dari 70 bahasa*, termasuk banyak bahasa dengan sumber daya yang lebih sedikit dari seluruh dunia,” dan dibangun untuk beroperasi secara lokal tanpa bergantung pada infrastruktur cloud skala besar.
Rilis ini mencakup TinyAya‑Base, model pra-latih dengan 3,35 miliar parameter, dan TinyAya‑Global, versi yang disesuaikan dengan instruksi dan dioptimalkan untuk kinerja konsisten di 67 bahasa. Cohere juga memperkenalkan varian khusus wilayah yang memperkuat kemampuan dalam komunitas linguistik tertentu sambil mempertahankan cakupan multibahasa yang luas. Perusahaan mencatat bahwa model-model ini didukung oleh dataset fine-tuning multibahasa yang baru dan benchmark yang bertujuan untuk menstandarisasi evaluasi dan mendorong penelitian lebih lanjut. Salah satu kutipan menyoroti bahwa Tiny Aya “memberikan kinerja yang kuat dan seimbang di 67 bahasa yang didukung,” menjadikannya pilihan praktis bagi pengembang yang bekerja di berbagai lingkungan linguistik.
Cohere menekankan bahwa Tiny Aya dirancang untuk menjaga stabilitas di berbagai bahasa yang kurang terwakili secara daring, melawan ketidakseimbangan kinerja yang biasanya terlihat pada sistem multibahasa. Laporan teknis yang menyertai rilis ini menguraikan metode seperti tokenisasi yang ditingkatkan, naturalisasi data sintetis, dan strategi penggabungan yang ditargetkan, yang dikatakan perusahaan membantu mempertahankan nuansa linguistik sekaligus memungkinkan pelatihan yang efisien. Dokumen tersebut menyebutkan bahwa pelatihan pasca‑pelatihan dilakukan “dengan satu klaster GPU H100 64 unit,” menegaskan fokus proyek pada efisiensi daripada komputasi skala besar.
Tiny Aya Perkuat AI Multibahasa dengan Kinerja Konsisten, Tokenisasi Efisien, dan Model Wilayah Khusus
Evaluasi kinerja menunjukkan bahwa Tiny Aya bersaing dengan atau melampaui model multibahasa yang ada dengan ukuran serupa, terutama dalam terjemahan, generasi terbuka, dan penalaran matematis untuk bahasa dengan sumber daya yang lebih sedikit. Cohere menyoroti perilaku model yang konsisten di berbagai pengaturan linguistik, menggambarkannya sebagai sistem yang dibangun untuk kegunaan dunia nyata daripada optimalisasi benchmark sempit. Desain tokenizer mengurangi fragmentasi antar skrip, menurunkan jumlah token per kalimat, dan meningkatkan efisiensi inferensi di perangkat lokal. Dokumen menyebutkan bahwa Tiny Aya “mencapai tokenisasi paling efisien di sebagian besar bahasa yang dievaluasi,” mendukung tujuannya untuk aksesibilitas.
Keluarga model ini mencakup varian yang berfokus pada wilayah—TinyAya‑Earth, TinyAya‑Fire, dan TinyAya‑Water—masing-masing dioptimalkan untuk berbagai kelompok bahasa sambil mempertahankan aplikasi secara global. Cohere memposisikan model-model ini sebagai fondasi untuk pengembangan yang didorong komunitas, mendorong para peneliti untuk mengadaptasinya untuk bahasa yang sedang berkembang, domain baru, dan kerangka evaluasi lokal. Seperti yang disimpulkan dalam dokumen, perusahaan membayangkan “ekosistem yang dinamis dari banyak model, yang dibentuk oleh banyak suara,” daripada satu sistem multibahasa yang dominan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Cohere Mengungkap Tiny Aya, Model AI Multibahasa Kompak Untuk Penerapan Lokal
Secara Singkat
Tiny Aya dari Cohere memperkenalkan sistem AI multibahasa yang ringkas yang memberikan kinerja terjemahan dan generatif berkualitas tinggi di lebih dari 70 bahasa sambil tetap efisien cukup untuk dijalankan secara lokal di perangkat konsumen.
Perusahaan AI Cohere telah memperkenalkan Tiny Aya, sebuah model multibahasa yang kompak yang dirancang untuk memberikan terjemahan berkualitas tinggi, pemahaman bahasa, dan kinerja generatif sambil tetap cukup kecil untuk dijalankan di perangkat konsumen. Menurut perusahaan, Tiny Aya bertujuan untuk memperluas AI multibahasa di luar bahasa web dominan dengan menggabungkan arsitektur yang efisien dengan penelitian yang berfokus pada keberagaman linguistik. Seperti yang disebutkan dalam dokumen, model ini “menjangkau lebih dari 70 bahasa*, termasuk banyak bahasa dengan sumber daya yang lebih sedikit dari seluruh dunia,” dan dibangun untuk beroperasi secara lokal tanpa bergantung pada infrastruktur cloud skala besar.
Rilis ini mencakup TinyAya‑Base, model pra-latih dengan 3,35 miliar parameter, dan TinyAya‑Global, versi yang disesuaikan dengan instruksi dan dioptimalkan untuk kinerja konsisten di 67 bahasa. Cohere juga memperkenalkan varian khusus wilayah yang memperkuat kemampuan dalam komunitas linguistik tertentu sambil mempertahankan cakupan multibahasa yang luas. Perusahaan mencatat bahwa model-model ini didukung oleh dataset fine-tuning multibahasa yang baru dan benchmark yang bertujuan untuk menstandarisasi evaluasi dan mendorong penelitian lebih lanjut. Salah satu kutipan menyoroti bahwa Tiny Aya “memberikan kinerja yang kuat dan seimbang di 67 bahasa yang didukung,” menjadikannya pilihan praktis bagi pengembang yang bekerja di berbagai lingkungan linguistik.
Cohere menekankan bahwa Tiny Aya dirancang untuk menjaga stabilitas di berbagai bahasa yang kurang terwakili secara daring, melawan ketidakseimbangan kinerja yang biasanya terlihat pada sistem multibahasa. Laporan teknis yang menyertai rilis ini menguraikan metode seperti tokenisasi yang ditingkatkan, naturalisasi data sintetis, dan strategi penggabungan yang ditargetkan, yang dikatakan perusahaan membantu mempertahankan nuansa linguistik sekaligus memungkinkan pelatihan yang efisien. Dokumen tersebut menyebutkan bahwa pelatihan pasca‑pelatihan dilakukan “dengan satu klaster GPU H100 64 unit,” menegaskan fokus proyek pada efisiensi daripada komputasi skala besar.
Tiny Aya Perkuat AI Multibahasa dengan Kinerja Konsisten, Tokenisasi Efisien, dan Model Wilayah Khusus
Evaluasi kinerja menunjukkan bahwa Tiny Aya bersaing dengan atau melampaui model multibahasa yang ada dengan ukuran serupa, terutama dalam terjemahan, generasi terbuka, dan penalaran matematis untuk bahasa dengan sumber daya yang lebih sedikit. Cohere menyoroti perilaku model yang konsisten di berbagai pengaturan linguistik, menggambarkannya sebagai sistem yang dibangun untuk kegunaan dunia nyata daripada optimalisasi benchmark sempit. Desain tokenizer mengurangi fragmentasi antar skrip, menurunkan jumlah token per kalimat, dan meningkatkan efisiensi inferensi di perangkat lokal. Dokumen menyebutkan bahwa Tiny Aya “mencapai tokenisasi paling efisien di sebagian besar bahasa yang dievaluasi,” mendukung tujuannya untuk aksesibilitas.
Keluarga model ini mencakup varian yang berfokus pada wilayah—TinyAya‑Earth, TinyAya‑Fire, dan TinyAya‑Water—masing-masing dioptimalkan untuk berbagai kelompok bahasa sambil mempertahankan aplikasi secara global. Cohere memposisikan model-model ini sebagai fondasi untuk pengembangan yang didorong komunitas, mendorong para peneliti untuk mengadaptasinya untuk bahasa yang sedang berkembang, domain baru, dan kerangka evaluasi lokal. Seperti yang disimpulkan dalam dokumen, perusahaan membayangkan “ekosistem yang dinamis dari banyak model, yang dibentuk oleh banyak suara,” daripada satu sistem multibahasa yang dominan.