Meneruskan Judul Asli: Mira: Trustless Verified AI
Halusinasi: sebuah pengalaman yang melibatkan persepsi yang tampaknya terhadap sesuatu yang tidak hadir.
Andrej Karpathy menyebut AI sebagai 'mesin-mesin mimpi'. Ia percaya bahwa halusinasi - saat AI dengan percaya diri menghasilkan hal-hal yang tidak nyata - merupakan sebuah fitur, bukan bug. Mencoba menghilangkannya sepenuhnya adalah sia-sia. Dan sejujurnya, ada sesuatu yang puitis tentang hal itu.
Model bahasa besar (LLM) adalah seorang seniman, seorang pencipta. Ia bermimpi dalam kode, menghasilkan ide dari udara, dan menciptakan makna dari data. Tetapi agar KI bergerak dari lamunan indah ke aplikasi praktis sehari-hari, kita harus menahan diri dari halusinasi tersebut.
Tingkat kesalahan untuk LLMs tetap tinggi di banyak tugas—seringkali sekitar 30%. Pada tingkat tersebut, LLMs masih memerlukan campur tangan manusia untuk mencapai standar akurasi yang dapat digunakan.
Tapi ketika kita mencapai akurasi 99.x yang sulit didapatkan itu - di mana outputnya dapat diandalkan tanpa pengawasan manusia - keajaiban terjadi. Itulah ambang batas di mana AI mencapai kehandalan tingkat manusia, membuka peluang tak terbatas dari kasus penggunaan sebelumnya yang tidak terjangkau.
Mencapai tingkat presisi tersebut, bagaimanapun, bukanlah hal yang mudah. Ini membutuhkan upaya rekayasa yang tak kenal lelah dan inovasi.
Kisah tentang@Mira_Networkdimulai di sini. Tetapi sebelum kita mulai, mari sejenak berbicara tentang pengembangan LLM - dan mengapa verifikasi menjadi hal besar berikutnya dalam AI.
Pengembangan LLM adalah iterasi terbaru dalam perjalanan pembelajaran mendalam - berbeda dengan praktik pengembangan perangkat lunak tradisional yang telah kita asah selama lebih dari 50 tahun terakhir. LLM, yang baru ada sekitar tiga tahun, sepenuhnya mengubah skenario, bergerak dari pemikiran deterministik (jika X, maka Y) menjadi pemikiran probabilitas (jika X, maka... mungkin Y?).
Ini berarti infrastruktur untuk dunia yang didorong AI membutuhkan seperangkat alat dan alur kerja yang sepenuhnya baru. Namun, banyak dari alat-alat ini masih terkunci di dalam laboratorium penelitian yang menciptakan LLMs.
Berita baiknya adalah bahwa alat-alat ini mulai tersedia di domain publik, membuka berbagai kemungkinan bagi pengembang di mana saja.
Di ujung ekor alur kerja baru ini terletak potongan penting dari teka-teki: evaluasi & verifikasi. Hari ini, sorotan kita tertuju pada ini. Mereka menjawab pertanyaan mendasar: Apakah AI bekerja dengan baik?
Kepercayaan adalah dasar dari setiap produk AI yang hebat.
Seiring dengan AI menjadi bagian yang semakin penting dalam kehidupan kita, teknologi itu sendiri tetap rapuh. Kesalahan terjadi, dan ketika itu terjadi, kepercayaan cepat hilang. Pengguna mengharapkan AI yang akurat, tidak memihak, dan benar-benar membantu, tetapi tanpa sistem yang dapat diandalkan untuk memastikan hal itu, frustrasi semakin meningkat - dan frustrasi berujung pada perputaran.
Di sinilah verifikasi menjadi penting.
Verifikasi berfungsi sebagai benteng. Mereka adalah lapisan jaminan kualitas yang menjadi andalan pengembang untuk menyempurnakan output dan membangun sistem yang dapat dipercayai pengguna.
Mira sedang mengatasi masalah inti Web2 dengan transparansi tanpa kepercayaan dari kripto. Dengan memanfaatkan jaringan terdesentralisasi dari node verifier, Mira memastikan bahwa output kecerdasan buatan diverifikasi secara akurat dan independen.
Misalkan Anda memiliki satu paragraf keluaran dari LLM tentang kota Paris. Bagaimana Anda memverifikasi bahwa itu akurat? Sulit untuk melakukannya karena ada begitu banyak nuansa sekitar segala sesuatu mulai dari klaim hingga struktur konten hingga gaya penulisan.
Ini adalah tempat di mana Mira turun tangan.
Visi Mira yang berani: menciptakan jaringan lapis-1 yang memberikan verifikasi AI yang tidak dapat dipercaya, dapat diskalakan, dan akurat. Dengan memanfaatkan kebijaksanaan kolektif, Mira mengurangi bias dan halusinasi, memecahkan masalah inti seperti keadilan dan biaya sambil membuktikan bagaimana blockchain benar-benar dapat meningkatkan AI.
Sumber: Mira
Hasil awalnya menjanjikan. Dalam sebuah penelitian terbarustudi yang diterbitkan di Arxiv, Mira menunjukkan bahwa menggunakan beberapa model untuk menghasilkan output dan memerlukan konsensus secara signifikan meningkatkan akurasi. Presisi mencapai 95,6% dengan tiga model, dibandingkan dengan 73,1% untuk output model tunggal.
Dua elemen desain kunci mendukung pendekatan Mira:
Output yang dihasilkan oleh AI berkisar dari pernyataan sederhana hingga esai yang luas, berkat biaya hampir nol dari generasi konten. Namun, kelimpahan kompleksitas ini menciptakan tantangan: bagaimana Anda memastikan keakuratan output yang begitu beragam ini?
Solusi Mira sederhana: uraikan.
@Mira_Networkmengubah konten AI yang kompleks menjadi bagian-bagian yang lebih kecil agar model AI dapat meninjau secara objektif dalam proses yang disebut sharding.
Dengan memstandardisasi output dan memecahnya menjadi klaim diskrit yang dapat diverifikasi, Mira memastikan setiap bagian dapat dievaluasi secara konsisten, menghilangkan ambiguitas yang seringkali mengganggu evaluasi.
Sebagai contoh, pertimbangkan pernyataan gabungan ini:
Fotosintesis terjadi pada tumbuhan untuk mengubah sinar matahari menjadi energi, dan lebah memainkan peran penting dalam penyerbukan dengan mentransfer serbuk sari antara bunga.
Pada permukaannya, tampaknya mudah diverifikasi. Tetapi ketika diberikan kepada beberapa model, keanehan interpretasi mungkin menyebabkan jawaban yang berbeda. Transformasi konten Mira melalui sharding memecahkan masalah ini dengan membagi pernyataan menjadi dua klaim independen:
Setelah di-sharded, setiap klaim akan mengalami binarisasi, di mana klaim tersebut diubah menjadi pertanyaan pilihan ganda. Pertanyaan-pertanyaan ini didistribusikan ke jaringan node yang menjalankan model AI. Dengan menggunakan metode verifikasi ensemble Mira, model-model tersebut bekerja sama untuk mengevaluasi dan mengkonfirmasi validitas setiap klaim.
Saat ini, kemampuan pemecahan konten dan binarisasi Mira difokuskan pada input teks. Pada awal tahun 2025, proses-proses ini akan diperluas untuk mendukung input multimodal, seperti gambar dan video.
Mira telah mengembangkan sistem verifikasi canggih yang menggabungkan kelebihan dari beberapa model AI untuk menilai kualitas output AI.
Mari kita membongkar itu.
Evaluasi otomatis tradisional sering mengandalkan model bahasa besar tunggal (LLM), seperti GPT-4, sebagai wasit utama kualitas. Meskipun fungsional, pendekatan ini memiliki kelemahan yang signifikan: mahal, rentan terhadap bias, dan dibatasi oleh kebiasaan dan "kepribadian" yang melekat dalam model.
Terobosan Mira adalah pergeseran dari ketergantungan pada satu model besar menjadi memanfaatkan sebuahkesatuan dari beragam LLMs yang berbedaEnsemble ini unggul dalam tugas-tugas di mana akurasi faktual lebih penting daripada gaya kreatif, mengurangi tingkat kesalahan dan memberikan verifikasi yang lebih handal dan konsisten.
Teknik ensemble telah banyak diteliti dalam tugas pembelajaran mesin seperti klasifikasi, dan Mira kini membawa hal ini ke verifikasi.
Di tengah sistem Mira adalah Panel verifikasi LLM (PoLL) - jaringan kolaboratif model yang bekerja bersama untuk memverifikasi output. Bayangkan sebagai panel pakar yang beragam memberikan pendapat pada suatu keputusan daripada hanya mengandalkan pada satu hakim yang berpotensi memihak.
Dan ini bukan hanya sekadar angan-angan—ini didasarkan pada penelitian. Lihatlah grafik di bawah ini:
Sebuah studi CoheredipublikasikanPada April 2024, terbukti bahwa sebuah panel dari tiga model yang lebih kecil—GPT-3.5, Claude-3 Haiku, dan Command R—lebih mendekati penilaian manusia daripada GPT-4 saja. Dengan mencolok, metode ensemble ini juga lebih murah 7x.
Mira sekarang sedang menerapkan metode verifikasi ensemble ini secara besar-besaran. Hasil internal yang mereka bagikan sejauh ini sangat meyakinkan:
• Tingkat kesalahan berkurang dari 80% menjadi 5% untuk tugas penalaran kompleks.
• Peningkatan 5x dalam kecepatan dan biaya dibandingkan dengan verifikasi manusia.
Ini bukanlah suatu pencapaian kecil. Dengan menggunakan mekanisme konsensus, ensemble model-model Mira secara efektif menyaring halusinasi dan menyeimbangkan kecenderungan model individu. Bersama-sama, mereka menghasilkan sesuatu yang lebih besar daripada jumlah bagian-bagiannya: verifikasi yang lebih cepat, lebih murah, dan lebih sesuai dengan kebutuhan kami.
Untuk merangkum, sistem verifikasi Mira dibangun berdasarkan dua prinsip desain fundamental:
Menjaga kumpulan model yang beragam sangat penting untuk hasil yang berkualitas tinggi, sehingga desain Mira ideal untuk arsitektur terdesentralisasi. Menghilangkan titik-titik kegagalan tunggal sangat penting untuk produk verifikasi apa pun.
Mira menggunakan pendekatan berbasis blockchain untuk memastikan tidak ada entitas tunggal yang dapat memanipulasi hasil. Premisnya sederhana: output yang dihasilkan oleh AI harus diverifikasi seperti perubahan status blockchain.
Verifikasi dilakukan melalui jaringan node independen, dengan operator secara ekonomis didorong untuk melakukan verifikasi yang akurat. Dengan mengarahkan imbalan dengan kejujuran, sistem Mira mencegah pelaku buruk dan memastikan hasil yang dapat diandalkan.
Begini cara kerjanya:
Mira memastikan kerahasiaan data dengan memecah data masukan menjadi bagian-bagian lebih kecil, memastikan tidak ada satu node pun yang memiliki akses ke keseluruhan kumpulan data.
Untuk keamanan tambahan, Mira mendukung level privasi dinamis, memungkinkan pengguna untuk menyesuaikan jumlah shard berdasarkan sensitivitas data. Meskipun level privasi yang lebih tinggi memerlukan lebih banyak sharding (dan biaya yang lebih tinggi), mereka memberikan kerahasiaan tambahan bagi pengguna yang menangani informasi sensitif.
Setiap verifikasi yang dilakukan oleh sebuah node dicatat di blockchain, menciptakan catatan yang transparan dan dapat diaudit dari proses verifikasi. Ledger yang tidak dapat diubah ini memastikan kepercayaan dan akuntabilitas yang tidak dapat dicapai oleh pendekatan tradisional yang bukan berbasis blockchain.
Ini menetapkan standar baru untuk verifikasi AI yang aman dan tidak memihak.
Di jaringan terdesentralisasi Mira, pekerjaan jujur diberi imbalan.
Para ahli dapat menerapkan model AI khusus melalui perangkat lunak node dan mendapatkan token untuk verifikasi yang akurat. Pengembang AI, pada gilirannya, membayar biaya per verifikasi, menciptakan lingkaran ekonomi yang mandiri antara permintaan dan pasokan.
Pendekatan ini menghubungkan nilai nyata dari alur kerja Web2 ke dalam ekosistem Web3, langsung memberikan penghargaan kepada peserta seperti penyedia inferensi dan pencipta model.
Namun insentif datang dengan tantangan. Dalam sistem terdesentralisasi apapun, pelaku buruk akan mencoba mengeksploitasi jaringan, mengajukan hasil palsu untuk mendapatkan hadiah tanpa melakukan pekerjaan.
Jadi, bagaimana cara memastikan node-node tersebut benar-benar melakukan tugasnya dengan akurat dan jujur?
Untuk menjaga integritas, Mira menggunakan Proof-of-Verification—sebuah mekanisme yang terinspirasi dari proof-of-work Bitcoin namun dirancang untuk kecerdasan buatan. Alih-alih menambang blok, node-node harus membuktikan bahwa mereka telah menyelesaikan tugas verifikasi untuk berpartisipasi dalam proses konsensus.
Begini cara kerjanya:
Proof-of-Verification menciptakan sistem yang seimbang di mana node-node memiliki motivasi ekonomi untuk melakukan verifikasi berkualitas tinggi. Mekanisme ini memastikan bahwa jaringan tetap aman dan dapat diandalkan dari waktu ke waktu.
Inilah pertanyaannya: Jika pendekatan Mira begitu efektif, mengapa tidak semua orang melakukannya?
Jawabannya terletak pada kompromi dan kompleksitas dalam mengimplementasikan sistem tersebut di dunia nyata. Mencapai keseimbangan sempurna antara evaluasi yang cepat dan akurat serta mengelola kerumitan dari beberapa model bukanlah hal yang mudah.
Salah satu hambatan terbesar Mira adalah latency. Meskipun menggunakan kumpulan model memungkinkan verifikasi berjalan secara paralel, sinkronisasi hasil dan mencapai konsensus memperkenalkan keterlambatan. Proses ini hanya secepat node terlambat.
Saat ini, hal ini membuat Mira ideal untuk pemrosesan batch output kecerdasan buatan—kasus penggunaan di mana hasil real-time tidak diperlukan. Seiring dengan pertumbuhan jaringan dengan lebih banyak node dan ketersediaan komputasi, tujuan jangka panjangnya adalah untuk mencapai verifikasi real-time, memperluas aplikabilitas Mira ke berbagai skenario.
Selain latensi, tantangan lain termasuk:
Kompleksitas Rekayasa: Mengatur evaluasi di sejumlah model dan memastikan mekanisme konsensus beroperasi lancar menuntut upaya rekayasa yang signifikan.
Persyaratan Komputasi yang Lebih Tinggi: Bahkan ketika menggunakan model yang lebih kecil, menjalankannya bersama-sama dalam ensemble meningkatkan permintaan komputasi.
Desain Mekanisme Konsensus yang Baik: Cara konsensus dicapai—melalui pemungutan suara mayoritas, penilaian tertimbang, atau metode lain—memainkan peran penting dalam kehandalan sistem. Dalam kasus-kasus yang ambigu, kumpulan mungkin kesulitan untuk berpihak, menyebabkan hasil yang tidak konsisten.
Sumber: Mira
API Mira terintegrasi dengan mudah dengan setiap aplikasi, mirip dengan GPT-4o milik OpenAI. Ini tidak memihak pada aplikasi konsumen maupun B2B, menjadikannya solusi yang serbaguna untuk berbagai kasus penggunaan. Saat ini, lebih dari selusin aplikasi menggunakan infrastruktur Mira.
Integrasi Konsumen
Di sisi konsumen, Mira sudah mendorong verifikasi AI untuk beberapa aplikasi AI tahap awal:
Oracle Delphiadalah integrasi terbaru dan mungkin paling canggih. Asisten penelitian yang didukung AI ini memungkinkan@Delphi_Digital Anggota untuk terlibat langsung dengan konten penelitian, mengajukan pertanyaan, mengklarifikasi poin, mengintegrasikan umpan harga, dan menyesuaikan konten ke berbagai tingkat kompleksitas.
Delphi Oracle memanfaatkan teknologi verifikasi Mira Network untuk memberikan respons yang dapat diandalkan dan akurat. Dengan memverifikasi respons melalui berbagai model, Mira mengurangi tingkat halusinasi dari ~30% menjadi kurang dari 5%, memastikan dasar kepercayaan yang kuat.
Pada inti Delphi Oracle adalah router kueri berperforma tinggi
Sistem perutean cerdas ini, dikombinasikan dengan caching cerdas, memastikan kinerja optimal dengan menyeimbangkan latensi, biaya, dan kualitas.
Pengujian Mira mengungkapkan bahwa model yang lebih kecil dan hemat biaya dapat menangani sebagian besar permintaan hampir sama baiknya dengan model yang lebih besar. Hal ini menghasilkan pengurangan biaya operasional sebesar 90%, sambil tetap mempertahankan respons berkualitas tinggi yang diharapkan oleh pengguna.
Meskipun banyak aplikasi konsumen ini masih awal, mereka menyoroti kemampuan Mira untuk terintegrasi dengan lancar dan mendukung basis pengguna yang besar dan aktif. Tidak sulit untuk membayangkan ribuan aplikasi yang terhubung ke ekosistem Mira - asalkan pengalaman pengembang tetap sederhana dan proposisi nilai tetap jelas.
Aplikasi B2B
Di bagian B2B, Mira sedang memusatkan perhatian pada integrasi khusus di industri di mana kepercayaan dan ketepatan sangat penting, dengan fokus awal pada kesehatan dan pendidikan.
Aplikasi kunci termasuk:
Tujuan utama Mira adalah menawarkan generasi yang terverifikasi secara asli - di mana pengguna hanya perlu terhubung melalui API, seperti OpenAI atau Anthropic, dan menerima output yang sudah terverifikasi sebelum dikembalikan.
Mereka bertujuan untuk menggantikan API model yang ada dengan menyediakan versi yang sangat dapat diandalkan dari model yang ada (misalnya, Mira-Claude-3.5-Sonnet atau Mira-OpenAI-GPT-4o), ditingkatkan dengan kehandalan berbasis konsensus yang terintegrasi.
Generative AI sedang naik pesawat roket. MenurutBloomberg, pasar ini diproyeksikan akan tumbuh dengan CAGR 42% yang menakjubkan, dengan pendapatan melebihi $1 triliun pada tahun 2030. Dalam gelombang besar ini, alat-alat yang meningkatkan kecepatan, akurasi, dan keandalan alur kerja AI akan menangkap potongan yang berarti.
Seiring dengan integrasi LLM yang semakin banyak oleh perusahaan dalam alur kerja mereka—mulai dari chatbot dukungan pelanggan hingga asisten riset kompleks—kebutuhan akan verifikasi model yang kuat menjadi semakin mendesak.
Organisasi akan mencari alat yang dapat (1) mengukur akurasi dan keandalan model, (2) mendiagnosis ketidakefisienan prompt dan parameter, (3) terus memantau kinerja dan perubahan, dan (4) memastikan kepatuhan terhadap kerangka regulasi yang muncul seputar keamanan AI.
Terdengar familiar? Ini adalah buku panduan yang pernah kita lihat sebelumnya dengan MLOps (singkatan dari “Machine Learning Operations”). Seiring dengan berkembangnya machine learning pada tahun 2010-an, alat-alat untuk mendeploy, melacak, dan memelihara model menjadi penting, menciptakan pasar bernilai miliaran dolar. Dengan munculnya generative AI, LLMOps mengikuti lintasan yang sama.
Merebut bahkan sepotong kecil dari pasar triliunan dolar dapat mendorong sub-sektor ini hingga mencapai $100B+ pada tahun 2030.
Beberapa startup Web2 sudah mulai memposisikan diri, menawarkan alat untuk menandai data, menyesuaikan model, dan mengevaluasi performa:
• Braintrust ($36M raised)
• Vellum AI ($5M raised)
• Humanloop ($2.8M raised)
Para pemain awal ini sedang mempersiapkan dasar-dasar, tetapi ruang lingkupnya masih sangat dinamis. Pada tahun 2025, kemungkinan kita akan melihat banyak startup di sektor ini. Beberapa mungkin mengkhususkan diri dalam metrik evaluasi niche (misalnya, deteksi bias, dan pengujian keandalan), sementara yang lain memperluas penawaran mereka untuk mencakup seluruh siklus pengembangan AI.
Perusahaan teknologi yang lebih besar - seperti penyedia awan utama dan platform AI - kemungkinan akan menggabungkan fitur evaluasi ke dalam penawaran mereka. Bulan lalu,OpenAImengenalkan evaluasi langsung di platformnya. Untuk tetap kompetitif, startup harus berbeda melalui spesialisasi, kemudahan penggunaan, dan analitik canggih.
Mira bukanlah pesaing langsung dari startup atau perusahaan besar tersebut. Sebagai gantinya, Mira adalah penyedia infrastruktur yang terintegrasi dengan kedua belah pihak melalui API. Kuncinya? Ini hanya harus berfungsi.
Ukuran pasar awal Mira terkait dengan LLMOps, tetapi total pasar yang dapat dijangkau akan meluas ke seluruh AI karena setiap aplikasi AI akan membutuhkan output yang lebih dapat diandalkan.
Dari perspektif teori permainan, Mira berada dalam situasi yang unik. Berbeda dengan penyedia model lain seperti OpenAI, yang terkunci dalam mendukung sistem mereka sendiri, Mira dapat mengintegrasikan berbagai model. Hal ini menjadikan Mira sebagai lapisan kepercayaan untuk kecerdasan buatan, menawarkan keandalan yang tidak dapat disaingi oleh penyedia tunggal mana pun.
Jalan roadmap Mira 2025 bertujuan untuk menjaga keseimbangan integritas, skalabilitas, dan partisipasi komunitas dalam upayanya menuju desentralisasi penuh:
Fase 1: Bootstrapping Trust (Di mana kita berada hari ini)
Pada tahap awal, operator node yang diperiksa memastikan keandalan jaringan. Penyedia komputasi GPU terkenal berfungsi sebagai operator gelombang pertama, menangani operasi awal dan meletakkan fondasi yang kuat untuk pertumbuhan.
Fase 2: Desentralisasi Progresif
Mira memperkenalkan duplikasi yang dirancang, di mana beberapa contoh dari model verifikasi yang sama memproses setiap permintaan. Meskipun ini meningkatkan biaya verifikasi, ini penting untuk mengidentifikasi dan menghapus operator jahat. Dengan membandingkan output di seluruh node, pelaku buruk dapat terdeteksi lebih awal.
Dalam bentuk matangnya, Mira akan menerapkan sharding acak untuk mendistribusikan tugas verifikasi. Hal ini membuat kolusi secara ekonomis tidak layak dan memperkuat ketahanan dan keamanan jaringan saat jaringan tersebut berkembang.
Fase 3: Model dasar sintetis
Di sini Mira akan menawarkan generasi yang diverifikasi secara native. Pengguna akan terhubung melalui API, mirip dengan OpenAI atau Anthropic, dan menerima output yang telah diverifikasi sebelumnya—hasil yang dapat diandalkan dan siap digunakan tanpa validasi tambahan.
Dalam beberapa bulan mendatang, Mira bersiap untuk beberapa tonggak penting:
Mira sedang memperluas kesempatan untuk keterlibatan komunitas melaluiProgram Delegator NodeInisiatif ini membuat dukungan jaringan dapat diakses oleh semua orang - tidak diperlukan keahlian teknis.
Prosesnya sederhana: Anda dapat menyewa sumber daya komputasi dan mendelegasikannya kepada sekelompok operator node terpilih. Kontribusi dapat berkisar dari $35 hingga $750, dan hadiah ditawarkan untuk mendukung jaringan. Mira mengelola semua infrastruktur kompleks, sehingga delegator node dapat duduk, menyaksikan pertumbuhan jaringan, dan mendapatkan keuntungan.
Hari ini, Mira memiliki tim kecil namun kompak yang sebagian besar berfokus pada rekayasa.
Ada 3 pendiri:
Bersama-sama, mereka menggabungkan ketajaman investasi, inovasi teknis, dan kepemimpinan produk ke visi Mira untuk verifikasi AI terdesentralisasi. Mira mengumpulkan $ 9 jutaputaran benihpada bulan Juli 2024, dipimpin oleh BITKRAFT dan Framework Ventures.
Sangat menyegarkan melihat tim Crypto AI mengatasi masalah fundamental AI Web2—membuat AI lebih baik—daripada bermain spekulatif dalam gelembung crypto.
Industri ini sadar akan pentingnya verifikasi. Mengandalkan "getaran" tidak lagi cukup. Setiap aplikasi dan alur kerja AI akan segera membutuhkan proses verifikasi yang tepat — dan tidak sulit membayangkan peraturan di masa depan yang mewajibkan proses ini untuk memastikan keamanan.
Pendekatan Mira memanfaatkan beberapa model untuk memverifikasi output secara independen, menghindari ketergantungan pada satu model terpusat. Kerangka terdesentralisasi ini meningkatkan kepercayaan dan mengurangi risiko bias dan manipulasi.
Dan mari kita pertimbangkan apa yang terjadi jika kita mencapai AGI dalam beberapa tahun ke depan (kemungkinan nyata).
SebagaiAnand Iyer (@AI dari Canonical menunjukkan, jika AI dapat memanipulasi keputusan dan kode secara halus, bagaimana kita bisa mempercayai pengujian sistem untuk perilaku ini? Orang pintar berpikir ke depan.penelitian Anthropic menggarisbawahi urgensi, menyoroti evaluasi sebagai alat penting untuk mengidentifikasi kemampuan AI yang berpotensi berbahaya sebelum meningkat menjadi masalah.
Dengan memungkinkan transparansi radikal, blockchain menambahkan lapisan perlindungan yang kuat terhadap sistem AI nakal. Mekanisme konsensus tanpa kepercayaan memastikan bahwa evaluasi keselamatan diverifikasi oleh ribuan node independen (seperti di Mira), secara drastis mengurangi risiko serangan Sybil.
Mira sedang mengejar pasar yang besar dengan permintaan yang jelas akan solusi yang berfungsi. Namun tantangan-tantangan ini nyata. Memperbaiki latensi, presisi, dan efisiensi biaya akan membutuhkan upaya rekayasa yang tak kenal lelah dan waktu. Tim akan perlu secara konsisten menunjukkan bahwa pendekatan mereka secara terukur lebih baik daripada alternatif yang ada.
Inovasi inti terletak pada proses binarisasi dan sharding Mira. "Saus rahasia" ini menjanjikan untuk mengatasi tantangan skalabilitas dan kepercayaan. Agar Mira berhasil, teknologi ini perlu memenuhi janjinya.
Dalam jaringan terdesentralisasi mana pun, desain token dan insentif adalah faktor penentu. Keberhasilan Mira akan bergantung pada seberapa baik mekanisme ini menyelaraskan kepentingan peserta sambil menjaga integritas jaringan.
Meskipun detail tokenomics Mira masih dirahasiakan, saya mengharapkan tim akan mengungkapkan lebih banyak saat peluncuran token mendekati awal 2025.
“Kami telah menemukan bahwa tim rekayasa yang melaksanakan evaluasi yang baik bergerak secara signifikan lebih cepat - hingga 10 kali lebih cepat - daripada mereka yang hanya memperhatikan apa yang terjadi dalam produksi dan mencoba memperbaikinya secara ad-hoc,” - Ankur Goyal, Braintrust
Dalam dunia yang didorong oleh kecerdasan buatan, kepercayaan adalah segalanya.
Seiring dengan semakin kompleksnya model, verifikasi yang dapat diandalkan akan menjadi dasar setiap produk AI yang hebat. Mereka membantu kita mengatasi halusinasi, menghilangkan bias, dan memastikan hasil AI sejalan dengan kebutuhan nyata pengguna.
Mira mengotomatisasi verifikasi, mengurangi biaya dan ketergantungan pada campur tangan manusia. Ini membuka iterasi yang lebih cepat, penyesuaian real-time, dan solusi yang dapat diskalakan tanpa bottleneck.
Pada akhirnya, Mira bertujuan menjadi API untuk kepercayaan—sebuah kerangka verifikasi terdesentralisasi yang dapat diandalkan setiap pengembang AI dan aplikasi untuk jawaban yang terverifikasi.
Ini berani, ambisius, dan tepat apa yang dibutuhkan dunia AI.
Terima kasih sudah membaca, Teng Yan
Meneruskan Judul Asli: Mira: Trustless Verified AI
Halusinasi: sebuah pengalaman yang melibatkan persepsi yang tampaknya terhadap sesuatu yang tidak hadir.
Andrej Karpathy menyebut AI sebagai 'mesin-mesin mimpi'. Ia percaya bahwa halusinasi - saat AI dengan percaya diri menghasilkan hal-hal yang tidak nyata - merupakan sebuah fitur, bukan bug. Mencoba menghilangkannya sepenuhnya adalah sia-sia. Dan sejujurnya, ada sesuatu yang puitis tentang hal itu.
Model bahasa besar (LLM) adalah seorang seniman, seorang pencipta. Ia bermimpi dalam kode, menghasilkan ide dari udara, dan menciptakan makna dari data. Tetapi agar KI bergerak dari lamunan indah ke aplikasi praktis sehari-hari, kita harus menahan diri dari halusinasi tersebut.
Tingkat kesalahan untuk LLMs tetap tinggi di banyak tugas—seringkali sekitar 30%. Pada tingkat tersebut, LLMs masih memerlukan campur tangan manusia untuk mencapai standar akurasi yang dapat digunakan.
Tapi ketika kita mencapai akurasi 99.x yang sulit didapatkan itu - di mana outputnya dapat diandalkan tanpa pengawasan manusia - keajaiban terjadi. Itulah ambang batas di mana AI mencapai kehandalan tingkat manusia, membuka peluang tak terbatas dari kasus penggunaan sebelumnya yang tidak terjangkau.
Mencapai tingkat presisi tersebut, bagaimanapun, bukanlah hal yang mudah. Ini membutuhkan upaya rekayasa yang tak kenal lelah dan inovasi.
Kisah tentang@Mira_Networkdimulai di sini. Tetapi sebelum kita mulai, mari sejenak berbicara tentang pengembangan LLM - dan mengapa verifikasi menjadi hal besar berikutnya dalam AI.
Pengembangan LLM adalah iterasi terbaru dalam perjalanan pembelajaran mendalam - berbeda dengan praktik pengembangan perangkat lunak tradisional yang telah kita asah selama lebih dari 50 tahun terakhir. LLM, yang baru ada sekitar tiga tahun, sepenuhnya mengubah skenario, bergerak dari pemikiran deterministik (jika X, maka Y) menjadi pemikiran probabilitas (jika X, maka... mungkin Y?).
Ini berarti infrastruktur untuk dunia yang didorong AI membutuhkan seperangkat alat dan alur kerja yang sepenuhnya baru. Namun, banyak dari alat-alat ini masih terkunci di dalam laboratorium penelitian yang menciptakan LLMs.
Berita baiknya adalah bahwa alat-alat ini mulai tersedia di domain publik, membuka berbagai kemungkinan bagi pengembang di mana saja.
Di ujung ekor alur kerja baru ini terletak potongan penting dari teka-teki: evaluasi & verifikasi. Hari ini, sorotan kita tertuju pada ini. Mereka menjawab pertanyaan mendasar: Apakah AI bekerja dengan baik?
Kepercayaan adalah dasar dari setiap produk AI yang hebat.
Seiring dengan AI menjadi bagian yang semakin penting dalam kehidupan kita, teknologi itu sendiri tetap rapuh. Kesalahan terjadi, dan ketika itu terjadi, kepercayaan cepat hilang. Pengguna mengharapkan AI yang akurat, tidak memihak, dan benar-benar membantu, tetapi tanpa sistem yang dapat diandalkan untuk memastikan hal itu, frustrasi semakin meningkat - dan frustrasi berujung pada perputaran.
Di sinilah verifikasi menjadi penting.
Verifikasi berfungsi sebagai benteng. Mereka adalah lapisan jaminan kualitas yang menjadi andalan pengembang untuk menyempurnakan output dan membangun sistem yang dapat dipercayai pengguna.
Mira sedang mengatasi masalah inti Web2 dengan transparansi tanpa kepercayaan dari kripto. Dengan memanfaatkan jaringan terdesentralisasi dari node verifier, Mira memastikan bahwa output kecerdasan buatan diverifikasi secara akurat dan independen.
Misalkan Anda memiliki satu paragraf keluaran dari LLM tentang kota Paris. Bagaimana Anda memverifikasi bahwa itu akurat? Sulit untuk melakukannya karena ada begitu banyak nuansa sekitar segala sesuatu mulai dari klaim hingga struktur konten hingga gaya penulisan.
Ini adalah tempat di mana Mira turun tangan.
Visi Mira yang berani: menciptakan jaringan lapis-1 yang memberikan verifikasi AI yang tidak dapat dipercaya, dapat diskalakan, dan akurat. Dengan memanfaatkan kebijaksanaan kolektif, Mira mengurangi bias dan halusinasi, memecahkan masalah inti seperti keadilan dan biaya sambil membuktikan bagaimana blockchain benar-benar dapat meningkatkan AI.
Sumber: Mira
Hasil awalnya menjanjikan. Dalam sebuah penelitian terbarustudi yang diterbitkan di Arxiv, Mira menunjukkan bahwa menggunakan beberapa model untuk menghasilkan output dan memerlukan konsensus secara signifikan meningkatkan akurasi. Presisi mencapai 95,6% dengan tiga model, dibandingkan dengan 73,1% untuk output model tunggal.
Dua elemen desain kunci mendukung pendekatan Mira:
Output yang dihasilkan oleh AI berkisar dari pernyataan sederhana hingga esai yang luas, berkat biaya hampir nol dari generasi konten. Namun, kelimpahan kompleksitas ini menciptakan tantangan: bagaimana Anda memastikan keakuratan output yang begitu beragam ini?
Solusi Mira sederhana: uraikan.
@Mira_Networkmengubah konten AI yang kompleks menjadi bagian-bagian yang lebih kecil agar model AI dapat meninjau secara objektif dalam proses yang disebut sharding.
Dengan memstandardisasi output dan memecahnya menjadi klaim diskrit yang dapat diverifikasi, Mira memastikan setiap bagian dapat dievaluasi secara konsisten, menghilangkan ambiguitas yang seringkali mengganggu evaluasi.
Sebagai contoh, pertimbangkan pernyataan gabungan ini:
Fotosintesis terjadi pada tumbuhan untuk mengubah sinar matahari menjadi energi, dan lebah memainkan peran penting dalam penyerbukan dengan mentransfer serbuk sari antara bunga.
Pada permukaannya, tampaknya mudah diverifikasi. Tetapi ketika diberikan kepada beberapa model, keanehan interpretasi mungkin menyebabkan jawaban yang berbeda. Transformasi konten Mira melalui sharding memecahkan masalah ini dengan membagi pernyataan menjadi dua klaim independen:
Setelah di-sharded, setiap klaim akan mengalami binarisasi, di mana klaim tersebut diubah menjadi pertanyaan pilihan ganda. Pertanyaan-pertanyaan ini didistribusikan ke jaringan node yang menjalankan model AI. Dengan menggunakan metode verifikasi ensemble Mira, model-model tersebut bekerja sama untuk mengevaluasi dan mengkonfirmasi validitas setiap klaim.
Saat ini, kemampuan pemecahan konten dan binarisasi Mira difokuskan pada input teks. Pada awal tahun 2025, proses-proses ini akan diperluas untuk mendukung input multimodal, seperti gambar dan video.
Mira telah mengembangkan sistem verifikasi canggih yang menggabungkan kelebihan dari beberapa model AI untuk menilai kualitas output AI.
Mari kita membongkar itu.
Evaluasi otomatis tradisional sering mengandalkan model bahasa besar tunggal (LLM), seperti GPT-4, sebagai wasit utama kualitas. Meskipun fungsional, pendekatan ini memiliki kelemahan yang signifikan: mahal, rentan terhadap bias, dan dibatasi oleh kebiasaan dan "kepribadian" yang melekat dalam model.
Terobosan Mira adalah pergeseran dari ketergantungan pada satu model besar menjadi memanfaatkan sebuahkesatuan dari beragam LLMs yang berbedaEnsemble ini unggul dalam tugas-tugas di mana akurasi faktual lebih penting daripada gaya kreatif, mengurangi tingkat kesalahan dan memberikan verifikasi yang lebih handal dan konsisten.
Teknik ensemble telah banyak diteliti dalam tugas pembelajaran mesin seperti klasifikasi, dan Mira kini membawa hal ini ke verifikasi.
Di tengah sistem Mira adalah Panel verifikasi LLM (PoLL) - jaringan kolaboratif model yang bekerja bersama untuk memverifikasi output. Bayangkan sebagai panel pakar yang beragam memberikan pendapat pada suatu keputusan daripada hanya mengandalkan pada satu hakim yang berpotensi memihak.
Dan ini bukan hanya sekadar angan-angan—ini didasarkan pada penelitian. Lihatlah grafik di bawah ini:
Sebuah studi CoheredipublikasikanPada April 2024, terbukti bahwa sebuah panel dari tiga model yang lebih kecil—GPT-3.5, Claude-3 Haiku, dan Command R—lebih mendekati penilaian manusia daripada GPT-4 saja. Dengan mencolok, metode ensemble ini juga lebih murah 7x.
Mira sekarang sedang menerapkan metode verifikasi ensemble ini secara besar-besaran. Hasil internal yang mereka bagikan sejauh ini sangat meyakinkan:
• Tingkat kesalahan berkurang dari 80% menjadi 5% untuk tugas penalaran kompleks.
• Peningkatan 5x dalam kecepatan dan biaya dibandingkan dengan verifikasi manusia.
Ini bukanlah suatu pencapaian kecil. Dengan menggunakan mekanisme konsensus, ensemble model-model Mira secara efektif menyaring halusinasi dan menyeimbangkan kecenderungan model individu. Bersama-sama, mereka menghasilkan sesuatu yang lebih besar daripada jumlah bagian-bagiannya: verifikasi yang lebih cepat, lebih murah, dan lebih sesuai dengan kebutuhan kami.
Untuk merangkum, sistem verifikasi Mira dibangun berdasarkan dua prinsip desain fundamental:
Menjaga kumpulan model yang beragam sangat penting untuk hasil yang berkualitas tinggi, sehingga desain Mira ideal untuk arsitektur terdesentralisasi. Menghilangkan titik-titik kegagalan tunggal sangat penting untuk produk verifikasi apa pun.
Mira menggunakan pendekatan berbasis blockchain untuk memastikan tidak ada entitas tunggal yang dapat memanipulasi hasil. Premisnya sederhana: output yang dihasilkan oleh AI harus diverifikasi seperti perubahan status blockchain.
Verifikasi dilakukan melalui jaringan node independen, dengan operator secara ekonomis didorong untuk melakukan verifikasi yang akurat. Dengan mengarahkan imbalan dengan kejujuran, sistem Mira mencegah pelaku buruk dan memastikan hasil yang dapat diandalkan.
Begini cara kerjanya:
Mira memastikan kerahasiaan data dengan memecah data masukan menjadi bagian-bagian lebih kecil, memastikan tidak ada satu node pun yang memiliki akses ke keseluruhan kumpulan data.
Untuk keamanan tambahan, Mira mendukung level privasi dinamis, memungkinkan pengguna untuk menyesuaikan jumlah shard berdasarkan sensitivitas data. Meskipun level privasi yang lebih tinggi memerlukan lebih banyak sharding (dan biaya yang lebih tinggi), mereka memberikan kerahasiaan tambahan bagi pengguna yang menangani informasi sensitif.
Setiap verifikasi yang dilakukan oleh sebuah node dicatat di blockchain, menciptakan catatan yang transparan dan dapat diaudit dari proses verifikasi. Ledger yang tidak dapat diubah ini memastikan kepercayaan dan akuntabilitas yang tidak dapat dicapai oleh pendekatan tradisional yang bukan berbasis blockchain.
Ini menetapkan standar baru untuk verifikasi AI yang aman dan tidak memihak.
Di jaringan terdesentralisasi Mira, pekerjaan jujur diberi imbalan.
Para ahli dapat menerapkan model AI khusus melalui perangkat lunak node dan mendapatkan token untuk verifikasi yang akurat. Pengembang AI, pada gilirannya, membayar biaya per verifikasi, menciptakan lingkaran ekonomi yang mandiri antara permintaan dan pasokan.
Pendekatan ini menghubungkan nilai nyata dari alur kerja Web2 ke dalam ekosistem Web3, langsung memberikan penghargaan kepada peserta seperti penyedia inferensi dan pencipta model.
Namun insentif datang dengan tantangan. Dalam sistem terdesentralisasi apapun, pelaku buruk akan mencoba mengeksploitasi jaringan, mengajukan hasil palsu untuk mendapatkan hadiah tanpa melakukan pekerjaan.
Jadi, bagaimana cara memastikan node-node tersebut benar-benar melakukan tugasnya dengan akurat dan jujur?
Untuk menjaga integritas, Mira menggunakan Proof-of-Verification—sebuah mekanisme yang terinspirasi dari proof-of-work Bitcoin namun dirancang untuk kecerdasan buatan. Alih-alih menambang blok, node-node harus membuktikan bahwa mereka telah menyelesaikan tugas verifikasi untuk berpartisipasi dalam proses konsensus.
Begini cara kerjanya:
Proof-of-Verification menciptakan sistem yang seimbang di mana node-node memiliki motivasi ekonomi untuk melakukan verifikasi berkualitas tinggi. Mekanisme ini memastikan bahwa jaringan tetap aman dan dapat diandalkan dari waktu ke waktu.
Inilah pertanyaannya: Jika pendekatan Mira begitu efektif, mengapa tidak semua orang melakukannya?
Jawabannya terletak pada kompromi dan kompleksitas dalam mengimplementasikan sistem tersebut di dunia nyata. Mencapai keseimbangan sempurna antara evaluasi yang cepat dan akurat serta mengelola kerumitan dari beberapa model bukanlah hal yang mudah.
Salah satu hambatan terbesar Mira adalah latency. Meskipun menggunakan kumpulan model memungkinkan verifikasi berjalan secara paralel, sinkronisasi hasil dan mencapai konsensus memperkenalkan keterlambatan. Proses ini hanya secepat node terlambat.
Saat ini, hal ini membuat Mira ideal untuk pemrosesan batch output kecerdasan buatan—kasus penggunaan di mana hasil real-time tidak diperlukan. Seiring dengan pertumbuhan jaringan dengan lebih banyak node dan ketersediaan komputasi, tujuan jangka panjangnya adalah untuk mencapai verifikasi real-time, memperluas aplikabilitas Mira ke berbagai skenario.
Selain latensi, tantangan lain termasuk:
Kompleksitas Rekayasa: Mengatur evaluasi di sejumlah model dan memastikan mekanisme konsensus beroperasi lancar menuntut upaya rekayasa yang signifikan.
Persyaratan Komputasi yang Lebih Tinggi: Bahkan ketika menggunakan model yang lebih kecil, menjalankannya bersama-sama dalam ensemble meningkatkan permintaan komputasi.
Desain Mekanisme Konsensus yang Baik: Cara konsensus dicapai—melalui pemungutan suara mayoritas, penilaian tertimbang, atau metode lain—memainkan peran penting dalam kehandalan sistem. Dalam kasus-kasus yang ambigu, kumpulan mungkin kesulitan untuk berpihak, menyebabkan hasil yang tidak konsisten.
Sumber: Mira
API Mira terintegrasi dengan mudah dengan setiap aplikasi, mirip dengan GPT-4o milik OpenAI. Ini tidak memihak pada aplikasi konsumen maupun B2B, menjadikannya solusi yang serbaguna untuk berbagai kasus penggunaan. Saat ini, lebih dari selusin aplikasi menggunakan infrastruktur Mira.
Integrasi Konsumen
Di sisi konsumen, Mira sudah mendorong verifikasi AI untuk beberapa aplikasi AI tahap awal:
Oracle Delphiadalah integrasi terbaru dan mungkin paling canggih. Asisten penelitian yang didukung AI ini memungkinkan@Delphi_Digital Anggota untuk terlibat langsung dengan konten penelitian, mengajukan pertanyaan, mengklarifikasi poin, mengintegrasikan umpan harga, dan menyesuaikan konten ke berbagai tingkat kompleksitas.
Delphi Oracle memanfaatkan teknologi verifikasi Mira Network untuk memberikan respons yang dapat diandalkan dan akurat. Dengan memverifikasi respons melalui berbagai model, Mira mengurangi tingkat halusinasi dari ~30% menjadi kurang dari 5%, memastikan dasar kepercayaan yang kuat.
Pada inti Delphi Oracle adalah router kueri berperforma tinggi
Sistem perutean cerdas ini, dikombinasikan dengan caching cerdas, memastikan kinerja optimal dengan menyeimbangkan latensi, biaya, dan kualitas.
Pengujian Mira mengungkapkan bahwa model yang lebih kecil dan hemat biaya dapat menangani sebagian besar permintaan hampir sama baiknya dengan model yang lebih besar. Hal ini menghasilkan pengurangan biaya operasional sebesar 90%, sambil tetap mempertahankan respons berkualitas tinggi yang diharapkan oleh pengguna.
Meskipun banyak aplikasi konsumen ini masih awal, mereka menyoroti kemampuan Mira untuk terintegrasi dengan lancar dan mendukung basis pengguna yang besar dan aktif. Tidak sulit untuk membayangkan ribuan aplikasi yang terhubung ke ekosistem Mira - asalkan pengalaman pengembang tetap sederhana dan proposisi nilai tetap jelas.
Aplikasi B2B
Di bagian B2B, Mira sedang memusatkan perhatian pada integrasi khusus di industri di mana kepercayaan dan ketepatan sangat penting, dengan fokus awal pada kesehatan dan pendidikan.
Aplikasi kunci termasuk:
Tujuan utama Mira adalah menawarkan generasi yang terverifikasi secara asli - di mana pengguna hanya perlu terhubung melalui API, seperti OpenAI atau Anthropic, dan menerima output yang sudah terverifikasi sebelum dikembalikan.
Mereka bertujuan untuk menggantikan API model yang ada dengan menyediakan versi yang sangat dapat diandalkan dari model yang ada (misalnya, Mira-Claude-3.5-Sonnet atau Mira-OpenAI-GPT-4o), ditingkatkan dengan kehandalan berbasis konsensus yang terintegrasi.
Generative AI sedang naik pesawat roket. MenurutBloomberg, pasar ini diproyeksikan akan tumbuh dengan CAGR 42% yang menakjubkan, dengan pendapatan melebihi $1 triliun pada tahun 2030. Dalam gelombang besar ini, alat-alat yang meningkatkan kecepatan, akurasi, dan keandalan alur kerja AI akan menangkap potongan yang berarti.
Seiring dengan integrasi LLM yang semakin banyak oleh perusahaan dalam alur kerja mereka—mulai dari chatbot dukungan pelanggan hingga asisten riset kompleks—kebutuhan akan verifikasi model yang kuat menjadi semakin mendesak.
Organisasi akan mencari alat yang dapat (1) mengukur akurasi dan keandalan model, (2) mendiagnosis ketidakefisienan prompt dan parameter, (3) terus memantau kinerja dan perubahan, dan (4) memastikan kepatuhan terhadap kerangka regulasi yang muncul seputar keamanan AI.
Terdengar familiar? Ini adalah buku panduan yang pernah kita lihat sebelumnya dengan MLOps (singkatan dari “Machine Learning Operations”). Seiring dengan berkembangnya machine learning pada tahun 2010-an, alat-alat untuk mendeploy, melacak, dan memelihara model menjadi penting, menciptakan pasar bernilai miliaran dolar. Dengan munculnya generative AI, LLMOps mengikuti lintasan yang sama.
Merebut bahkan sepotong kecil dari pasar triliunan dolar dapat mendorong sub-sektor ini hingga mencapai $100B+ pada tahun 2030.
Beberapa startup Web2 sudah mulai memposisikan diri, menawarkan alat untuk menandai data, menyesuaikan model, dan mengevaluasi performa:
• Braintrust ($36M raised)
• Vellum AI ($5M raised)
• Humanloop ($2.8M raised)
Para pemain awal ini sedang mempersiapkan dasar-dasar, tetapi ruang lingkupnya masih sangat dinamis. Pada tahun 2025, kemungkinan kita akan melihat banyak startup di sektor ini. Beberapa mungkin mengkhususkan diri dalam metrik evaluasi niche (misalnya, deteksi bias, dan pengujian keandalan), sementara yang lain memperluas penawaran mereka untuk mencakup seluruh siklus pengembangan AI.
Perusahaan teknologi yang lebih besar - seperti penyedia awan utama dan platform AI - kemungkinan akan menggabungkan fitur evaluasi ke dalam penawaran mereka. Bulan lalu,OpenAImengenalkan evaluasi langsung di platformnya. Untuk tetap kompetitif, startup harus berbeda melalui spesialisasi, kemudahan penggunaan, dan analitik canggih.
Mira bukanlah pesaing langsung dari startup atau perusahaan besar tersebut. Sebagai gantinya, Mira adalah penyedia infrastruktur yang terintegrasi dengan kedua belah pihak melalui API. Kuncinya? Ini hanya harus berfungsi.
Ukuran pasar awal Mira terkait dengan LLMOps, tetapi total pasar yang dapat dijangkau akan meluas ke seluruh AI karena setiap aplikasi AI akan membutuhkan output yang lebih dapat diandalkan.
Dari perspektif teori permainan, Mira berada dalam situasi yang unik. Berbeda dengan penyedia model lain seperti OpenAI, yang terkunci dalam mendukung sistem mereka sendiri, Mira dapat mengintegrasikan berbagai model. Hal ini menjadikan Mira sebagai lapisan kepercayaan untuk kecerdasan buatan, menawarkan keandalan yang tidak dapat disaingi oleh penyedia tunggal mana pun.
Jalan roadmap Mira 2025 bertujuan untuk menjaga keseimbangan integritas, skalabilitas, dan partisipasi komunitas dalam upayanya menuju desentralisasi penuh:
Fase 1: Bootstrapping Trust (Di mana kita berada hari ini)
Pada tahap awal, operator node yang diperiksa memastikan keandalan jaringan. Penyedia komputasi GPU terkenal berfungsi sebagai operator gelombang pertama, menangani operasi awal dan meletakkan fondasi yang kuat untuk pertumbuhan.
Fase 2: Desentralisasi Progresif
Mira memperkenalkan duplikasi yang dirancang, di mana beberapa contoh dari model verifikasi yang sama memproses setiap permintaan. Meskipun ini meningkatkan biaya verifikasi, ini penting untuk mengidentifikasi dan menghapus operator jahat. Dengan membandingkan output di seluruh node, pelaku buruk dapat terdeteksi lebih awal.
Dalam bentuk matangnya, Mira akan menerapkan sharding acak untuk mendistribusikan tugas verifikasi. Hal ini membuat kolusi secara ekonomis tidak layak dan memperkuat ketahanan dan keamanan jaringan saat jaringan tersebut berkembang.
Fase 3: Model dasar sintetis
Di sini Mira akan menawarkan generasi yang diverifikasi secara native. Pengguna akan terhubung melalui API, mirip dengan OpenAI atau Anthropic, dan menerima output yang telah diverifikasi sebelumnya—hasil yang dapat diandalkan dan siap digunakan tanpa validasi tambahan.
Dalam beberapa bulan mendatang, Mira bersiap untuk beberapa tonggak penting:
Mira sedang memperluas kesempatan untuk keterlibatan komunitas melaluiProgram Delegator NodeInisiatif ini membuat dukungan jaringan dapat diakses oleh semua orang - tidak diperlukan keahlian teknis.
Prosesnya sederhana: Anda dapat menyewa sumber daya komputasi dan mendelegasikannya kepada sekelompok operator node terpilih. Kontribusi dapat berkisar dari $35 hingga $750, dan hadiah ditawarkan untuk mendukung jaringan. Mira mengelola semua infrastruktur kompleks, sehingga delegator node dapat duduk, menyaksikan pertumbuhan jaringan, dan mendapatkan keuntungan.
Hari ini, Mira memiliki tim kecil namun kompak yang sebagian besar berfokus pada rekayasa.
Ada 3 pendiri:
Bersama-sama, mereka menggabungkan ketajaman investasi, inovasi teknis, dan kepemimpinan produk ke visi Mira untuk verifikasi AI terdesentralisasi. Mira mengumpulkan $ 9 jutaputaran benihpada bulan Juli 2024, dipimpin oleh BITKRAFT dan Framework Ventures.
Sangat menyegarkan melihat tim Crypto AI mengatasi masalah fundamental AI Web2—membuat AI lebih baik—daripada bermain spekulatif dalam gelembung crypto.
Industri ini sadar akan pentingnya verifikasi. Mengandalkan "getaran" tidak lagi cukup. Setiap aplikasi dan alur kerja AI akan segera membutuhkan proses verifikasi yang tepat — dan tidak sulit membayangkan peraturan di masa depan yang mewajibkan proses ini untuk memastikan keamanan.
Pendekatan Mira memanfaatkan beberapa model untuk memverifikasi output secara independen, menghindari ketergantungan pada satu model terpusat. Kerangka terdesentralisasi ini meningkatkan kepercayaan dan mengurangi risiko bias dan manipulasi.
Dan mari kita pertimbangkan apa yang terjadi jika kita mencapai AGI dalam beberapa tahun ke depan (kemungkinan nyata).
SebagaiAnand Iyer (@AI dari Canonical menunjukkan, jika AI dapat memanipulasi keputusan dan kode secara halus, bagaimana kita bisa mempercayai pengujian sistem untuk perilaku ini? Orang pintar berpikir ke depan.penelitian Anthropic menggarisbawahi urgensi, menyoroti evaluasi sebagai alat penting untuk mengidentifikasi kemampuan AI yang berpotensi berbahaya sebelum meningkat menjadi masalah.
Dengan memungkinkan transparansi radikal, blockchain menambahkan lapisan perlindungan yang kuat terhadap sistem AI nakal. Mekanisme konsensus tanpa kepercayaan memastikan bahwa evaluasi keselamatan diverifikasi oleh ribuan node independen (seperti di Mira), secara drastis mengurangi risiko serangan Sybil.
Mira sedang mengejar pasar yang besar dengan permintaan yang jelas akan solusi yang berfungsi. Namun tantangan-tantangan ini nyata. Memperbaiki latensi, presisi, dan efisiensi biaya akan membutuhkan upaya rekayasa yang tak kenal lelah dan waktu. Tim akan perlu secara konsisten menunjukkan bahwa pendekatan mereka secara terukur lebih baik daripada alternatif yang ada.
Inovasi inti terletak pada proses binarisasi dan sharding Mira. "Saus rahasia" ini menjanjikan untuk mengatasi tantangan skalabilitas dan kepercayaan. Agar Mira berhasil, teknologi ini perlu memenuhi janjinya.
Dalam jaringan terdesentralisasi mana pun, desain token dan insentif adalah faktor penentu. Keberhasilan Mira akan bergantung pada seberapa baik mekanisme ini menyelaraskan kepentingan peserta sambil menjaga integritas jaringan.
Meskipun detail tokenomics Mira masih dirahasiakan, saya mengharapkan tim akan mengungkapkan lebih banyak saat peluncuran token mendekati awal 2025.
“Kami telah menemukan bahwa tim rekayasa yang melaksanakan evaluasi yang baik bergerak secara signifikan lebih cepat - hingga 10 kali lebih cepat - daripada mereka yang hanya memperhatikan apa yang terjadi dalam produksi dan mencoba memperbaikinya secara ad-hoc,” - Ankur Goyal, Braintrust
Dalam dunia yang didorong oleh kecerdasan buatan, kepercayaan adalah segalanya.
Seiring dengan semakin kompleksnya model, verifikasi yang dapat diandalkan akan menjadi dasar setiap produk AI yang hebat. Mereka membantu kita mengatasi halusinasi, menghilangkan bias, dan memastikan hasil AI sejalan dengan kebutuhan nyata pengguna.
Mira mengotomatisasi verifikasi, mengurangi biaya dan ketergantungan pada campur tangan manusia. Ini membuka iterasi yang lebih cepat, penyesuaian real-time, dan solusi yang dapat diskalakan tanpa bottleneck.
Pada akhirnya, Mira bertujuan menjadi API untuk kepercayaan—sebuah kerangka verifikasi terdesentralisasi yang dapat diandalkan setiap pengembang AI dan aplikasi untuk jawaban yang terverifikasi.
Ini berani, ambisius, dan tepat apa yang dibutuhkan dunia AI.
Terima kasih sudah membaca, Teng Yan