Mira: Membangun Kepercayaan dalam Verifikasi Output AI

Menengah1/14/2025, 11:19:38 AM
Dalam beberapa tahun terakhir, kemajuan cepat AI generatif telah memperkenalkan tuntutan baru pada infrastruktur dan alur kerja, terutama dalam validasi dan evaluasi. Keandalan aplikasi AI erat terkait dengan kepercayaan pengguna, dan Mira berdedikasi untuk menangani isu inti ini melalui jaringan terdesentralisasi, menetapkan standar industri baru untuk validasi dan evaluasi AI.

Meneruskan Judul Asli: Mira: Trustless Verified AI

TL;DR

  • Verifikasi keluaran sangat penting untuk memastikan AI berfungsi secara dapat diandalkan.
  • Mira sedang membangun jaringan layer-1 yang memberikan verifikasi AI yang dapat dipercaya, scalable, dan akurat.
  • Mengurangi halusinasi dan bias secara bersamaan adalah tindakan seimbang yang halus. Mira melakukan ini dengan memanfaatkan kebijaksanaan kolektif dari model AI.
  • Sistem verifikasi Mira didasarkan pada dua prinsip desain fundamental: (1) Membagi output AI menjadi bagian yang lebih kecil dan mudah diverifikasi, dan (2) Menggunakan kumpulan model untuk memverifikasi setiap bagian.
  • Ukuran pasar awal Mira terkait dengan LLMOps, tetapi pasar yang dapat dijangkau secara total dapat diperluas ke seluruh AI karena setiap aplikasi AI akan membutuhkan output yang lebih dapat diandalkan.
  • Mira sudah menggerakkan verifikasi AI untuk beberapa aplikasi AI dengan lebih dari 200.000 pengguna.
  • Tujuan utama Mira adalah menjadi model dasar sintetis, menyatu dengan setiap penyedia utama untuk memberikan output yang telah diverifikasi sebelumnya melalui satu API tunggal.

Halusinasi: sebuah pengalaman yang melibatkan persepsi yang tampaknya terhadap sesuatu yang tidak hadir.

Andrej Karpathy menyebut AI sebagai 'mesin-mesin mimpi'. Ia percaya bahwa halusinasi - saat AI dengan percaya diri menghasilkan hal-hal yang tidak nyata - merupakan sebuah fitur, bukan bug. Mencoba menghilangkannya sepenuhnya adalah sia-sia. Dan sejujurnya, ada sesuatu yang puitis tentang hal itu.

Model bahasa besar (LLM) adalah seorang seniman, seorang pencipta. Ia bermimpi dalam kode, menghasilkan ide dari udara, dan menciptakan makna dari data. Tetapi agar KI bergerak dari lamunan indah ke aplikasi praktis sehari-hari, kita harus menahan diri dari halusinasi tersebut.

Tingkat kesalahan untuk LLMs tetap tinggi di banyak tugas—seringkali sekitar 30%. Pada tingkat tersebut, LLMs masih memerlukan campur tangan manusia untuk mencapai standar akurasi yang dapat digunakan.

Tapi ketika kita mencapai akurasi 99.x yang sulit didapatkan itu - di mana outputnya dapat diandalkan tanpa pengawasan manusia - keajaiban terjadi. Itulah ambang batas di mana AI mencapai kehandalan tingkat manusia, membuka peluang tak terbatas dari kasus penggunaan sebelumnya yang tidak terjangkau.

Mencapai tingkat presisi tersebut, bagaimanapun, bukanlah hal yang mudah. Ini membutuhkan upaya rekayasa yang tak kenal lelah dan inovasi.

Kisah tentang@Mira_Networkdimulai di sini. Tetapi sebelum kita mulai, mari sejenak berbicara tentang pengembangan LLM - dan mengapa verifikasi menjadi hal besar berikutnya dalam AI.

Bagaimana LLM Lahir

Pengembangan LLM adalah iterasi terbaru dalam perjalanan pembelajaran mendalam - berbeda dengan praktik pengembangan perangkat lunak tradisional yang telah kita asah selama lebih dari 50 tahun terakhir. LLM, yang baru ada sekitar tiga tahun, sepenuhnya mengubah skenario, bergerak dari pemikiran deterministik (jika X, maka Y) menjadi pemikiran probabilitas (jika X, maka... mungkin Y?).

Ini berarti infrastruktur untuk dunia yang didorong AI membutuhkan seperangkat alat dan alur kerja yang sepenuhnya baru. Namun, banyak dari alat-alat ini masih terkunci di dalam laboratorium penelitian yang menciptakan LLMs.

Berita baiknya adalah bahwa alat-alat ini mulai tersedia di domain publik, membuka berbagai kemungkinan bagi pengembang di mana saja.

Di ujung ekor alur kerja baru ini terletak potongan penting dari teka-teki: evaluasi & verifikasi. Hari ini, sorotan kita tertuju pada ini. Mereka menjawab pertanyaan mendasar: Apakah AI bekerja dengan baik?

Verifikasi = Kepercayaan

Kepercayaan adalah dasar dari setiap produk AI yang hebat.

Seiring dengan AI menjadi bagian yang semakin penting dalam kehidupan kita, teknologi itu sendiri tetap rapuh. Kesalahan terjadi, dan ketika itu terjadi, kepercayaan cepat hilang. Pengguna mengharapkan AI yang akurat, tidak memihak, dan benar-benar membantu, tetapi tanpa sistem yang dapat diandalkan untuk memastikan hal itu, frustrasi semakin meningkat - dan frustrasi berujung pada perputaran.

Di sinilah verifikasi menjadi penting.

Verifikasi berfungsi sebagai benteng. Mereka adalah lapisan jaminan kualitas yang menjadi andalan pengembang untuk menyempurnakan output dan membangun sistem yang dapat dipercayai pengguna.

Mira sedang mengatasi masalah inti Web2 dengan transparansi tanpa kepercayaan dari kripto. Dengan memanfaatkan jaringan terdesentralisasi dari node verifier, Mira memastikan bahwa output kecerdasan buatan diverifikasi secara akurat dan independen.

Masuk ke Mira

Misalkan Anda memiliki satu paragraf keluaran dari LLM tentang kota Paris. Bagaimana Anda memverifikasi bahwa itu akurat? Sulit untuk melakukannya karena ada begitu banyak nuansa sekitar segala sesuatu mulai dari klaim hingga struktur konten hingga gaya penulisan.

Ini adalah tempat di mana Mira turun tangan.

Visi Mira yang berani: menciptakan jaringan lapis-1 yang memberikan verifikasi AI yang tidak dapat dipercaya, dapat diskalakan, dan akurat. Dengan memanfaatkan kebijaksanaan kolektif, Mira mengurangi bias dan halusinasi, memecahkan masalah inti seperti keadilan dan biaya sambil membuktikan bagaimana blockchain benar-benar dapat meningkatkan AI.

Sumber: Mira

Hasil awalnya menjanjikan. Dalam sebuah penelitian terbarustudi yang diterbitkan di Arxiv, Mira menunjukkan bahwa menggunakan beberapa model untuk menghasilkan output dan memerlukan konsensus secara signifikan meningkatkan akurasi. Presisi mencapai 95,6% dengan tiga model, dibandingkan dengan 73,1% untuk output model tunggal.

Dua elemen desain kunci mendukung pendekatan Mira:

  • Pemecahan & Binarisasi konten: Membagi output AI yang kompleks menjadi bagian-bagian yang lebih kecil dan dapat diverifikasi secara independen.
  • Keragaman Model: Memanfaatkan beberapa model untuk meningkatkan keandalan dan meminimalkan bias.

#1: Transformasi Konten melalui Binarisasi & Sharding

Output yang dihasilkan oleh AI berkisar dari pernyataan sederhana hingga esai yang luas, berkat biaya hampir nol dari generasi konten. Namun, kelimpahan kompleksitas ini menciptakan tantangan: bagaimana Anda memastikan keakuratan output yang begitu beragam ini?

Solusi Mira sederhana: uraikan.

@Mira_Networkmengubah konten AI yang kompleks menjadi bagian-bagian yang lebih kecil agar model AI dapat meninjau secara objektif dalam proses yang disebut sharding.

Dengan memstandardisasi output dan memecahnya menjadi klaim diskrit yang dapat diverifikasi, Mira memastikan setiap bagian dapat dievaluasi secara konsisten, menghilangkan ambiguitas yang seringkali mengganggu evaluasi.

Sebagai contoh, pertimbangkan pernyataan gabungan ini:

Fotosintesis terjadi pada tumbuhan untuk mengubah sinar matahari menjadi energi, dan lebah memainkan peran penting dalam penyerbukan dengan mentransfer serbuk sari antara bunga.

Pada permukaannya, tampaknya mudah diverifikasi. Tetapi ketika diberikan kepada beberapa model, keanehan interpretasi mungkin menyebabkan jawaban yang berbeda. Transformasi konten Mira melalui sharding memecahkan masalah ini dengan membagi pernyataan menjadi dua klaim independen:

  1. Fotosintesis terjadi pada tumbuhan untuk mengubah sinar matahari menjadi energi.
  2. “Lebah memiliki peran penting dalam penyerbukan dengan mentransfer serbuk sari antara bunga-bunga.”

Setelah di-sharded, setiap klaim akan mengalami binarisasi, di mana klaim tersebut diubah menjadi pertanyaan pilihan ganda. Pertanyaan-pertanyaan ini didistribusikan ke jaringan node yang menjalankan model AI. Dengan menggunakan metode verifikasi ensemble Mira, model-model tersebut bekerja sama untuk mengevaluasi dan mengkonfirmasi validitas setiap klaim.

Saat ini, kemampuan pemecahan konten dan binarisasi Mira difokuskan pada input teks. Pada awal tahun 2025, proses-proses ini akan diperluas untuk mendukung input multimodal, seperti gambar dan video.

#2: Sebuah Ensemble, bukan Seorang Individu

Mira telah mengembangkan sistem verifikasi canggih yang menggabungkan kelebihan dari beberapa model AI untuk menilai kualitas output AI.

Mari kita membongkar itu.

Evaluasi otomatis tradisional sering mengandalkan model bahasa besar tunggal (LLM), seperti GPT-4, sebagai wasit utama kualitas. Meskipun fungsional, pendekatan ini memiliki kelemahan yang signifikan: mahal, rentan terhadap bias, dan dibatasi oleh kebiasaan dan "kepribadian" yang melekat dalam model.

Terobosan Mira adalah pergeseran dari ketergantungan pada satu model besar menjadi memanfaatkan sebuahkesatuan dari beragam LLMs yang berbedaEnsemble ini unggul dalam tugas-tugas di mana akurasi faktual lebih penting daripada gaya kreatif, mengurangi tingkat kesalahan dan memberikan verifikasi yang lebih handal dan konsisten.

Teknik ensemble telah banyak diteliti dalam tugas pembelajaran mesin seperti klasifikasi, dan Mira kini membawa hal ini ke verifikasi.

Di tengah sistem Mira adalah Panel verifikasi LLM (PoLL) - jaringan kolaboratif model yang bekerja bersama untuk memverifikasi output. Bayangkan sebagai panel pakar yang beragam memberikan pendapat pada suatu keputusan daripada hanya mengandalkan pada satu hakim yang berpotensi memihak.

Dan ini bukan hanya sekadar angan-angan—ini didasarkan pada penelitian. Lihatlah grafik di bawah ini:

Sebuah studi CoheredipublikasikanPada April 2024, terbukti bahwa sebuah panel dari tiga model yang lebih kecil—GPT-3.5, Claude-3 Haiku, dan Command R—lebih mendekati penilaian manusia daripada GPT-4 saja. Dengan mencolok, metode ensemble ini juga lebih murah 7x.

Mira sekarang sedang menerapkan metode verifikasi ensemble ini secara besar-besaran. Hasil internal yang mereka bagikan sejauh ini sangat meyakinkan:

• Tingkat kesalahan berkurang dari 80% menjadi 5% untuk tugas penalaran kompleks.

• Peningkatan 5x dalam kecepatan dan biaya dibandingkan dengan verifikasi manusia.

Ini bukanlah suatu pencapaian kecil. Dengan menggunakan mekanisme konsensus, ensemble model-model Mira secara efektif menyaring halusinasi dan menyeimbangkan kecenderungan model individu. Bersama-sama, mereka menghasilkan sesuatu yang lebih besar daripada jumlah bagian-bagiannya: verifikasi yang lebih cepat, lebih murah, dan lebih sesuai dengan kebutuhan kami.

Bagaimana Cara Kerjanya - Desain Arsitektur

Untuk merangkum, sistem verifikasi Mira dibangun berdasarkan dua prinsip desain fundamental:

  • Membagi output AI menjadi bagian yang lebih kecil dan mudah diverifikasi.
  • Verifikasi setiap bagian menggunakan kumpulan model AI yang beragam.

Menjaga kumpulan model yang beragam sangat penting untuk hasil yang berkualitas tinggi, sehingga desain Mira ideal untuk arsitektur terdesentralisasi. Menghilangkan titik-titik kegagalan tunggal sangat penting untuk produk verifikasi apa pun.

Mira menggunakan pendekatan berbasis blockchain untuk memastikan tidak ada entitas tunggal yang dapat memanipulasi hasil. Premisnya sederhana: output yang dihasilkan oleh AI harus diverifikasi seperti perubahan status blockchain.

Verifikasi dilakukan melalui jaringan node independen, dengan operator secara ekonomis didorong untuk melakukan verifikasi yang akurat. Dengan mengarahkan imbalan dengan kejujuran, sistem Mira mencegah pelaku buruk dan memastikan hasil yang dapat diandalkan.

Begini cara kerjanya:

  1. Seorang pengembang kecerdasan buatan membuat dataset keluaran dari model mereka dan mengirimkannya ke Mira melalui API.
  2. Mira mengubah kumpulan data menjadi pertanyaan pilihan ganda (binarisasi) dan membaginya menjadi bagian yang lebih kecil dan mudah dikelola (penyaringan).
  3. Shard-shard ini didistribusikan ke jaringan node verifier Mira. Setiap node menerima shard yang berbeda untuk diverifikasi.
  4. Setiap node secara independen meninjau pertanyaan-pertanyaan di shard yang ditugaskan dan mengirimkan hasilnya kembali ke jaringan.
  5. Node-node yang ditugaskan ke shard yang sama mencapai konsensus tentang hasil verifikasi, yang kemudian diagregatkan ke dalam penilaian akhir.
  6. Hasil verifikasi akhir dikembalikan kepada pengembang AI, bersama dengan sertifikat verifikasi—bukti kriptografis dari penilaian. Sertifikat ini disimpan di blockchain, menciptakan catatan verifikasi yang dapat diverifikasi dan tahan terhadap perubahan.

Mira memastikan kerahasiaan data dengan memecah data masukan menjadi bagian-bagian lebih kecil, memastikan tidak ada satu node pun yang memiliki akses ke keseluruhan kumpulan data.

Untuk keamanan tambahan, Mira mendukung level privasi dinamis, memungkinkan pengguna untuk menyesuaikan jumlah shard berdasarkan sensitivitas data. Meskipun level privasi yang lebih tinggi memerlukan lebih banyak sharding (dan biaya yang lebih tinggi), mereka memberikan kerahasiaan tambahan bagi pengguna yang menangani informasi sensitif.

Setiap verifikasi yang dilakukan oleh sebuah node dicatat di blockchain, menciptakan catatan yang transparan dan dapat diaudit dari proses verifikasi. Ledger yang tidak dapat diubah ini memastikan kepercayaan dan akuntabilitas yang tidak dapat dicapai oleh pendekatan tradisional yang bukan berbasis blockchain.

Ini menetapkan standar baru untuk verifikasi AI yang aman dan tidak memihak.

Memastikan bahwa Node melakukan pekerjaannya

Di jaringan terdesentralisasi Mira, pekerjaan jujur ​​diberi imbalan.

Para ahli dapat menerapkan model AI khusus melalui perangkat lunak node dan mendapatkan token untuk verifikasi yang akurat. Pengembang AI, pada gilirannya, membayar biaya per verifikasi, menciptakan lingkaran ekonomi yang mandiri antara permintaan dan pasokan.

Pendekatan ini menghubungkan nilai nyata dari alur kerja Web2 ke dalam ekosistem Web3, langsung memberikan penghargaan kepada peserta seperti penyedia inferensi dan pencipta model.

Namun insentif datang dengan tantangan. Dalam sistem terdesentralisasi apapun, pelaku buruk akan mencoba mengeksploitasi jaringan, mengajukan hasil palsu untuk mendapatkan hadiah tanpa melakukan pekerjaan.

Jadi, bagaimana cara memastikan node-node tersebut benar-benar melakukan tugasnya dengan akurat dan jujur?

Untuk menjaga integritas, Mira menggunakan Proof-of-Verification—sebuah mekanisme yang terinspirasi dari proof-of-work Bitcoin namun dirancang untuk kecerdasan buatan. Alih-alih menambang blok, node-node harus membuktikan bahwa mereka telah menyelesaikan tugas verifikasi untuk berpartisipasi dalam proses konsensus.

Begini cara kerjanya:

  • Persyaratan Staking: Setiap node harus mempertaruhkan token sebagai komitmen ekonomi. Jika sebuah node berulang kali mengirimkan hasil yang salah, sebagian dari sahamnya dipotong sebagai penalti. Ini memastikan node memiliki kulit dalam game dan alasan untuk bertindak jujur.
  • Denda untuk Pekerjaan Palsu: Node-node yang mengirimkan hasil palsu—seperti melewati perhitungan atau menghasilkan output acak—akan menghadapi denda. Penipuan terdeteksi ketika hasil mereka secara konsisten menyimpang secara signifikan dari konsensus (dengan asumsi sebagian besar node adalah jujur).

Proof-of-Verification menciptakan sistem yang seimbang di mana node-node memiliki motivasi ekonomi untuk melakukan verifikasi berkualitas tinggi. Mekanisme ini memastikan bahwa jaringan tetap aman dan dapat diandalkan dari waktu ke waktu.

Tantangan & Trade-off

Inilah pertanyaannya: Jika pendekatan Mira begitu efektif, mengapa tidak semua orang melakukannya?

Jawabannya terletak pada kompromi dan kompleksitas dalam mengimplementasikan sistem tersebut di dunia nyata. Mencapai keseimbangan sempurna antara evaluasi yang cepat dan akurat serta mengelola kerumitan dari beberapa model bukanlah hal yang mudah.

Salah satu hambatan terbesar Mira adalah latency. Meskipun menggunakan kumpulan model memungkinkan verifikasi berjalan secara paralel, sinkronisasi hasil dan mencapai konsensus memperkenalkan keterlambatan. Proses ini hanya secepat node terlambat.

Saat ini, hal ini membuat Mira ideal untuk pemrosesan batch output kecerdasan buatan—kasus penggunaan di mana hasil real-time tidak diperlukan. Seiring dengan pertumbuhan jaringan dengan lebih banyak node dan ketersediaan komputasi, tujuan jangka panjangnya adalah untuk mencapai verifikasi real-time, memperluas aplikabilitas Mira ke berbagai skenario.

Selain latensi, tantangan lain termasuk:

Kompleksitas Rekayasa: Mengatur evaluasi di sejumlah model dan memastikan mekanisme konsensus beroperasi lancar menuntut upaya rekayasa yang signifikan.

Persyaratan Komputasi yang Lebih Tinggi: Bahkan ketika menggunakan model yang lebih kecil, menjalankannya bersama-sama dalam ensemble meningkatkan permintaan komputasi.

Desain Mekanisme Konsensus yang Baik: Cara konsensus dicapai—melalui pemungutan suara mayoritas, penilaian tertimbang, atau metode lain—memainkan peran penting dalam kehandalan sistem. Dalam kasus-kasus yang ambigu, kumpulan mungkin kesulitan untuk berpihak, menyebabkan hasil yang tidak konsisten.

Aplikasi & Kasus Penggunaan untuk Mira

Sumber: Mira

API Mira terintegrasi dengan mudah dengan setiap aplikasi, mirip dengan GPT-4o milik OpenAI. Ini tidak memihak pada aplikasi konsumen maupun B2B, menjadikannya solusi yang serbaguna untuk berbagai kasus penggunaan. Saat ini, lebih dari selusin aplikasi menggunakan infrastruktur Mira.

Integrasi Konsumen

Di sisi konsumen, Mira sudah mendorong verifikasi AI untuk beberapa aplikasi AI tahap awal:

  • Creato: Aplikasi penemuan dan berbagi untuk kutipan harian dan pesan status yang dipersonalisasi, melayani lebih dari 120 ribu pengguna.
  • Astro247: Sebuah platform di mana pengguna berbicara dengan astrolog AI untuk ramalan dan prediksi yang dipersonalisasi.
  • Amor: Aplikasi pendamping AI yang memungkinkan pengguna berinteraksi dengan karakter AI fantasi untuk percakapan yang mendalam.
  • Klok: Sebuah ChatGPT yang fokus pada kripto oleh Mira yang menjawab pertanyaan kripto menggunakan API seperti CoinMarketCap dan data yang diambil dari situs kripto dan media berita.

Oracle Delphiadalah integrasi terbaru dan mungkin paling canggih. Asisten penelitian yang didukung AI ini memungkinkan@Delphi_Digital Anggota untuk terlibat langsung dengan konten penelitian, mengajukan pertanyaan, mengklarifikasi poin, mengintegrasikan umpan harga, dan menyesuaikan konten ke berbagai tingkat kompleksitas.

Delphi Oracle memanfaatkan teknologi verifikasi Mira Network untuk memberikan respons yang dapat diandalkan dan akurat. Dengan memverifikasi respons melalui berbagai model, Mira mengurangi tingkat halusinasi dari ~30% menjadi kurang dari 5%, memastikan dasar kepercayaan yang kuat.

Pada inti Delphi Oracle adalah router kueri berperforma tinggi

  • Permintaan Harga: Dikirim langsung ke titik akhir data pasar untuk respons yang hampir instan.
  • Pertanyaan Dasar: Ditangani oleh sistem respons yang telah disimpan dalam cache, seimbang dalam kecepatan dan efektivitas biaya.
  • Pertanyaan Kompleks: Diarahkan ke pipa pemrosesan LLM khusus yang mampu mensintesis informasi dari berbagai sumber.

Sistem perutean cerdas ini, dikombinasikan dengan caching cerdas, memastikan kinerja optimal dengan menyeimbangkan latensi, biaya, dan kualitas.

Pengujian Mira mengungkapkan bahwa model yang lebih kecil dan hemat biaya dapat menangani sebagian besar permintaan hampir sama baiknya dengan model yang lebih besar. Hal ini menghasilkan pengurangan biaya operasional sebesar 90%, sambil tetap mempertahankan respons berkualitas tinggi yang diharapkan oleh pengguna.

Meskipun banyak aplikasi konsumen ini masih awal, mereka menyoroti kemampuan Mira untuk terintegrasi dengan lancar dan mendukung basis pengguna yang besar dan aktif. Tidak sulit untuk membayangkan ribuan aplikasi yang terhubung ke ekosistem Mira - asalkan pengalaman pengembang tetap sederhana dan proposisi nilai tetap jelas.

Aplikasi B2B

Di bagian B2B, Mira sedang memusatkan perhatian pada integrasi khusus di industri di mana kepercayaan dan ketepatan sangat penting, dengan fokus awal pada kesehatan dan pendidikan.

Aplikasi kunci termasuk:

  • Kesehatan: Asisten AI memberikan pendapat kedua yang dapat diandalkan dan mendukung dokter dalam pengambilan keputusan penting.
  • Pendidikan: Asisten pembelajaran yang dipersonalisasi yang menyesuaikan dengan kebutuhan individu siswa sambil tetap akurat secara faktual dan sesuai dengan kurikulum.
  • Layanan Hukum: Sistem yang mampu meringkas hukum kasus secara akurat dan memprediksi hasil hukum untuk merampingkan alur kerja hukum.

Akhir Permainan Mira

Tujuan utama Mira adalah menawarkan generasi yang terverifikasi secara asli - di mana pengguna hanya perlu terhubung melalui API, seperti OpenAI atau Anthropic, dan menerima output yang sudah terverifikasi sebelum dikembalikan.

Mereka bertujuan untuk menggantikan API model yang ada dengan menyediakan versi yang sangat dapat diandalkan dari model yang ada (misalnya, Mira-Claude-3.5-Sonnet atau Mira-OpenAI-GPT-4o), ditingkatkan dengan kehandalan berbasis konsensus yang terintegrasi.

Ukuran Pasar

Generative AI sedang naik pesawat roket. MenurutBloomberg, pasar ini diproyeksikan akan tumbuh dengan CAGR 42% yang menakjubkan, dengan pendapatan melebihi $1 triliun pada tahun 2030. Dalam gelombang besar ini, alat-alat yang meningkatkan kecepatan, akurasi, dan keandalan alur kerja AI akan menangkap potongan yang berarti.

Seiring dengan integrasi LLM yang semakin banyak oleh perusahaan dalam alur kerja mereka—mulai dari chatbot dukungan pelanggan hingga asisten riset kompleks—kebutuhan akan verifikasi model yang kuat menjadi semakin mendesak.

Organisasi akan mencari alat yang dapat (1) mengukur akurasi dan keandalan model, (2) mendiagnosis ketidakefisienan prompt dan parameter, (3) terus memantau kinerja dan perubahan, dan (4) memastikan kepatuhan terhadap kerangka regulasi yang muncul seputar keamanan AI.

Terdengar familiar? Ini adalah buku panduan yang pernah kita lihat sebelumnya dengan MLOps (singkatan dari “Machine Learning Operations”). Seiring dengan berkembangnya machine learning pada tahun 2010-an, alat-alat untuk mendeploy, melacak, dan memelihara model menjadi penting, menciptakan pasar bernilai miliaran dolar. Dengan munculnya generative AI, LLMOps mengikuti lintasan yang sama.

Merebut bahkan sepotong kecil dari pasar triliunan dolar dapat mendorong sub-sektor ini hingga mencapai $100B+ pada tahun 2030.

Beberapa startup Web2 sudah mulai memposisikan diri, menawarkan alat untuk menandai data, menyesuaikan model, dan mengevaluasi performa:

• Braintrust ($36M raised)

• Vellum AI ($5M raised)

• Humanloop ($2.8M raised)

Para pemain awal ini sedang mempersiapkan dasar-dasar, tetapi ruang lingkupnya masih sangat dinamis. Pada tahun 2025, kemungkinan kita akan melihat banyak startup di sektor ini. Beberapa mungkin mengkhususkan diri dalam metrik evaluasi niche (misalnya, deteksi bias, dan pengujian keandalan), sementara yang lain memperluas penawaran mereka untuk mencakup seluruh siklus pengembangan AI.

Perusahaan teknologi yang lebih besar - seperti penyedia awan utama dan platform AI - kemungkinan akan menggabungkan fitur evaluasi ke dalam penawaran mereka. Bulan lalu,OpenAImengenalkan evaluasi langsung di platformnya. Untuk tetap kompetitif, startup harus berbeda melalui spesialisasi, kemudahan penggunaan, dan analitik canggih.

Mira bukanlah pesaing langsung dari startup atau perusahaan besar tersebut. Sebagai gantinya, Mira adalah penyedia infrastruktur yang terintegrasi dengan kedua belah pihak melalui API. Kuncinya? Ini hanya harus berfungsi.

Ukuran pasar awal Mira terkait dengan LLMOps, tetapi total pasar yang dapat dijangkau akan meluas ke seluruh AI karena setiap aplikasi AI akan membutuhkan output yang lebih dapat diandalkan.

Dari perspektif teori permainan, Mira berada dalam situasi yang unik. Berbeda dengan penyedia model lain seperti OpenAI, yang terkunci dalam mendukung sistem mereka sendiri, Mira dapat mengintegrasikan berbagai model. Hal ini menjadikan Mira sebagai lapisan kepercayaan untuk kecerdasan buatan, menawarkan keandalan yang tidak dapat disaingi oleh penyedia tunggal mana pun.

Rencana Jalan 2025

Jalan roadmap Mira 2025 bertujuan untuk menjaga keseimbangan integritas, skalabilitas, dan partisipasi komunitas dalam upayanya menuju desentralisasi penuh:

Fase 1: Bootstrapping Trust (Di mana kita berada hari ini)

Pada tahap awal, operator node yang diperiksa memastikan keandalan jaringan. Penyedia komputasi GPU terkenal berfungsi sebagai operator gelombang pertama, menangani operasi awal dan meletakkan fondasi yang kuat untuk pertumbuhan.

Fase 2: Desentralisasi Progresif

Mira memperkenalkan duplikasi yang dirancang, di mana beberapa contoh dari model verifikasi yang sama memproses setiap permintaan. Meskipun ini meningkatkan biaya verifikasi, ini penting untuk mengidentifikasi dan menghapus operator jahat. Dengan membandingkan output di seluruh node, pelaku buruk dapat terdeteksi lebih awal.

Dalam bentuk matangnya, Mira akan menerapkan sharding acak untuk mendistribusikan tugas verifikasi. Hal ini membuat kolusi secara ekonomis tidak layak dan memperkuat ketahanan dan keamanan jaringan saat jaringan tersebut berkembang.

Fase 3: Model dasar sintetis

Di sini Mira akan menawarkan generasi yang diverifikasi secara native. Pengguna akan terhubung melalui API, mirip dengan OpenAI atau Anthropic, dan menerima output yang telah diverifikasi sebelumnya—hasil yang dapat diandalkan dan siap digunakan tanpa validasi tambahan.

Dalam beberapa bulan mendatang, Mira bersiap untuk beberapa tonggak penting:

  • Peluncuran Mira Flows, produk alur kerja AI-nya yang memungkinkan pengembang untuk membangun aplikasi AI yang didorong API dengan cepat
  • Testnet publik pada bulan Januari.
  • Peluncuran token juga di cakrawala, ditargetkan untuk Q1 2024.

🌈 Program Delegator Node

Mira sedang memperluas kesempatan untuk keterlibatan komunitas melaluiProgram Delegator NodeInisiatif ini membuat dukungan jaringan dapat diakses oleh semua orang - tidak diperlukan keahlian teknis.

Prosesnya sederhana: Anda dapat menyewa sumber daya komputasi dan mendelegasikannya kepada sekelompok operator node terpilih. Kontribusi dapat berkisar dari $35 hingga $750, dan hadiah ditawarkan untuk mendukung jaringan. Mira mengelola semua infrastruktur kompleks, sehingga delegator node dapat duduk, menyaksikan pertumbuhan jaringan, dan mendapatkan keuntungan.

Tim

Hari ini, Mira memiliki tim kecil namun kompak yang sebagian besar berfokus pada rekayasa.

Ada 3 pendiri:

  1. @karansirdesai (CEO), sebelumnya di tim investasi Crypto & AI di Accel dan konsultan di BCG
  2. Sid Doddipalli(CTO) adalah Alumni dari IIT Madras dan sebelumnya co-founder di Stader Labs, platform liquid staking di Ethereum dengan TVL $400M+
  3. Ninad Naik(Kepala Produk Officer) telah memegang peran kepemimpinan sebagai Direktur Manajemen Produk di Uber dan sebagai General Manager di divisi Smart Home Amazon.

Bersama-sama, mereka menggabungkan ketajaman investasi, inovasi teknis, dan kepemimpinan produk ke visi Mira untuk verifikasi AI terdesentralisasi. Mira mengumpulkan $ 9 jutaputaran benihpada bulan Juli 2024, dipimpin oleh BITKRAFT dan Framework Ventures.

Pemikiran Kami

Sangat menyegarkan melihat tim Crypto AI mengatasi masalah fundamental AI Web2—membuat AI lebih baik—daripada bermain spekulatif dalam gelembung crypto.

  1. Verifikasi akan menjadi kata populer AI di tahun 2025

Industri ini sadar akan pentingnya verifikasi. Mengandalkan "getaran" tidak lagi cukup. Setiap aplikasi dan alur kerja AI akan segera membutuhkan proses verifikasi yang tepat — dan tidak sulit membayangkan peraturan di masa depan yang mewajibkan proses ini untuk memastikan keamanan.

Pendekatan Mira memanfaatkan beberapa model untuk memverifikasi output secara independen, menghindari ketergantungan pada satu model terpusat. Kerangka terdesentralisasi ini meningkatkan kepercayaan dan mengurangi risiko bias dan manipulasi.

Dan mari kita pertimbangkan apa yang terjadi jika kita mencapai AGI dalam beberapa tahun ke depan (kemungkinan nyata).

SebagaiAnand Iyer (@AI dari Canonical menunjukkan, jika AI dapat memanipulasi keputusan dan kode secara halus, bagaimana kita bisa mempercayai pengujian sistem untuk perilaku ini? Orang pintar berpikir ke depan.penelitian Anthropic menggarisbawahi urgensi, menyoroti evaluasi sebagai alat penting untuk mengidentifikasi kemampuan AI yang berpotensi berbahaya sebelum meningkat menjadi masalah.

Dengan memungkinkan transparansi radikal, blockchain menambahkan lapisan perlindungan yang kuat terhadap sistem AI nakal. Mekanisme konsensus tanpa kepercayaan memastikan bahwa evaluasi keselamatan diverifikasi oleh ribuan node independen (seperti di Mira), secara drastis mengurangi risiko serangan Sybil.

  1. Visi Ambisius dengan Risiko Pelaksanaan

Mira sedang mengejar pasar yang besar dengan permintaan yang jelas akan solusi yang berfungsi. Namun tantangan-tantangan ini nyata. Memperbaiki latensi, presisi, dan efisiensi biaya akan membutuhkan upaya rekayasa yang tak kenal lelah dan waktu. Tim akan perlu secara konsisten menunjukkan bahwa pendekatan mereka secara terukur lebih baik daripada alternatif yang ada.

Inovasi inti terletak pada proses binarisasi dan sharding Mira. "Saus rahasia" ini menjanjikan untuk mengatasi tantangan skalabilitas dan kepercayaan. Agar Mira berhasil, teknologi ini perlu memenuhi janjinya.

  1. Desain Token & Rahasia Mira

Dalam jaringan terdesentralisasi mana pun, desain token dan insentif adalah faktor penentu. Keberhasilan Mira akan bergantung pada seberapa baik mekanisme ini menyelaraskan kepentingan peserta sambil menjaga integritas jaringan.

Meskipun detail tokenomics Mira masih dirahasiakan, saya mengharapkan tim akan mengungkapkan lebih banyak saat peluncuran token mendekati awal 2025.

Masa Depan Cerah

“Kami telah menemukan bahwa tim rekayasa yang melaksanakan evaluasi yang baik bergerak secara signifikan lebih cepat - hingga 10 kali lebih cepat - daripada mereka yang hanya memperhatikan apa yang terjadi dalam produksi dan mencoba memperbaikinya secara ad-hoc,” - Ankur Goyal, Braintrust

Dalam dunia yang didorong oleh kecerdasan buatan, kepercayaan adalah segalanya.

Seiring dengan semakin kompleksnya model, verifikasi yang dapat diandalkan akan menjadi dasar setiap produk AI yang hebat. Mereka membantu kita mengatasi halusinasi, menghilangkan bias, dan memastikan hasil AI sejalan dengan kebutuhan nyata pengguna.

Mira mengotomatisasi verifikasi, mengurangi biaya dan ketergantungan pada campur tangan manusia. Ini membuka iterasi yang lebih cepat, penyesuaian real-time, dan solusi yang dapat diskalakan tanpa bottleneck.

Pada akhirnya, Mira bertujuan menjadi API untuk kepercayaan—sebuah kerangka verifikasi terdesentralisasi yang dapat diandalkan setiap pengembang AI dan aplikasi untuk jawaban yang terverifikasi.

Ini berani, ambisius, dan tepat apa yang dibutuhkan dunia AI.

Terima kasih sudah membaca, Teng Yan

Penyangkalan:

  1. Artikel ini dicetak ulang dari [Teng Yan]. Teruskan judul aslinya: Mira: AI Terverifikasi Tanpa Kepercayaan. Semua hak cipta adalah milik penulis asli [Teng Yan]. Jika ada keberatan terhadap cetakan ulang ini, harap hubungi Gate Belajartim, dan mereka akan menanganinya dengan segera.
  2. Penyangkalan Tanggung Jawab: Pandangan dan pendapat yang terdapat dalam artikel ini semata-mata merupakan pandangan penulis dan tidak merupakan nasihat investasi apa pun.
  3. Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Belajar gate. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel yang diterjemahkan dilarang.

Mira: Membangun Kepercayaan dalam Verifikasi Output AI

Menengah1/14/2025, 11:19:38 AM
Dalam beberapa tahun terakhir, kemajuan cepat AI generatif telah memperkenalkan tuntutan baru pada infrastruktur dan alur kerja, terutama dalam validasi dan evaluasi. Keandalan aplikasi AI erat terkait dengan kepercayaan pengguna, dan Mira berdedikasi untuk menangani isu inti ini melalui jaringan terdesentralisasi, menetapkan standar industri baru untuk validasi dan evaluasi AI.

Meneruskan Judul Asli: Mira: Trustless Verified AI

TL;DR

  • Verifikasi keluaran sangat penting untuk memastikan AI berfungsi secara dapat diandalkan.
  • Mira sedang membangun jaringan layer-1 yang memberikan verifikasi AI yang dapat dipercaya, scalable, dan akurat.
  • Mengurangi halusinasi dan bias secara bersamaan adalah tindakan seimbang yang halus. Mira melakukan ini dengan memanfaatkan kebijaksanaan kolektif dari model AI.
  • Sistem verifikasi Mira didasarkan pada dua prinsip desain fundamental: (1) Membagi output AI menjadi bagian yang lebih kecil dan mudah diverifikasi, dan (2) Menggunakan kumpulan model untuk memverifikasi setiap bagian.
  • Ukuran pasar awal Mira terkait dengan LLMOps, tetapi pasar yang dapat dijangkau secara total dapat diperluas ke seluruh AI karena setiap aplikasi AI akan membutuhkan output yang lebih dapat diandalkan.
  • Mira sudah menggerakkan verifikasi AI untuk beberapa aplikasi AI dengan lebih dari 200.000 pengguna.
  • Tujuan utama Mira adalah menjadi model dasar sintetis, menyatu dengan setiap penyedia utama untuk memberikan output yang telah diverifikasi sebelumnya melalui satu API tunggal.

Halusinasi: sebuah pengalaman yang melibatkan persepsi yang tampaknya terhadap sesuatu yang tidak hadir.

Andrej Karpathy menyebut AI sebagai 'mesin-mesin mimpi'. Ia percaya bahwa halusinasi - saat AI dengan percaya diri menghasilkan hal-hal yang tidak nyata - merupakan sebuah fitur, bukan bug. Mencoba menghilangkannya sepenuhnya adalah sia-sia. Dan sejujurnya, ada sesuatu yang puitis tentang hal itu.

Model bahasa besar (LLM) adalah seorang seniman, seorang pencipta. Ia bermimpi dalam kode, menghasilkan ide dari udara, dan menciptakan makna dari data. Tetapi agar KI bergerak dari lamunan indah ke aplikasi praktis sehari-hari, kita harus menahan diri dari halusinasi tersebut.

Tingkat kesalahan untuk LLMs tetap tinggi di banyak tugas—seringkali sekitar 30%. Pada tingkat tersebut, LLMs masih memerlukan campur tangan manusia untuk mencapai standar akurasi yang dapat digunakan.

Tapi ketika kita mencapai akurasi 99.x yang sulit didapatkan itu - di mana outputnya dapat diandalkan tanpa pengawasan manusia - keajaiban terjadi. Itulah ambang batas di mana AI mencapai kehandalan tingkat manusia, membuka peluang tak terbatas dari kasus penggunaan sebelumnya yang tidak terjangkau.

Mencapai tingkat presisi tersebut, bagaimanapun, bukanlah hal yang mudah. Ini membutuhkan upaya rekayasa yang tak kenal lelah dan inovasi.

Kisah tentang@Mira_Networkdimulai di sini. Tetapi sebelum kita mulai, mari sejenak berbicara tentang pengembangan LLM - dan mengapa verifikasi menjadi hal besar berikutnya dalam AI.

Bagaimana LLM Lahir

Pengembangan LLM adalah iterasi terbaru dalam perjalanan pembelajaran mendalam - berbeda dengan praktik pengembangan perangkat lunak tradisional yang telah kita asah selama lebih dari 50 tahun terakhir. LLM, yang baru ada sekitar tiga tahun, sepenuhnya mengubah skenario, bergerak dari pemikiran deterministik (jika X, maka Y) menjadi pemikiran probabilitas (jika X, maka... mungkin Y?).

Ini berarti infrastruktur untuk dunia yang didorong AI membutuhkan seperangkat alat dan alur kerja yang sepenuhnya baru. Namun, banyak dari alat-alat ini masih terkunci di dalam laboratorium penelitian yang menciptakan LLMs.

Berita baiknya adalah bahwa alat-alat ini mulai tersedia di domain publik, membuka berbagai kemungkinan bagi pengembang di mana saja.

Di ujung ekor alur kerja baru ini terletak potongan penting dari teka-teki: evaluasi & verifikasi. Hari ini, sorotan kita tertuju pada ini. Mereka menjawab pertanyaan mendasar: Apakah AI bekerja dengan baik?

Verifikasi = Kepercayaan

Kepercayaan adalah dasar dari setiap produk AI yang hebat.

Seiring dengan AI menjadi bagian yang semakin penting dalam kehidupan kita, teknologi itu sendiri tetap rapuh. Kesalahan terjadi, dan ketika itu terjadi, kepercayaan cepat hilang. Pengguna mengharapkan AI yang akurat, tidak memihak, dan benar-benar membantu, tetapi tanpa sistem yang dapat diandalkan untuk memastikan hal itu, frustrasi semakin meningkat - dan frustrasi berujung pada perputaran.

Di sinilah verifikasi menjadi penting.

Verifikasi berfungsi sebagai benteng. Mereka adalah lapisan jaminan kualitas yang menjadi andalan pengembang untuk menyempurnakan output dan membangun sistem yang dapat dipercayai pengguna.

Mira sedang mengatasi masalah inti Web2 dengan transparansi tanpa kepercayaan dari kripto. Dengan memanfaatkan jaringan terdesentralisasi dari node verifier, Mira memastikan bahwa output kecerdasan buatan diverifikasi secara akurat dan independen.

Masuk ke Mira

Misalkan Anda memiliki satu paragraf keluaran dari LLM tentang kota Paris. Bagaimana Anda memverifikasi bahwa itu akurat? Sulit untuk melakukannya karena ada begitu banyak nuansa sekitar segala sesuatu mulai dari klaim hingga struktur konten hingga gaya penulisan.

Ini adalah tempat di mana Mira turun tangan.

Visi Mira yang berani: menciptakan jaringan lapis-1 yang memberikan verifikasi AI yang tidak dapat dipercaya, dapat diskalakan, dan akurat. Dengan memanfaatkan kebijaksanaan kolektif, Mira mengurangi bias dan halusinasi, memecahkan masalah inti seperti keadilan dan biaya sambil membuktikan bagaimana blockchain benar-benar dapat meningkatkan AI.

Sumber: Mira

Hasil awalnya menjanjikan. Dalam sebuah penelitian terbarustudi yang diterbitkan di Arxiv, Mira menunjukkan bahwa menggunakan beberapa model untuk menghasilkan output dan memerlukan konsensus secara signifikan meningkatkan akurasi. Presisi mencapai 95,6% dengan tiga model, dibandingkan dengan 73,1% untuk output model tunggal.

Dua elemen desain kunci mendukung pendekatan Mira:

  • Pemecahan & Binarisasi konten: Membagi output AI yang kompleks menjadi bagian-bagian yang lebih kecil dan dapat diverifikasi secara independen.
  • Keragaman Model: Memanfaatkan beberapa model untuk meningkatkan keandalan dan meminimalkan bias.

#1: Transformasi Konten melalui Binarisasi & Sharding

Output yang dihasilkan oleh AI berkisar dari pernyataan sederhana hingga esai yang luas, berkat biaya hampir nol dari generasi konten. Namun, kelimpahan kompleksitas ini menciptakan tantangan: bagaimana Anda memastikan keakuratan output yang begitu beragam ini?

Solusi Mira sederhana: uraikan.

@Mira_Networkmengubah konten AI yang kompleks menjadi bagian-bagian yang lebih kecil agar model AI dapat meninjau secara objektif dalam proses yang disebut sharding.

Dengan memstandardisasi output dan memecahnya menjadi klaim diskrit yang dapat diverifikasi, Mira memastikan setiap bagian dapat dievaluasi secara konsisten, menghilangkan ambiguitas yang seringkali mengganggu evaluasi.

Sebagai contoh, pertimbangkan pernyataan gabungan ini:

Fotosintesis terjadi pada tumbuhan untuk mengubah sinar matahari menjadi energi, dan lebah memainkan peran penting dalam penyerbukan dengan mentransfer serbuk sari antara bunga.

Pada permukaannya, tampaknya mudah diverifikasi. Tetapi ketika diberikan kepada beberapa model, keanehan interpretasi mungkin menyebabkan jawaban yang berbeda. Transformasi konten Mira melalui sharding memecahkan masalah ini dengan membagi pernyataan menjadi dua klaim independen:

  1. Fotosintesis terjadi pada tumbuhan untuk mengubah sinar matahari menjadi energi.
  2. “Lebah memiliki peran penting dalam penyerbukan dengan mentransfer serbuk sari antara bunga-bunga.”

Setelah di-sharded, setiap klaim akan mengalami binarisasi, di mana klaim tersebut diubah menjadi pertanyaan pilihan ganda. Pertanyaan-pertanyaan ini didistribusikan ke jaringan node yang menjalankan model AI. Dengan menggunakan metode verifikasi ensemble Mira, model-model tersebut bekerja sama untuk mengevaluasi dan mengkonfirmasi validitas setiap klaim.

Saat ini, kemampuan pemecahan konten dan binarisasi Mira difokuskan pada input teks. Pada awal tahun 2025, proses-proses ini akan diperluas untuk mendukung input multimodal, seperti gambar dan video.

#2: Sebuah Ensemble, bukan Seorang Individu

Mira telah mengembangkan sistem verifikasi canggih yang menggabungkan kelebihan dari beberapa model AI untuk menilai kualitas output AI.

Mari kita membongkar itu.

Evaluasi otomatis tradisional sering mengandalkan model bahasa besar tunggal (LLM), seperti GPT-4, sebagai wasit utama kualitas. Meskipun fungsional, pendekatan ini memiliki kelemahan yang signifikan: mahal, rentan terhadap bias, dan dibatasi oleh kebiasaan dan "kepribadian" yang melekat dalam model.

Terobosan Mira adalah pergeseran dari ketergantungan pada satu model besar menjadi memanfaatkan sebuahkesatuan dari beragam LLMs yang berbedaEnsemble ini unggul dalam tugas-tugas di mana akurasi faktual lebih penting daripada gaya kreatif, mengurangi tingkat kesalahan dan memberikan verifikasi yang lebih handal dan konsisten.

Teknik ensemble telah banyak diteliti dalam tugas pembelajaran mesin seperti klasifikasi, dan Mira kini membawa hal ini ke verifikasi.

Di tengah sistem Mira adalah Panel verifikasi LLM (PoLL) - jaringan kolaboratif model yang bekerja bersama untuk memverifikasi output. Bayangkan sebagai panel pakar yang beragam memberikan pendapat pada suatu keputusan daripada hanya mengandalkan pada satu hakim yang berpotensi memihak.

Dan ini bukan hanya sekadar angan-angan—ini didasarkan pada penelitian. Lihatlah grafik di bawah ini:

Sebuah studi CoheredipublikasikanPada April 2024, terbukti bahwa sebuah panel dari tiga model yang lebih kecil—GPT-3.5, Claude-3 Haiku, dan Command R—lebih mendekati penilaian manusia daripada GPT-4 saja. Dengan mencolok, metode ensemble ini juga lebih murah 7x.

Mira sekarang sedang menerapkan metode verifikasi ensemble ini secara besar-besaran. Hasil internal yang mereka bagikan sejauh ini sangat meyakinkan:

• Tingkat kesalahan berkurang dari 80% menjadi 5% untuk tugas penalaran kompleks.

• Peningkatan 5x dalam kecepatan dan biaya dibandingkan dengan verifikasi manusia.

Ini bukanlah suatu pencapaian kecil. Dengan menggunakan mekanisme konsensus, ensemble model-model Mira secara efektif menyaring halusinasi dan menyeimbangkan kecenderungan model individu. Bersama-sama, mereka menghasilkan sesuatu yang lebih besar daripada jumlah bagian-bagiannya: verifikasi yang lebih cepat, lebih murah, dan lebih sesuai dengan kebutuhan kami.

Bagaimana Cara Kerjanya - Desain Arsitektur

Untuk merangkum, sistem verifikasi Mira dibangun berdasarkan dua prinsip desain fundamental:

  • Membagi output AI menjadi bagian yang lebih kecil dan mudah diverifikasi.
  • Verifikasi setiap bagian menggunakan kumpulan model AI yang beragam.

Menjaga kumpulan model yang beragam sangat penting untuk hasil yang berkualitas tinggi, sehingga desain Mira ideal untuk arsitektur terdesentralisasi. Menghilangkan titik-titik kegagalan tunggal sangat penting untuk produk verifikasi apa pun.

Mira menggunakan pendekatan berbasis blockchain untuk memastikan tidak ada entitas tunggal yang dapat memanipulasi hasil. Premisnya sederhana: output yang dihasilkan oleh AI harus diverifikasi seperti perubahan status blockchain.

Verifikasi dilakukan melalui jaringan node independen, dengan operator secara ekonomis didorong untuk melakukan verifikasi yang akurat. Dengan mengarahkan imbalan dengan kejujuran, sistem Mira mencegah pelaku buruk dan memastikan hasil yang dapat diandalkan.

Begini cara kerjanya:

  1. Seorang pengembang kecerdasan buatan membuat dataset keluaran dari model mereka dan mengirimkannya ke Mira melalui API.
  2. Mira mengubah kumpulan data menjadi pertanyaan pilihan ganda (binarisasi) dan membaginya menjadi bagian yang lebih kecil dan mudah dikelola (penyaringan).
  3. Shard-shard ini didistribusikan ke jaringan node verifier Mira. Setiap node menerima shard yang berbeda untuk diverifikasi.
  4. Setiap node secara independen meninjau pertanyaan-pertanyaan di shard yang ditugaskan dan mengirimkan hasilnya kembali ke jaringan.
  5. Node-node yang ditugaskan ke shard yang sama mencapai konsensus tentang hasil verifikasi, yang kemudian diagregatkan ke dalam penilaian akhir.
  6. Hasil verifikasi akhir dikembalikan kepada pengembang AI, bersama dengan sertifikat verifikasi—bukti kriptografis dari penilaian. Sertifikat ini disimpan di blockchain, menciptakan catatan verifikasi yang dapat diverifikasi dan tahan terhadap perubahan.

Mira memastikan kerahasiaan data dengan memecah data masukan menjadi bagian-bagian lebih kecil, memastikan tidak ada satu node pun yang memiliki akses ke keseluruhan kumpulan data.

Untuk keamanan tambahan, Mira mendukung level privasi dinamis, memungkinkan pengguna untuk menyesuaikan jumlah shard berdasarkan sensitivitas data. Meskipun level privasi yang lebih tinggi memerlukan lebih banyak sharding (dan biaya yang lebih tinggi), mereka memberikan kerahasiaan tambahan bagi pengguna yang menangani informasi sensitif.

Setiap verifikasi yang dilakukan oleh sebuah node dicatat di blockchain, menciptakan catatan yang transparan dan dapat diaudit dari proses verifikasi. Ledger yang tidak dapat diubah ini memastikan kepercayaan dan akuntabilitas yang tidak dapat dicapai oleh pendekatan tradisional yang bukan berbasis blockchain.

Ini menetapkan standar baru untuk verifikasi AI yang aman dan tidak memihak.

Memastikan bahwa Node melakukan pekerjaannya

Di jaringan terdesentralisasi Mira, pekerjaan jujur ​​diberi imbalan.

Para ahli dapat menerapkan model AI khusus melalui perangkat lunak node dan mendapatkan token untuk verifikasi yang akurat. Pengembang AI, pada gilirannya, membayar biaya per verifikasi, menciptakan lingkaran ekonomi yang mandiri antara permintaan dan pasokan.

Pendekatan ini menghubungkan nilai nyata dari alur kerja Web2 ke dalam ekosistem Web3, langsung memberikan penghargaan kepada peserta seperti penyedia inferensi dan pencipta model.

Namun insentif datang dengan tantangan. Dalam sistem terdesentralisasi apapun, pelaku buruk akan mencoba mengeksploitasi jaringan, mengajukan hasil palsu untuk mendapatkan hadiah tanpa melakukan pekerjaan.

Jadi, bagaimana cara memastikan node-node tersebut benar-benar melakukan tugasnya dengan akurat dan jujur?

Untuk menjaga integritas, Mira menggunakan Proof-of-Verification—sebuah mekanisme yang terinspirasi dari proof-of-work Bitcoin namun dirancang untuk kecerdasan buatan. Alih-alih menambang blok, node-node harus membuktikan bahwa mereka telah menyelesaikan tugas verifikasi untuk berpartisipasi dalam proses konsensus.

Begini cara kerjanya:

  • Persyaratan Staking: Setiap node harus mempertaruhkan token sebagai komitmen ekonomi. Jika sebuah node berulang kali mengirimkan hasil yang salah, sebagian dari sahamnya dipotong sebagai penalti. Ini memastikan node memiliki kulit dalam game dan alasan untuk bertindak jujur.
  • Denda untuk Pekerjaan Palsu: Node-node yang mengirimkan hasil palsu—seperti melewati perhitungan atau menghasilkan output acak—akan menghadapi denda. Penipuan terdeteksi ketika hasil mereka secara konsisten menyimpang secara signifikan dari konsensus (dengan asumsi sebagian besar node adalah jujur).

Proof-of-Verification menciptakan sistem yang seimbang di mana node-node memiliki motivasi ekonomi untuk melakukan verifikasi berkualitas tinggi. Mekanisme ini memastikan bahwa jaringan tetap aman dan dapat diandalkan dari waktu ke waktu.

Tantangan & Trade-off

Inilah pertanyaannya: Jika pendekatan Mira begitu efektif, mengapa tidak semua orang melakukannya?

Jawabannya terletak pada kompromi dan kompleksitas dalam mengimplementasikan sistem tersebut di dunia nyata. Mencapai keseimbangan sempurna antara evaluasi yang cepat dan akurat serta mengelola kerumitan dari beberapa model bukanlah hal yang mudah.

Salah satu hambatan terbesar Mira adalah latency. Meskipun menggunakan kumpulan model memungkinkan verifikasi berjalan secara paralel, sinkronisasi hasil dan mencapai konsensus memperkenalkan keterlambatan. Proses ini hanya secepat node terlambat.

Saat ini, hal ini membuat Mira ideal untuk pemrosesan batch output kecerdasan buatan—kasus penggunaan di mana hasil real-time tidak diperlukan. Seiring dengan pertumbuhan jaringan dengan lebih banyak node dan ketersediaan komputasi, tujuan jangka panjangnya adalah untuk mencapai verifikasi real-time, memperluas aplikabilitas Mira ke berbagai skenario.

Selain latensi, tantangan lain termasuk:

Kompleksitas Rekayasa: Mengatur evaluasi di sejumlah model dan memastikan mekanisme konsensus beroperasi lancar menuntut upaya rekayasa yang signifikan.

Persyaratan Komputasi yang Lebih Tinggi: Bahkan ketika menggunakan model yang lebih kecil, menjalankannya bersama-sama dalam ensemble meningkatkan permintaan komputasi.

Desain Mekanisme Konsensus yang Baik: Cara konsensus dicapai—melalui pemungutan suara mayoritas, penilaian tertimbang, atau metode lain—memainkan peran penting dalam kehandalan sistem. Dalam kasus-kasus yang ambigu, kumpulan mungkin kesulitan untuk berpihak, menyebabkan hasil yang tidak konsisten.

Aplikasi & Kasus Penggunaan untuk Mira

Sumber: Mira

API Mira terintegrasi dengan mudah dengan setiap aplikasi, mirip dengan GPT-4o milik OpenAI. Ini tidak memihak pada aplikasi konsumen maupun B2B, menjadikannya solusi yang serbaguna untuk berbagai kasus penggunaan. Saat ini, lebih dari selusin aplikasi menggunakan infrastruktur Mira.

Integrasi Konsumen

Di sisi konsumen, Mira sudah mendorong verifikasi AI untuk beberapa aplikasi AI tahap awal:

  • Creato: Aplikasi penemuan dan berbagi untuk kutipan harian dan pesan status yang dipersonalisasi, melayani lebih dari 120 ribu pengguna.
  • Astro247: Sebuah platform di mana pengguna berbicara dengan astrolog AI untuk ramalan dan prediksi yang dipersonalisasi.
  • Amor: Aplikasi pendamping AI yang memungkinkan pengguna berinteraksi dengan karakter AI fantasi untuk percakapan yang mendalam.
  • Klok: Sebuah ChatGPT yang fokus pada kripto oleh Mira yang menjawab pertanyaan kripto menggunakan API seperti CoinMarketCap dan data yang diambil dari situs kripto dan media berita.

Oracle Delphiadalah integrasi terbaru dan mungkin paling canggih. Asisten penelitian yang didukung AI ini memungkinkan@Delphi_Digital Anggota untuk terlibat langsung dengan konten penelitian, mengajukan pertanyaan, mengklarifikasi poin, mengintegrasikan umpan harga, dan menyesuaikan konten ke berbagai tingkat kompleksitas.

Delphi Oracle memanfaatkan teknologi verifikasi Mira Network untuk memberikan respons yang dapat diandalkan dan akurat. Dengan memverifikasi respons melalui berbagai model, Mira mengurangi tingkat halusinasi dari ~30% menjadi kurang dari 5%, memastikan dasar kepercayaan yang kuat.

Pada inti Delphi Oracle adalah router kueri berperforma tinggi

  • Permintaan Harga: Dikirim langsung ke titik akhir data pasar untuk respons yang hampir instan.
  • Pertanyaan Dasar: Ditangani oleh sistem respons yang telah disimpan dalam cache, seimbang dalam kecepatan dan efektivitas biaya.
  • Pertanyaan Kompleks: Diarahkan ke pipa pemrosesan LLM khusus yang mampu mensintesis informasi dari berbagai sumber.

Sistem perutean cerdas ini, dikombinasikan dengan caching cerdas, memastikan kinerja optimal dengan menyeimbangkan latensi, biaya, dan kualitas.

Pengujian Mira mengungkapkan bahwa model yang lebih kecil dan hemat biaya dapat menangani sebagian besar permintaan hampir sama baiknya dengan model yang lebih besar. Hal ini menghasilkan pengurangan biaya operasional sebesar 90%, sambil tetap mempertahankan respons berkualitas tinggi yang diharapkan oleh pengguna.

Meskipun banyak aplikasi konsumen ini masih awal, mereka menyoroti kemampuan Mira untuk terintegrasi dengan lancar dan mendukung basis pengguna yang besar dan aktif. Tidak sulit untuk membayangkan ribuan aplikasi yang terhubung ke ekosistem Mira - asalkan pengalaman pengembang tetap sederhana dan proposisi nilai tetap jelas.

Aplikasi B2B

Di bagian B2B, Mira sedang memusatkan perhatian pada integrasi khusus di industri di mana kepercayaan dan ketepatan sangat penting, dengan fokus awal pada kesehatan dan pendidikan.

Aplikasi kunci termasuk:

  • Kesehatan: Asisten AI memberikan pendapat kedua yang dapat diandalkan dan mendukung dokter dalam pengambilan keputusan penting.
  • Pendidikan: Asisten pembelajaran yang dipersonalisasi yang menyesuaikan dengan kebutuhan individu siswa sambil tetap akurat secara faktual dan sesuai dengan kurikulum.
  • Layanan Hukum: Sistem yang mampu meringkas hukum kasus secara akurat dan memprediksi hasil hukum untuk merampingkan alur kerja hukum.

Akhir Permainan Mira

Tujuan utama Mira adalah menawarkan generasi yang terverifikasi secara asli - di mana pengguna hanya perlu terhubung melalui API, seperti OpenAI atau Anthropic, dan menerima output yang sudah terverifikasi sebelum dikembalikan.

Mereka bertujuan untuk menggantikan API model yang ada dengan menyediakan versi yang sangat dapat diandalkan dari model yang ada (misalnya, Mira-Claude-3.5-Sonnet atau Mira-OpenAI-GPT-4o), ditingkatkan dengan kehandalan berbasis konsensus yang terintegrasi.

Ukuran Pasar

Generative AI sedang naik pesawat roket. MenurutBloomberg, pasar ini diproyeksikan akan tumbuh dengan CAGR 42% yang menakjubkan, dengan pendapatan melebihi $1 triliun pada tahun 2030. Dalam gelombang besar ini, alat-alat yang meningkatkan kecepatan, akurasi, dan keandalan alur kerja AI akan menangkap potongan yang berarti.

Seiring dengan integrasi LLM yang semakin banyak oleh perusahaan dalam alur kerja mereka—mulai dari chatbot dukungan pelanggan hingga asisten riset kompleks—kebutuhan akan verifikasi model yang kuat menjadi semakin mendesak.

Organisasi akan mencari alat yang dapat (1) mengukur akurasi dan keandalan model, (2) mendiagnosis ketidakefisienan prompt dan parameter, (3) terus memantau kinerja dan perubahan, dan (4) memastikan kepatuhan terhadap kerangka regulasi yang muncul seputar keamanan AI.

Terdengar familiar? Ini adalah buku panduan yang pernah kita lihat sebelumnya dengan MLOps (singkatan dari “Machine Learning Operations”). Seiring dengan berkembangnya machine learning pada tahun 2010-an, alat-alat untuk mendeploy, melacak, dan memelihara model menjadi penting, menciptakan pasar bernilai miliaran dolar. Dengan munculnya generative AI, LLMOps mengikuti lintasan yang sama.

Merebut bahkan sepotong kecil dari pasar triliunan dolar dapat mendorong sub-sektor ini hingga mencapai $100B+ pada tahun 2030.

Beberapa startup Web2 sudah mulai memposisikan diri, menawarkan alat untuk menandai data, menyesuaikan model, dan mengevaluasi performa:

• Braintrust ($36M raised)

• Vellum AI ($5M raised)

• Humanloop ($2.8M raised)

Para pemain awal ini sedang mempersiapkan dasar-dasar, tetapi ruang lingkupnya masih sangat dinamis. Pada tahun 2025, kemungkinan kita akan melihat banyak startup di sektor ini. Beberapa mungkin mengkhususkan diri dalam metrik evaluasi niche (misalnya, deteksi bias, dan pengujian keandalan), sementara yang lain memperluas penawaran mereka untuk mencakup seluruh siklus pengembangan AI.

Perusahaan teknologi yang lebih besar - seperti penyedia awan utama dan platform AI - kemungkinan akan menggabungkan fitur evaluasi ke dalam penawaran mereka. Bulan lalu,OpenAImengenalkan evaluasi langsung di platformnya. Untuk tetap kompetitif, startup harus berbeda melalui spesialisasi, kemudahan penggunaan, dan analitik canggih.

Mira bukanlah pesaing langsung dari startup atau perusahaan besar tersebut. Sebagai gantinya, Mira adalah penyedia infrastruktur yang terintegrasi dengan kedua belah pihak melalui API. Kuncinya? Ini hanya harus berfungsi.

Ukuran pasar awal Mira terkait dengan LLMOps, tetapi total pasar yang dapat dijangkau akan meluas ke seluruh AI karena setiap aplikasi AI akan membutuhkan output yang lebih dapat diandalkan.

Dari perspektif teori permainan, Mira berada dalam situasi yang unik. Berbeda dengan penyedia model lain seperti OpenAI, yang terkunci dalam mendukung sistem mereka sendiri, Mira dapat mengintegrasikan berbagai model. Hal ini menjadikan Mira sebagai lapisan kepercayaan untuk kecerdasan buatan, menawarkan keandalan yang tidak dapat disaingi oleh penyedia tunggal mana pun.

Rencana Jalan 2025

Jalan roadmap Mira 2025 bertujuan untuk menjaga keseimbangan integritas, skalabilitas, dan partisipasi komunitas dalam upayanya menuju desentralisasi penuh:

Fase 1: Bootstrapping Trust (Di mana kita berada hari ini)

Pada tahap awal, operator node yang diperiksa memastikan keandalan jaringan. Penyedia komputasi GPU terkenal berfungsi sebagai operator gelombang pertama, menangani operasi awal dan meletakkan fondasi yang kuat untuk pertumbuhan.

Fase 2: Desentralisasi Progresif

Mira memperkenalkan duplikasi yang dirancang, di mana beberapa contoh dari model verifikasi yang sama memproses setiap permintaan. Meskipun ini meningkatkan biaya verifikasi, ini penting untuk mengidentifikasi dan menghapus operator jahat. Dengan membandingkan output di seluruh node, pelaku buruk dapat terdeteksi lebih awal.

Dalam bentuk matangnya, Mira akan menerapkan sharding acak untuk mendistribusikan tugas verifikasi. Hal ini membuat kolusi secara ekonomis tidak layak dan memperkuat ketahanan dan keamanan jaringan saat jaringan tersebut berkembang.

Fase 3: Model dasar sintetis

Di sini Mira akan menawarkan generasi yang diverifikasi secara native. Pengguna akan terhubung melalui API, mirip dengan OpenAI atau Anthropic, dan menerima output yang telah diverifikasi sebelumnya—hasil yang dapat diandalkan dan siap digunakan tanpa validasi tambahan.

Dalam beberapa bulan mendatang, Mira bersiap untuk beberapa tonggak penting:

  • Peluncuran Mira Flows, produk alur kerja AI-nya yang memungkinkan pengembang untuk membangun aplikasi AI yang didorong API dengan cepat
  • Testnet publik pada bulan Januari.
  • Peluncuran token juga di cakrawala, ditargetkan untuk Q1 2024.

🌈 Program Delegator Node

Mira sedang memperluas kesempatan untuk keterlibatan komunitas melaluiProgram Delegator NodeInisiatif ini membuat dukungan jaringan dapat diakses oleh semua orang - tidak diperlukan keahlian teknis.

Prosesnya sederhana: Anda dapat menyewa sumber daya komputasi dan mendelegasikannya kepada sekelompok operator node terpilih. Kontribusi dapat berkisar dari $35 hingga $750, dan hadiah ditawarkan untuk mendukung jaringan. Mira mengelola semua infrastruktur kompleks, sehingga delegator node dapat duduk, menyaksikan pertumbuhan jaringan, dan mendapatkan keuntungan.

Tim

Hari ini, Mira memiliki tim kecil namun kompak yang sebagian besar berfokus pada rekayasa.

Ada 3 pendiri:

  1. @karansirdesai (CEO), sebelumnya di tim investasi Crypto & AI di Accel dan konsultan di BCG
  2. Sid Doddipalli(CTO) adalah Alumni dari IIT Madras dan sebelumnya co-founder di Stader Labs, platform liquid staking di Ethereum dengan TVL $400M+
  3. Ninad Naik(Kepala Produk Officer) telah memegang peran kepemimpinan sebagai Direktur Manajemen Produk di Uber dan sebagai General Manager di divisi Smart Home Amazon.

Bersama-sama, mereka menggabungkan ketajaman investasi, inovasi teknis, dan kepemimpinan produk ke visi Mira untuk verifikasi AI terdesentralisasi. Mira mengumpulkan $ 9 jutaputaran benihpada bulan Juli 2024, dipimpin oleh BITKRAFT dan Framework Ventures.

Pemikiran Kami

Sangat menyegarkan melihat tim Crypto AI mengatasi masalah fundamental AI Web2—membuat AI lebih baik—daripada bermain spekulatif dalam gelembung crypto.

  1. Verifikasi akan menjadi kata populer AI di tahun 2025

Industri ini sadar akan pentingnya verifikasi. Mengandalkan "getaran" tidak lagi cukup. Setiap aplikasi dan alur kerja AI akan segera membutuhkan proses verifikasi yang tepat — dan tidak sulit membayangkan peraturan di masa depan yang mewajibkan proses ini untuk memastikan keamanan.

Pendekatan Mira memanfaatkan beberapa model untuk memverifikasi output secara independen, menghindari ketergantungan pada satu model terpusat. Kerangka terdesentralisasi ini meningkatkan kepercayaan dan mengurangi risiko bias dan manipulasi.

Dan mari kita pertimbangkan apa yang terjadi jika kita mencapai AGI dalam beberapa tahun ke depan (kemungkinan nyata).

SebagaiAnand Iyer (@AI dari Canonical menunjukkan, jika AI dapat memanipulasi keputusan dan kode secara halus, bagaimana kita bisa mempercayai pengujian sistem untuk perilaku ini? Orang pintar berpikir ke depan.penelitian Anthropic menggarisbawahi urgensi, menyoroti evaluasi sebagai alat penting untuk mengidentifikasi kemampuan AI yang berpotensi berbahaya sebelum meningkat menjadi masalah.

Dengan memungkinkan transparansi radikal, blockchain menambahkan lapisan perlindungan yang kuat terhadap sistem AI nakal. Mekanisme konsensus tanpa kepercayaan memastikan bahwa evaluasi keselamatan diverifikasi oleh ribuan node independen (seperti di Mira), secara drastis mengurangi risiko serangan Sybil.

  1. Visi Ambisius dengan Risiko Pelaksanaan

Mira sedang mengejar pasar yang besar dengan permintaan yang jelas akan solusi yang berfungsi. Namun tantangan-tantangan ini nyata. Memperbaiki latensi, presisi, dan efisiensi biaya akan membutuhkan upaya rekayasa yang tak kenal lelah dan waktu. Tim akan perlu secara konsisten menunjukkan bahwa pendekatan mereka secara terukur lebih baik daripada alternatif yang ada.

Inovasi inti terletak pada proses binarisasi dan sharding Mira. "Saus rahasia" ini menjanjikan untuk mengatasi tantangan skalabilitas dan kepercayaan. Agar Mira berhasil, teknologi ini perlu memenuhi janjinya.

  1. Desain Token & Rahasia Mira

Dalam jaringan terdesentralisasi mana pun, desain token dan insentif adalah faktor penentu. Keberhasilan Mira akan bergantung pada seberapa baik mekanisme ini menyelaraskan kepentingan peserta sambil menjaga integritas jaringan.

Meskipun detail tokenomics Mira masih dirahasiakan, saya mengharapkan tim akan mengungkapkan lebih banyak saat peluncuran token mendekati awal 2025.

Masa Depan Cerah

“Kami telah menemukan bahwa tim rekayasa yang melaksanakan evaluasi yang baik bergerak secara signifikan lebih cepat - hingga 10 kali lebih cepat - daripada mereka yang hanya memperhatikan apa yang terjadi dalam produksi dan mencoba memperbaikinya secara ad-hoc,” - Ankur Goyal, Braintrust

Dalam dunia yang didorong oleh kecerdasan buatan, kepercayaan adalah segalanya.

Seiring dengan semakin kompleksnya model, verifikasi yang dapat diandalkan akan menjadi dasar setiap produk AI yang hebat. Mereka membantu kita mengatasi halusinasi, menghilangkan bias, dan memastikan hasil AI sejalan dengan kebutuhan nyata pengguna.

Mira mengotomatisasi verifikasi, mengurangi biaya dan ketergantungan pada campur tangan manusia. Ini membuka iterasi yang lebih cepat, penyesuaian real-time, dan solusi yang dapat diskalakan tanpa bottleneck.

Pada akhirnya, Mira bertujuan menjadi API untuk kepercayaan—sebuah kerangka verifikasi terdesentralisasi yang dapat diandalkan setiap pengembang AI dan aplikasi untuk jawaban yang terverifikasi.

Ini berani, ambisius, dan tepat apa yang dibutuhkan dunia AI.

Terima kasih sudah membaca, Teng Yan

Penyangkalan:

  1. Artikel ini dicetak ulang dari [Teng Yan]. Teruskan judul aslinya: Mira: AI Terverifikasi Tanpa Kepercayaan. Semua hak cipta adalah milik penulis asli [Teng Yan]. Jika ada keberatan terhadap cetakan ulang ini, harap hubungi Gate Belajartim, dan mereka akan menanganinya dengan segera.
  2. Penyangkalan Tanggung Jawab: Pandangan dan pendapat yang terdapat dalam artikel ini semata-mata merupakan pandangan penulis dan tidak merupakan nasihat investasi apa pun.
  3. Terjemahan artikel ke dalam bahasa lain dilakukan oleh tim Belajar gate. Kecuali disebutkan, menyalin, mendistribusikan, atau menjiplak artikel yang diterjemahkan dilarang.
Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!