AI 这条赛道,其实已经悄悄换了一套竞争逻辑。以前大家比的是谁模型更大、谁参数更多、谁生成更快;但走到今天,真正拉开差距的,已经不是能力,而是敢不敢被信任。
Ini bukanlah industri yang mencari narasi baru untuk diri mereka sendiri, sikap dunia luar sebenarnya sudah sangat jelas.
Dalam laporan "Laporan Tren Teknologi Lima Tahun Mendatang" yang dirilis oleh China Internet baru-baru ini, langsung menunjukkan satu tren: dunia sedang memasuki era AI cerdas. Dan bukan yang sekadar ngobrol, menulis naskah, atau layanan pelanggan, melainkan akan masuk ke skenario sensitif tinggi seperti pengendalian risiko keuangan, persetujuan pemerintahan, pengelolaan publik, bahkan mulai terlibat dalam pengambilan keputusan nyata.
Namun dalam laporan tersebut, ditekankan berulang kali bahwa jika AI tidak dapat dipercaya, ia bahkan tidak layak dimasukkan ke dalam sistem ini.
Penelitian IIT Delhi menyatakan lebih lugas: struktur kotak hitam, masalah ilusi, ketidakjelasan interpretasi, adalah celah kepercayaan terbesar saat ini terhadap AI. Semakin kuat modelnya, begitu ada masalah, risikonya bukan linier, melainkan langsung membesar.
Dan tepat karena kenyataan ini, kamu akan melihat fenomena yang sangat terpecah: di satu sisi ada banyak “AI + plugin” “AI + aplikasi wrapper”, tampaknya fungsinya semakin banyak; di sisi lain, masalah utama apakah AI bisa masuk ke skenario inti tetap soal kepercayaan, tetapi hampir tidak ada yang secara langsung menyelesaikannya.
Sementara @inference_labs baru-baru ini melakukan serangkaian langkah, tepat dalam menyelesaikan poin paling sulit ini.
Mereka meluncurkan musim kedua TruthTensor, sekaligus mengubah nama Subnet-2 menjadi DSperse. Perubahan nama tidak penting, yang penting adalah arah yang menjadi sangat jelas: mereka tidak lagi sekadar “membuat subnet”, tetapi membangun fondasi AI yang terdesentralisasi dan dapat diverifikasi.
Gagasan inti dari DSperse sebenarnya tidak rumit, jangan lagi biarkan satu model, satu node, satu sistem membuktikan “kebenaran”. Proses inferensi dilakukan bersama oleh banyak orang, verifikasi dilakukan oleh banyak orang, kepercayaan tidak berasal dari otoritas, tetapi dari proses itu sendiri yang dapat diperiksa ulang, diukur, dan dilacak.
Ini menjalankan model sekaligus mengaudit model; bukan “kamu percaya saya”, tetapi “kamu bisa memverifikasi sendiri”.
Yang lebih penting lagi, DSperse memisahkan secara total antara “inferensi” dan “verifikasi”, dan menjalankan secara terdistribusi. Ini mungkin tidak efisien, tetapi dari segi keamanan sistem, langsung menghindari masalah paling mematikan dari AI terpusat, satu node error, seluruh sistem bisa gagal total.
Jalan ini, jujur, sangat sulit, bahkan dalam jangka pendek mungkin tidak populer. Tapi jika dilihat dari sudut pandang “AI harus masuk ke dunia nyata”, ini hampir tidak bisa dihindari.
Menurut saya, tahun 2026 akan menjadi titik waktu yang sangat penting. Saat itu, AI tidak lagi kekurangan kemampuan model, yang benar-benar langka akan menjadi tiga hal: kemampuan verifikasi, kemampuan audit, dan lapisan infrastruktur yang terpercaya.
Dari ritme saat ini, Inference Labs memilih untuk menaklukkan bagian tersulit terlebih dahulu. Di antara banyak proyek yang masih berjuang dengan parameter, model besar, dan aplikasi wrapper, DSperse lebih seperti variabel yang tidak mencolok, tetapi mungkin menentukan arah tahap berikutnya.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
AI 这条赛道,其实已经悄悄换了一套竞争逻辑。以前大家比的是谁模型更大、谁参数更多、谁生成更快;但走到今天,真正拉开差距的,已经不是能力,而是敢不敢被信任。
Ini bukanlah industri yang mencari narasi baru untuk diri mereka sendiri, sikap dunia luar sebenarnya sudah sangat jelas.
Dalam laporan "Laporan Tren Teknologi Lima Tahun Mendatang" yang dirilis oleh China Internet baru-baru ini, langsung menunjukkan satu tren: dunia sedang memasuki era AI cerdas. Dan bukan yang sekadar ngobrol, menulis naskah, atau layanan pelanggan, melainkan akan masuk ke skenario sensitif tinggi seperti pengendalian risiko keuangan, persetujuan pemerintahan, pengelolaan publik, bahkan mulai terlibat dalam pengambilan keputusan nyata.
Namun dalam laporan tersebut, ditekankan berulang kali bahwa jika AI tidak dapat dipercaya, ia bahkan tidak layak dimasukkan ke dalam sistem ini.
Penelitian IIT Delhi menyatakan lebih lugas: struktur kotak hitam, masalah ilusi, ketidakjelasan interpretasi, adalah celah kepercayaan terbesar saat ini terhadap AI. Semakin kuat modelnya, begitu ada masalah, risikonya bukan linier, melainkan langsung membesar.
Dan tepat karena kenyataan ini, kamu akan melihat fenomena yang sangat terpecah: di satu sisi ada banyak “AI + plugin” “AI + aplikasi wrapper”, tampaknya fungsinya semakin banyak; di sisi lain, masalah utama apakah AI bisa masuk ke skenario inti tetap soal kepercayaan, tetapi hampir tidak ada yang secara langsung menyelesaikannya.
Sementara @inference_labs baru-baru ini melakukan serangkaian langkah, tepat dalam menyelesaikan poin paling sulit ini.
Mereka meluncurkan musim kedua TruthTensor, sekaligus mengubah nama Subnet-2 menjadi DSperse. Perubahan nama tidak penting, yang penting adalah arah yang menjadi sangat jelas: mereka tidak lagi sekadar “membuat subnet”, tetapi membangun fondasi AI yang terdesentralisasi dan dapat diverifikasi.
Gagasan inti dari DSperse sebenarnya tidak rumit, jangan lagi biarkan satu model, satu node, satu sistem membuktikan “kebenaran”. Proses inferensi dilakukan bersama oleh banyak orang, verifikasi dilakukan oleh banyak orang, kepercayaan tidak berasal dari otoritas, tetapi dari proses itu sendiri yang dapat diperiksa ulang, diukur, dan dilacak.
Ini menjalankan model sekaligus mengaudit model; bukan “kamu percaya saya”, tetapi “kamu bisa memverifikasi sendiri”.
Yang lebih penting lagi, DSperse memisahkan secara total antara “inferensi” dan “verifikasi”, dan menjalankan secara terdistribusi. Ini mungkin tidak efisien, tetapi dari segi keamanan sistem, langsung menghindari masalah paling mematikan dari AI terpusat, satu node error, seluruh sistem bisa gagal total.
Jalan ini, jujur, sangat sulit, bahkan dalam jangka pendek mungkin tidak populer. Tapi jika dilihat dari sudut pandang “AI harus masuk ke dunia nyata”, ini hampir tidak bisa dihindari.
Menurut saya, tahun 2026 akan menjadi titik waktu yang sangat penting. Saat itu, AI tidak lagi kekurangan kemampuan model, yang benar-benar langka akan menjadi tiga hal: kemampuan verifikasi, kemampuan audit, dan lapisan infrastruktur yang terpercaya.
Dari ritme saat ini, Inference Labs memilih untuk menaklukkan bagian tersulit terlebih dahulu. Di antara banyak proyek yang masih berjuang dengan parameter, model besar, dan aplikasi wrapper, DSperse lebih seperti variabel yang tidak mencolok, tetapi mungkin menentukan arah tahap berikutnya.
@KaitoAI #Yapping #MadewithMoss @MossAI_Official #Starboard @Galxe @RiverdotInc @River4fun