AI sebagai Agen Kripto - Evolusi Agen AI

Menengah1/27/2025, 7:42:00 AM
AI adalah agen Kripto, dan ini adalah penjelasan terbaik untuk melihat lonjakan AI saat ini dari perspektif Kripto. Antusiasme Kripto terhadap AI berbeda dari industri lain, karena kami khususnya bertujuan untuk mengintegrasikan penerbitan dan operasi aset keuangan dengannya.

AI sebagai Agen Kripto

Sebuah karya seni tidak pernah selesai, hanya ditinggalkan.

Semua orang sedang membicarakan Agen AI, tetapi apa yang mereka maksudkan tidak sama, yang menyebabkan pemahaman yang berbeda tentang Agen AI dari sudut pandang kami, masyarakat, dan praktisi AI.

Dahulu sekali, saya menulis bahwa Kripto adalah ilusi AI. Sejak itu, kombinasi Crypto dan AI tetap menjadi hubungan cinta sepihak. Praktisi AI jarang menyebutkan Web3 atau blockchain, sementara penggemar Crypto sangat terpikat dengan AI. Setelah menyaksikan fenomena di mana kerangka kerja Agen AI bahkan dapat diberi token, tidak pasti apakah ini benar-benar dapat membawa praktisi AI ke dunia kita.

AI adalah agen Kripto. Ini adalah anotasi terbaik dari sudut pandang kripto untuk melihat lonjakan AI saat ini. Antusiasme Kripto terhadap AI berbeda dari industri lain; kami khususnya berharap dapat mengintegrasikan penerbitan dan operasi aset keuangan dengannya.

Evolusi Agen: Asal Usul di Bawah Pemasaran Teknis

Pada intinya, AI Agent memiliki setidaknya tiga sumber. AGI (Artificial General Intelligence) OpenAI menganggap ini sebagai langkah penting, mengubah istilah tersebut menjadi buzzword populer di luar lingkaran teknis. Namun, pada dasarnya, Agent bukanlah konsep baru. Bahkan dengan pemberdayaan AI, sulit dikatakan bahwa ini adalah tren teknologi revolusioner.

Sumber pertama adalah AI Agent yang terlihat oleh OpenAI. Mirip dengan level L3 dalam pengemudi otonom, seorang AI Agent dapat dianggap memiliki kemampuan bantuan tingkat lanjut tertentu tetapi belum mampu sepenuhnya menggantikan manusia.

Keterangan gambar: Tahap AGI dari perencanaan OpenAI

Sumber gambar: https://www.bloomberg.com/

Sumber kedua adalah, seperti namanya, AI Agent, yang merupakan Agen yang diberdayakan oleh AI. Konsep agensi dan mekanisme delegasi bukan hal baru dalam bidang komputasi. Namun, berdasarkan visi OpenAI, Agen akan menjadi tahap L3 setelah bentuk percakapan (seperti ChatGPT) dan bentuk penalaran (seperti berbagai bot). Fitur utama dari tahap ini adalah kemampuan untuk "melakukan perilaku tertentu secara otonom," atau, seperti yang didefinisikan oleh pendiri LangChain, Harrison Chase: "AI Agent adalah sistem yang menggunakan LLM (Large Language Model) untuk membuat keputusan aliran kontrol dalam sebuah program."
Di sinilah ia menjadi menarik. Sebelum munculnya LLM, Agen terutama menjalankan proses otomatisasi yang ditetapkan oleh manusia. Misalnya, ketika merancang scraper web, programmer akan mengatur User-Agent untuk mensimulasikan detail seperti versi browser dan sistem operasi yang digunakan oleh pengguna nyata. Jika Agen AI dipekerjakan untuk meniru perilaku manusia dengan lebih tepat, itu dapat mengarah pada pembuatan kerangka kerja scraper web berbasis Agen AI, membuat scraper "lebih mirip manusia." \
Dalam transisi seperti itu, pengenalan AI Agents harus terintegrasi dengan skenario yang sudah ada, karena lapangan yang benar-benar baru hampir tidak ada. Bahkan kemampuan penyelesaian dan pembuatan kode dalam alat seperti Curosr dan Github Copilot hanyalah peningkatan fungsional dalam kerangka LSP (Language Server Protocol), dengan banyak contoh evolusi seperti itu:

  • Apple: AppleScript (Editor Skrip) → Alfred → Siri → Pintasan → Apple Intelligence
  • Terminal: Terminal (macOS) / PowerShell (Windows) → iTerm 2 → Warp (AI Native)
  • Interaksi Manusia-Komputer: Web 1.0 CLI TCP/IP Netscape Browser → Web 2.0 GUI / REST API / Mesin Pencari / Google / Super Aplikasi → Web 3.0 AI Agent + Dapp?

Untuk menjelaskan, dalam interaksi manusia-komputer, kombinasi antara GUI Web 1.0 dan peramban benar-benar memungkinkan publik untuk menggunakan komputer tanpa hambatan, yang diwakili oleh kombinasi Windows dan IE. API menjadi standar abstraksi dan transmisi data di balik internet, dan selama era Web 2.0, peramban seperti Chrome muncul, dengan pergeseran ke perangkat seluler yang mengubah kebiasaan penggunaan internet orang-orang. Super aplikasi seperti WeChat dan platform Meta kini mencakup setiap aspek kehidupan orang.

Sumber ketiga adalah konsep 'Intent' dalam ruang Kripto, yang telah menyebabkan peningkatan minat terhadap AI Agents. Namun, perlu dicatat bahwa ini hanya berlaku dalam Kripto. Dari skrip Bitcoin dengan fungsionalitas terbatas hingga kontrak pintar Ethereum, konsep Agen itu sendiri telah banyak digunakan. Munculnya jembatan antar rantai, abstraksi rantai, EOA (Externally Owned Accounts) hingga dompet AA (Account Abstraction) adalah perluasan alami dari garis pemikiran ini. Oleh karena itu, ketika AI Agents 'menyerang' Kripto, tidak mengherankan bahwa mereka secara alami mengarah pada skenario DeFi.

Di sinilah kebingungan seputar konsep AI Agent muncul. Dalam konteks Kripto, yang sebenarnya kita coba capai adalah "manajemen keuangan otomatis, generasi meme otomatis" Agent. Namun, menurut definisi OpenAI, skenario berisiko seperti itu memerlukan L4 atau L5 untuk benar-benar diimplementasikan. Sementara itu, publik sedang bereksperimen dengan generasi kode otomatis atau bantuan penulisan dan ringkasan yang didukung AI, yang tidak sejajar dengan tujuan yang kita kejar.

Setelah kita memahami apa yang sesungguhnya kita inginkan, kita dapat fokus pada logika organisasi AI Agents. Detail teknis akan mengikuti, karena konsep AI Agent pada dasarnya tentang menghilangkan hambatan terhadap adopsi teknologi dalam skala besar, sebagaimana halnya browser merevolusi industri PC pribadi. Fokus kita akan pada dua hal: memeriksa AI Agents dari perspektif interaksi manusia-komputer, dan memahami perbedaan dan keterkaitan antara AI Agents dan LLMs, yang akan membawa kita pada bagian ketiga: apa yang akhirnya akan ditinggalkan kombinasi Kripto dan AI Agents.

let AI_Agent = LLM+API;

Sebelum model interaksi manusia-komputer percakapan seperti ChatGPT, bentuk utama interaksi manusia-komputer adalah GUI (Antarmuka Pengguna Grafis) dan CLI (Antarmuka Baris Perintah). Pola pikir GUI berkembang menjadi berbagai bentuk khusus seperti browser dan aplikasi, sementara kombinasi CLI dan Shell mengalami perubahan minimal.

Tapi ini hanyalah "frontend" dari interaksi manusia-komputer. Seiring berkembangnya internet, peningkatan volume dan variasi data telah menyebabkan lebih banyak interaksi "backend" antara data dan antar aplikasi. Kedua aspek ini bergantung satu sama lain — bahkan tindakan penjelajahan web sederhana sebenarnya membutuhkan kolaborasi mereka.

Jika interaksi manusia dengan browser dan aplikasi dianggap sebagai titik masuk pengguna, tautan dan peralihan antara API mendukung operasi sebenarnya dari internet. Ini sebenarnya juga bagian dari Agen. Pengguna biasa tidak perlu memahami istilah seperti baris perintah dan API untuk mencapai tujuan mereka.

Hal yang sama berlaku untuk LLM. Sekarang, pengguna dapat pergi lebih jauh—tidak perlu lagi mencari. Seluruh proses dapat dijelaskan dalam langkah-langkah berikut:

  1. Pengguna membuka jendela obrolan.
  2. Pengguna menggambarkan kebutuhan mereka menggunakan bahasa alami, baik melalui teks atau suara.
  3. LLM menerjemahkan ini ke dalam langkah-langkah prosedural.
  4. LLM mengembalikan hasil kepada pengguna.

Dalam proses ini, tantangan terbesar adalah Google, karena pengguna tidak perlu membuka mesin pencari, tetapi berbagai jendela dialog mirip GPT, dan pintu masuk lalu lintas sedang berubah dengan diam-diam. Karena alasan ini, beberapa orang berpikir bahwa LLM ini merevolusi kehidupan mesin pencari.

Jadi, peran apa yang dimainkan AI Agent dalam proses ini?

Singkatnya, AI Agent adalah perpanjangan khusus dari LLM.

LLM saat ini bukan AGI (Artificial General Intelligence) dan jauh dari L5 organizer yang diharapkan oleh OpenAI. Kemampuannya sangat terbatas. Sebagai contoh, LLM cenderung mengalami halusinasi jika diberi terlalu banyak masukan pengguna. Salah satu alasan utamanya terletak pada mekanisme pelatihan. Misalnya, jika Anda berulang kali memberi tahu GPT bahwa 1+1=3, ada kemungkinan ia akan merespons dengan 4 ketika ditanya tentang 1+1+1=?.

Ini terjadi karena umpan balik GPT sepenuhnya berasal dari masukan pengguna. Jika model tidak terhubung ke internet, kemungkinan operasinya dapat diubah oleh masukan Anda, menghasilkan model yang hanya "tahu" 1+1=3. Namun, jika model diizinkan terhubung ke internet, mekanisme umpan baliknya menjadi lebih beragam, karena sebagian besar data online akan mengkonfirmasi bahwa 1+1=2.

Sekarang, bagaimana jika kita harus menggunakan LLM secara lokal dan ingin menghindari masalah seperti itu?

Solusi yang sederhana adalah menggunakan dua LLM secara bersamaan, memerlukan mereka untuk saling memvalidasi respons masing-masing untuk mengurangi kemungkinan kesalahan. Jika ini tidak cukup, pendekatan lain bisa melibatkan dua pengguna untuk menangani satu proses—satu bertanya pertanyaan dan yang lain mengoreksi—untuk membuat bahasa lebih tepat dan logis.

Tentu saja, terhubung ke internet tidak sepenuhnya menghilangkan masalah. Misalnya, jika LLM mengambil jawaban dari sumber yang tidak dapat diandalkan, situasinya bisa menjadi lebih buruk. Namun, menghindari data semacam itu mengurangi jumlah informasi yang tersedia. Untuk mengatasi hal ini, data yang ada dapat dipecah, digabungkan kembali, atau bahkan digunakan untuk menghasilkan data baru berdasarkan dataset yang lebih lama untuk membuat respon lebih dapat diandalkan. Pendekatan ini pada dasarnya adalah konsep RAG (Retrieval-Augmented Generation) dalam pemahaman bahasa alami.

Manusia dan mesin perlu saling memahami. Ketika beberapa LLM bekerja sama dan berinteraksi, kita pada dasarnya menggunakan model operasional Agen AI. Ini berfungsi sebagai proxy manusia, mengakses sumber daya lain, termasuk model besar dan agen lainnya.

Ini mengarahkan kita pada hubungan antara LLM dan Agen AI:

LLM adalah agregasi pengetahuan yang berinteraksi dengan manusia melalui antarmuka obrolan. Namun, dalam praktiknya, alur kerja tertentu dapat dikondensasi menjadi program-program yang lebih kecil, bot, atau rangkaian instruksi. Hal ini didefinisikan sebagai Agen.

Agen AI tetap menjadi bagian dari LLM tetapi tidak boleh disamakan dengan mereka. Fitur yang menentukan dari Agen AI terletak pada penekanan mereka pada kolaborasi dengan program eksternal, LLM, dan agen lainnya. Inilah sebabnya mengapa orang sering meringkas Agen AI sebagai LLM + API.

Untuk mengilustrasikan hal ini dalam alur kerja LLM, mari kita ambil contoh panggilan API melalui AI Agent:

  1. Seorang pengguna manusia membuka jendela obrolan.
  2. Pengguna menggambarkan kebutuhan mereka dalam bahasa alami, baik melalui teks atau suara.
  3. LLM menginterpretasikan permintaan tersebut sebagai tugas Agen AI terkait panggilan API dan mentransfer percakapan ke Agen.
  4. AI Agen meminta akun X pengguna dan kredensial API dan terhubung dengan X berdasarkan deskripsi pengguna.
  5. AI Agent mengembalikan hasil akhir kepada pengguna.

Ingatlah evolusi interaksi manusia-komputer? Browser, API, dan elemen lain dari Web 1.0 dan Web 2.0 masih ada, tetapi pengguna tidak lagi perlu berinteraksi dengan mereka secara langsung. Sebaliknya, mereka dapat dengan mudah berinteraksi dengan Agen AI. Panggilan API dan proses terkait semuanya dapat dilakukan secara percakapan. Layanan API ini dapat mencakup jenis data apa pun, baik lokal, online, atau dari aplikasi eksternal, selama antarmuka terbuka dan pengguna memiliki izin yang diperlukan untuk mengaksesnya.

Alur kerja Agensi AI lengkap, seperti yang ditunjukkan di atas, memperlakukan LLM baik sebagai komponen terpisah dari Agensi AI atau sebagai dua sub-proses dalam satu alur kerja. Terlepas dari bagaimana mereka dibagi, tujuannya selalu untuk melayani kebutuhan pengguna. Dari perspektif interaksi manusia-komputer, bahkan bisa terasa seperti pengguna sedang berbicara dengan diri mereka sendiri. Anda hanya perlu sepenuhnya mengungkapkan pikiran Anda, dan AI/LLM/Agensi AI akan secara berulang kali menebak kebutuhan Anda. Dengan menggabungkan mekanisme umpan balik dan memastikan bahwa LLM mengingat konteks saat ini, Agensi AI menghindari kehilangan jejak dari tugasnya.

Secara ringkas, AI Agent lebih personal dan lebih manusiawi, membedakannya dari skrip tradisional dan alat otomatisasi. Mereka bertindak seperti asisten pribadi, mempertimbangkan kebutuhan nyata pengguna. Namun, penting untuk dicatat bahwa personalisasi ini masih didasarkan pada inferensi probabilitas. Seorang AI Agent level L3 tidak memiliki pemahaman dan kemampuan ekspresi tingkat manusia, membuat integrasinya dengan API eksternal berisiko secara inheren.

Setelah monetisasi kerangka AI

Kemampuan untuk memonetisasi kerangka kerja AI adalah salah satu alasan utama saya tetap tertarik pada kripto. Dalam tumpukan teknologi AI tradisional, kerangka kerja tidak terlalu penting, setidaknya tidak dibandingkan dengan data dan daya komputasi. Memonetisasi produk AI jarang dimulai dengan kerangka kerja, karena kebanyakan algoritma AI dan kerangka model adalah open source. Yang tetap milik adalah elemen sensitif seperti data.

Pada dasarnya, kerangka kerja atau model AI adalah wadah dan kombinasi algoritma, seperti panci untuk memasak angsa. Namun, kualitas angsa dan penguasaan proses memasak adalah yang benar-benar menentukan rasa. Secara teori, produk yang dijual seharusnya adalah angsa, tetapi pelanggan Web3 lebih cenderung membeli panci sambil membuang angsa.

Alasannya tidak rumit. Sebagian besar produk AI Web3 membangun pada kerangka AI yang ada, algoritma, dan produk, menyesuaikan untuk tujuan mereka. Sebenarnya, prinsip teknis di balik kerangka AI kripto yang berbeda tidak jauh berbeda. Karena teknologi itu sendiri kurang memiliki perbedaan, perhatian beralih ke branding, skenario aplikasi, dan perbedaan permukaan lainnya. Akibatnya, bahkan penyesuaian minor terhadap kerangka AI menjadi dasar untuk mendukung berbagai token, mengarah pada gelembung kerangka dalam ekosistem Agen AI kripto.

Karena tidak perlu berinvestasi secara besar-besaran dalam data pelatihan atau algoritma, membedakan kerangka kerja berdasarkan nama menjadi sangat penting. Bahkan kerangka kerja yang terjangkau seperti DeepSeek V3 masih menuntut biaya yang signifikan dalam hal daya GPU, listrik, dan upaya.

Dalam suatu pengertian, ini sejalan dengan tren terkini Web3: platform yang menerbitkan token seringkali lebih berharga daripada token itu sendiri. Proyek seperti Pump.Fun dan Hyperliquid menggambarkan hal ini. Pada awalnya, Agen seharusnya mewakili aplikasi dan aset, tetapi kerangka kerja yang menerbitkan Agen sekarang menjadi komoditas paling populer.

Ini mencerminkan bentuk penancapan nilai. Karena Agen kurang diferensiasi, kerangka kerja penerbitan Agen menjadi lebih stabil dan menciptakan efek penyedotan nilai untuk penerbitan aset. Ini menandai versi 1.0 dari integrasi kripto dan Agen AI.

Versi 2.0 sekarang muncul, dicontohkan oleh konvergensi Agen DeFi dan AI. Sementara konsep DeFAI mungkin dipicu oleh hype pasar, pandangan yang lebih dalam pada tren berikut menunjukkan sebaliknya:

  • Morpho sedang menantang platform pemberian pinjaman yang sudah mapan seperti Aave.
  • Hyperliquid menggantikan derivatif on-chain seperti dYdX dan bahkan menantang efek daftar CEX Binance.
  • Stablecoin menjadi alat pembayaran untuk skenario di luar rantai.

Dalam latar belakang transformasi DeFi ini, AI sedang membentuk kembali logika fundamental DeFi. Sebelumnya, logika inti DeFi adalah memverifikasi kelayakan kontrak pintar. Sekarang, Agen AI sedang mengubah logika pembuatan DeFi. Anda tidak perlu lagi memahami DeFi untuk membuat produk DeFi. Ini merupakan langkah melampaui abstraksi rantai, memberikan pemberdayaan dasar yang lebih mendalam.

Era di mana semua orang bisa menjadi programmer sudah di depan mata. Perhitungan kompleks dapat dioutsourcing ke LLM dan API di balik AI Agents, memungkinkan individu untuk fokus sepenuhnya pada ide-ide mereka. Bahasa alami dapat dengan efisien diubah menjadi logika pemrograman.

Kesimpulan

Artikel ini tidak menyebutkan token atau kerangka Crypto AI Agent apa pun, karena Cookie.Fun telah melakukan pekerjaan yang sangat baik - platform untuk agregasi informasi AI Agent dan penemuan token, diikuti oleh kerangka AI Agent, dan terakhir muncul dan menghilangnya token Agent. Melanjutkan untuk mencantumkan informasi seperti ini di sini akan memiliki sedikit nilai.

Namun, melalui pengamatan selama periode ini, pasar masih kurang pembahasan yang bermakna tentang apa yang Crypto AI Agents akhirnya tunjukkan. Kita tidak bisa terus fokus pada penunjuk; intinya terletak pada perubahan yang terjadi pada tingkat memori.

Hal yang membuat Kripto begitu menarik adalah kemampuannya yang terus berkembang untuk mengubah berbagai aset menjadi bentuk ter-tokenisasi.

Penyangkalan:

  1. Artikel ini direproduksi dari [Gunung Zuoye Waibo], hak cipta menjadi milik penulis asli [Gunung Waibo Zuoye]. Jika Anda memiliki keberatan terhadap cetakan ulang, silakan hubungi Gate BelajarTim akan menanganinya secepat mungkin sesuai dengan prosedur yang relevan.
  2. Penafian: Pandangan dan pendapat yang terdapat dalam artikel ini hanya merupakan pandangan pribadi penulis dan tidak merupakan saran investasi apa pun.
  3. Versi bahasa lain dari artikel ini diterjemahkan oleh tim Pembelajaran gate. Kecuali dinyatakan lain, artikel yang diterjemahkan tidak boleh disalin, didistribusikan, atau diplagiat.

AI sebagai Agen Kripto - Evolusi Agen AI

Menengah1/27/2025, 7:42:00 AM
AI adalah agen Kripto, dan ini adalah penjelasan terbaik untuk melihat lonjakan AI saat ini dari perspektif Kripto. Antusiasme Kripto terhadap AI berbeda dari industri lain, karena kami khususnya bertujuan untuk mengintegrasikan penerbitan dan operasi aset keuangan dengannya.

AI sebagai Agen Kripto

Sebuah karya seni tidak pernah selesai, hanya ditinggalkan.

Semua orang sedang membicarakan Agen AI, tetapi apa yang mereka maksudkan tidak sama, yang menyebabkan pemahaman yang berbeda tentang Agen AI dari sudut pandang kami, masyarakat, dan praktisi AI.

Dahulu sekali, saya menulis bahwa Kripto adalah ilusi AI. Sejak itu, kombinasi Crypto dan AI tetap menjadi hubungan cinta sepihak. Praktisi AI jarang menyebutkan Web3 atau blockchain, sementara penggemar Crypto sangat terpikat dengan AI. Setelah menyaksikan fenomena di mana kerangka kerja Agen AI bahkan dapat diberi token, tidak pasti apakah ini benar-benar dapat membawa praktisi AI ke dunia kita.

AI adalah agen Kripto. Ini adalah anotasi terbaik dari sudut pandang kripto untuk melihat lonjakan AI saat ini. Antusiasme Kripto terhadap AI berbeda dari industri lain; kami khususnya berharap dapat mengintegrasikan penerbitan dan operasi aset keuangan dengannya.

Evolusi Agen: Asal Usul di Bawah Pemasaran Teknis

Pada intinya, AI Agent memiliki setidaknya tiga sumber. AGI (Artificial General Intelligence) OpenAI menganggap ini sebagai langkah penting, mengubah istilah tersebut menjadi buzzword populer di luar lingkaran teknis. Namun, pada dasarnya, Agent bukanlah konsep baru. Bahkan dengan pemberdayaan AI, sulit dikatakan bahwa ini adalah tren teknologi revolusioner.

Sumber pertama adalah AI Agent yang terlihat oleh OpenAI. Mirip dengan level L3 dalam pengemudi otonom, seorang AI Agent dapat dianggap memiliki kemampuan bantuan tingkat lanjut tertentu tetapi belum mampu sepenuhnya menggantikan manusia.

Keterangan gambar: Tahap AGI dari perencanaan OpenAI

Sumber gambar: https://www.bloomberg.com/

Sumber kedua adalah, seperti namanya, AI Agent, yang merupakan Agen yang diberdayakan oleh AI. Konsep agensi dan mekanisme delegasi bukan hal baru dalam bidang komputasi. Namun, berdasarkan visi OpenAI, Agen akan menjadi tahap L3 setelah bentuk percakapan (seperti ChatGPT) dan bentuk penalaran (seperti berbagai bot). Fitur utama dari tahap ini adalah kemampuan untuk "melakukan perilaku tertentu secara otonom," atau, seperti yang didefinisikan oleh pendiri LangChain, Harrison Chase: "AI Agent adalah sistem yang menggunakan LLM (Large Language Model) untuk membuat keputusan aliran kontrol dalam sebuah program."
Di sinilah ia menjadi menarik. Sebelum munculnya LLM, Agen terutama menjalankan proses otomatisasi yang ditetapkan oleh manusia. Misalnya, ketika merancang scraper web, programmer akan mengatur User-Agent untuk mensimulasikan detail seperti versi browser dan sistem operasi yang digunakan oleh pengguna nyata. Jika Agen AI dipekerjakan untuk meniru perilaku manusia dengan lebih tepat, itu dapat mengarah pada pembuatan kerangka kerja scraper web berbasis Agen AI, membuat scraper "lebih mirip manusia." \
Dalam transisi seperti itu, pengenalan AI Agents harus terintegrasi dengan skenario yang sudah ada, karena lapangan yang benar-benar baru hampir tidak ada. Bahkan kemampuan penyelesaian dan pembuatan kode dalam alat seperti Curosr dan Github Copilot hanyalah peningkatan fungsional dalam kerangka LSP (Language Server Protocol), dengan banyak contoh evolusi seperti itu:

  • Apple: AppleScript (Editor Skrip) → Alfred → Siri → Pintasan → Apple Intelligence
  • Terminal: Terminal (macOS) / PowerShell (Windows) → iTerm 2 → Warp (AI Native)
  • Interaksi Manusia-Komputer: Web 1.0 CLI TCP/IP Netscape Browser → Web 2.0 GUI / REST API / Mesin Pencari / Google / Super Aplikasi → Web 3.0 AI Agent + Dapp?

Untuk menjelaskan, dalam interaksi manusia-komputer, kombinasi antara GUI Web 1.0 dan peramban benar-benar memungkinkan publik untuk menggunakan komputer tanpa hambatan, yang diwakili oleh kombinasi Windows dan IE. API menjadi standar abstraksi dan transmisi data di balik internet, dan selama era Web 2.0, peramban seperti Chrome muncul, dengan pergeseran ke perangkat seluler yang mengubah kebiasaan penggunaan internet orang-orang. Super aplikasi seperti WeChat dan platform Meta kini mencakup setiap aspek kehidupan orang.

Sumber ketiga adalah konsep 'Intent' dalam ruang Kripto, yang telah menyebabkan peningkatan minat terhadap AI Agents. Namun, perlu dicatat bahwa ini hanya berlaku dalam Kripto. Dari skrip Bitcoin dengan fungsionalitas terbatas hingga kontrak pintar Ethereum, konsep Agen itu sendiri telah banyak digunakan. Munculnya jembatan antar rantai, abstraksi rantai, EOA (Externally Owned Accounts) hingga dompet AA (Account Abstraction) adalah perluasan alami dari garis pemikiran ini. Oleh karena itu, ketika AI Agents 'menyerang' Kripto, tidak mengherankan bahwa mereka secara alami mengarah pada skenario DeFi.

Di sinilah kebingungan seputar konsep AI Agent muncul. Dalam konteks Kripto, yang sebenarnya kita coba capai adalah "manajemen keuangan otomatis, generasi meme otomatis" Agent. Namun, menurut definisi OpenAI, skenario berisiko seperti itu memerlukan L4 atau L5 untuk benar-benar diimplementasikan. Sementara itu, publik sedang bereksperimen dengan generasi kode otomatis atau bantuan penulisan dan ringkasan yang didukung AI, yang tidak sejajar dengan tujuan yang kita kejar.

Setelah kita memahami apa yang sesungguhnya kita inginkan, kita dapat fokus pada logika organisasi AI Agents. Detail teknis akan mengikuti, karena konsep AI Agent pada dasarnya tentang menghilangkan hambatan terhadap adopsi teknologi dalam skala besar, sebagaimana halnya browser merevolusi industri PC pribadi. Fokus kita akan pada dua hal: memeriksa AI Agents dari perspektif interaksi manusia-komputer, dan memahami perbedaan dan keterkaitan antara AI Agents dan LLMs, yang akan membawa kita pada bagian ketiga: apa yang akhirnya akan ditinggalkan kombinasi Kripto dan AI Agents.

let AI_Agent = LLM+API;

Sebelum model interaksi manusia-komputer percakapan seperti ChatGPT, bentuk utama interaksi manusia-komputer adalah GUI (Antarmuka Pengguna Grafis) dan CLI (Antarmuka Baris Perintah). Pola pikir GUI berkembang menjadi berbagai bentuk khusus seperti browser dan aplikasi, sementara kombinasi CLI dan Shell mengalami perubahan minimal.

Tapi ini hanyalah "frontend" dari interaksi manusia-komputer. Seiring berkembangnya internet, peningkatan volume dan variasi data telah menyebabkan lebih banyak interaksi "backend" antara data dan antar aplikasi. Kedua aspek ini bergantung satu sama lain — bahkan tindakan penjelajahan web sederhana sebenarnya membutuhkan kolaborasi mereka.

Jika interaksi manusia dengan browser dan aplikasi dianggap sebagai titik masuk pengguna, tautan dan peralihan antara API mendukung operasi sebenarnya dari internet. Ini sebenarnya juga bagian dari Agen. Pengguna biasa tidak perlu memahami istilah seperti baris perintah dan API untuk mencapai tujuan mereka.

Hal yang sama berlaku untuk LLM. Sekarang, pengguna dapat pergi lebih jauh—tidak perlu lagi mencari. Seluruh proses dapat dijelaskan dalam langkah-langkah berikut:

  1. Pengguna membuka jendela obrolan.
  2. Pengguna menggambarkan kebutuhan mereka menggunakan bahasa alami, baik melalui teks atau suara.
  3. LLM menerjemahkan ini ke dalam langkah-langkah prosedural.
  4. LLM mengembalikan hasil kepada pengguna.

Dalam proses ini, tantangan terbesar adalah Google, karena pengguna tidak perlu membuka mesin pencari, tetapi berbagai jendela dialog mirip GPT, dan pintu masuk lalu lintas sedang berubah dengan diam-diam. Karena alasan ini, beberapa orang berpikir bahwa LLM ini merevolusi kehidupan mesin pencari.

Jadi, peran apa yang dimainkan AI Agent dalam proses ini?

Singkatnya, AI Agent adalah perpanjangan khusus dari LLM.

LLM saat ini bukan AGI (Artificial General Intelligence) dan jauh dari L5 organizer yang diharapkan oleh OpenAI. Kemampuannya sangat terbatas. Sebagai contoh, LLM cenderung mengalami halusinasi jika diberi terlalu banyak masukan pengguna. Salah satu alasan utamanya terletak pada mekanisme pelatihan. Misalnya, jika Anda berulang kali memberi tahu GPT bahwa 1+1=3, ada kemungkinan ia akan merespons dengan 4 ketika ditanya tentang 1+1+1=?.

Ini terjadi karena umpan balik GPT sepenuhnya berasal dari masukan pengguna. Jika model tidak terhubung ke internet, kemungkinan operasinya dapat diubah oleh masukan Anda, menghasilkan model yang hanya "tahu" 1+1=3. Namun, jika model diizinkan terhubung ke internet, mekanisme umpan baliknya menjadi lebih beragam, karena sebagian besar data online akan mengkonfirmasi bahwa 1+1=2.

Sekarang, bagaimana jika kita harus menggunakan LLM secara lokal dan ingin menghindari masalah seperti itu?

Solusi yang sederhana adalah menggunakan dua LLM secara bersamaan, memerlukan mereka untuk saling memvalidasi respons masing-masing untuk mengurangi kemungkinan kesalahan. Jika ini tidak cukup, pendekatan lain bisa melibatkan dua pengguna untuk menangani satu proses—satu bertanya pertanyaan dan yang lain mengoreksi—untuk membuat bahasa lebih tepat dan logis.

Tentu saja, terhubung ke internet tidak sepenuhnya menghilangkan masalah. Misalnya, jika LLM mengambil jawaban dari sumber yang tidak dapat diandalkan, situasinya bisa menjadi lebih buruk. Namun, menghindari data semacam itu mengurangi jumlah informasi yang tersedia. Untuk mengatasi hal ini, data yang ada dapat dipecah, digabungkan kembali, atau bahkan digunakan untuk menghasilkan data baru berdasarkan dataset yang lebih lama untuk membuat respon lebih dapat diandalkan. Pendekatan ini pada dasarnya adalah konsep RAG (Retrieval-Augmented Generation) dalam pemahaman bahasa alami.

Manusia dan mesin perlu saling memahami. Ketika beberapa LLM bekerja sama dan berinteraksi, kita pada dasarnya menggunakan model operasional Agen AI. Ini berfungsi sebagai proxy manusia, mengakses sumber daya lain, termasuk model besar dan agen lainnya.

Ini mengarahkan kita pada hubungan antara LLM dan Agen AI:

LLM adalah agregasi pengetahuan yang berinteraksi dengan manusia melalui antarmuka obrolan. Namun, dalam praktiknya, alur kerja tertentu dapat dikondensasi menjadi program-program yang lebih kecil, bot, atau rangkaian instruksi. Hal ini didefinisikan sebagai Agen.

Agen AI tetap menjadi bagian dari LLM tetapi tidak boleh disamakan dengan mereka. Fitur yang menentukan dari Agen AI terletak pada penekanan mereka pada kolaborasi dengan program eksternal, LLM, dan agen lainnya. Inilah sebabnya mengapa orang sering meringkas Agen AI sebagai LLM + API.

Untuk mengilustrasikan hal ini dalam alur kerja LLM, mari kita ambil contoh panggilan API melalui AI Agent:

  1. Seorang pengguna manusia membuka jendela obrolan.
  2. Pengguna menggambarkan kebutuhan mereka dalam bahasa alami, baik melalui teks atau suara.
  3. LLM menginterpretasikan permintaan tersebut sebagai tugas Agen AI terkait panggilan API dan mentransfer percakapan ke Agen.
  4. AI Agen meminta akun X pengguna dan kredensial API dan terhubung dengan X berdasarkan deskripsi pengguna.
  5. AI Agent mengembalikan hasil akhir kepada pengguna.

Ingatlah evolusi interaksi manusia-komputer? Browser, API, dan elemen lain dari Web 1.0 dan Web 2.0 masih ada, tetapi pengguna tidak lagi perlu berinteraksi dengan mereka secara langsung. Sebaliknya, mereka dapat dengan mudah berinteraksi dengan Agen AI. Panggilan API dan proses terkait semuanya dapat dilakukan secara percakapan. Layanan API ini dapat mencakup jenis data apa pun, baik lokal, online, atau dari aplikasi eksternal, selama antarmuka terbuka dan pengguna memiliki izin yang diperlukan untuk mengaksesnya.

Alur kerja Agensi AI lengkap, seperti yang ditunjukkan di atas, memperlakukan LLM baik sebagai komponen terpisah dari Agensi AI atau sebagai dua sub-proses dalam satu alur kerja. Terlepas dari bagaimana mereka dibagi, tujuannya selalu untuk melayani kebutuhan pengguna. Dari perspektif interaksi manusia-komputer, bahkan bisa terasa seperti pengguna sedang berbicara dengan diri mereka sendiri. Anda hanya perlu sepenuhnya mengungkapkan pikiran Anda, dan AI/LLM/Agensi AI akan secara berulang kali menebak kebutuhan Anda. Dengan menggabungkan mekanisme umpan balik dan memastikan bahwa LLM mengingat konteks saat ini, Agensi AI menghindari kehilangan jejak dari tugasnya.

Secara ringkas, AI Agent lebih personal dan lebih manusiawi, membedakannya dari skrip tradisional dan alat otomatisasi. Mereka bertindak seperti asisten pribadi, mempertimbangkan kebutuhan nyata pengguna. Namun, penting untuk dicatat bahwa personalisasi ini masih didasarkan pada inferensi probabilitas. Seorang AI Agent level L3 tidak memiliki pemahaman dan kemampuan ekspresi tingkat manusia, membuat integrasinya dengan API eksternal berisiko secara inheren.

Setelah monetisasi kerangka AI

Kemampuan untuk memonetisasi kerangka kerja AI adalah salah satu alasan utama saya tetap tertarik pada kripto. Dalam tumpukan teknologi AI tradisional, kerangka kerja tidak terlalu penting, setidaknya tidak dibandingkan dengan data dan daya komputasi. Memonetisasi produk AI jarang dimulai dengan kerangka kerja, karena kebanyakan algoritma AI dan kerangka model adalah open source. Yang tetap milik adalah elemen sensitif seperti data.

Pada dasarnya, kerangka kerja atau model AI adalah wadah dan kombinasi algoritma, seperti panci untuk memasak angsa. Namun, kualitas angsa dan penguasaan proses memasak adalah yang benar-benar menentukan rasa. Secara teori, produk yang dijual seharusnya adalah angsa, tetapi pelanggan Web3 lebih cenderung membeli panci sambil membuang angsa.

Alasannya tidak rumit. Sebagian besar produk AI Web3 membangun pada kerangka AI yang ada, algoritma, dan produk, menyesuaikan untuk tujuan mereka. Sebenarnya, prinsip teknis di balik kerangka AI kripto yang berbeda tidak jauh berbeda. Karena teknologi itu sendiri kurang memiliki perbedaan, perhatian beralih ke branding, skenario aplikasi, dan perbedaan permukaan lainnya. Akibatnya, bahkan penyesuaian minor terhadap kerangka AI menjadi dasar untuk mendukung berbagai token, mengarah pada gelembung kerangka dalam ekosistem Agen AI kripto.

Karena tidak perlu berinvestasi secara besar-besaran dalam data pelatihan atau algoritma, membedakan kerangka kerja berdasarkan nama menjadi sangat penting. Bahkan kerangka kerja yang terjangkau seperti DeepSeek V3 masih menuntut biaya yang signifikan dalam hal daya GPU, listrik, dan upaya.

Dalam suatu pengertian, ini sejalan dengan tren terkini Web3: platform yang menerbitkan token seringkali lebih berharga daripada token itu sendiri. Proyek seperti Pump.Fun dan Hyperliquid menggambarkan hal ini. Pada awalnya, Agen seharusnya mewakili aplikasi dan aset, tetapi kerangka kerja yang menerbitkan Agen sekarang menjadi komoditas paling populer.

Ini mencerminkan bentuk penancapan nilai. Karena Agen kurang diferensiasi, kerangka kerja penerbitan Agen menjadi lebih stabil dan menciptakan efek penyedotan nilai untuk penerbitan aset. Ini menandai versi 1.0 dari integrasi kripto dan Agen AI.

Versi 2.0 sekarang muncul, dicontohkan oleh konvergensi Agen DeFi dan AI. Sementara konsep DeFAI mungkin dipicu oleh hype pasar, pandangan yang lebih dalam pada tren berikut menunjukkan sebaliknya:

  • Morpho sedang menantang platform pemberian pinjaman yang sudah mapan seperti Aave.
  • Hyperliquid menggantikan derivatif on-chain seperti dYdX dan bahkan menantang efek daftar CEX Binance.
  • Stablecoin menjadi alat pembayaran untuk skenario di luar rantai.

Dalam latar belakang transformasi DeFi ini, AI sedang membentuk kembali logika fundamental DeFi. Sebelumnya, logika inti DeFi adalah memverifikasi kelayakan kontrak pintar. Sekarang, Agen AI sedang mengubah logika pembuatan DeFi. Anda tidak perlu lagi memahami DeFi untuk membuat produk DeFi. Ini merupakan langkah melampaui abstraksi rantai, memberikan pemberdayaan dasar yang lebih mendalam.

Era di mana semua orang bisa menjadi programmer sudah di depan mata. Perhitungan kompleks dapat dioutsourcing ke LLM dan API di balik AI Agents, memungkinkan individu untuk fokus sepenuhnya pada ide-ide mereka. Bahasa alami dapat dengan efisien diubah menjadi logika pemrograman.

Kesimpulan

Artikel ini tidak menyebutkan token atau kerangka Crypto AI Agent apa pun, karena Cookie.Fun telah melakukan pekerjaan yang sangat baik - platform untuk agregasi informasi AI Agent dan penemuan token, diikuti oleh kerangka AI Agent, dan terakhir muncul dan menghilangnya token Agent. Melanjutkan untuk mencantumkan informasi seperti ini di sini akan memiliki sedikit nilai.

Namun, melalui pengamatan selama periode ini, pasar masih kurang pembahasan yang bermakna tentang apa yang Crypto AI Agents akhirnya tunjukkan. Kita tidak bisa terus fokus pada penunjuk; intinya terletak pada perubahan yang terjadi pada tingkat memori.

Hal yang membuat Kripto begitu menarik adalah kemampuannya yang terus berkembang untuk mengubah berbagai aset menjadi bentuk ter-tokenisasi.

Penyangkalan:

  1. Artikel ini direproduksi dari [Gunung Zuoye Waibo], hak cipta menjadi milik penulis asli [Gunung Waibo Zuoye]. Jika Anda memiliki keberatan terhadap cetakan ulang, silakan hubungi Gate BelajarTim akan menanganinya secepat mungkin sesuai dengan prosedur yang relevan.
  2. Penafian: Pandangan dan pendapat yang terdapat dalam artikel ini hanya merupakan pandangan pribadi penulis dan tidak merupakan saran investasi apa pun.
  3. Versi bahasa lain dari artikel ini diterjemahkan oleh tim Pembelajaran gate. Kecuali dinyatakan lain, artikel yang diterjemahkan tidak boleh disalin, didistribusikan, atau diplagiat.
Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!