Nội dung | Bruce
Chỉnh sửa & Biên tập | Huán Huán
Thiết kế | Daisy
“Khoảnh khắc USB-C” trong lịch sử tiến hóa AI, vào tháng 11/2024, giao thức MCP của Anthropic đang gây ra một trận động đất ở Thung lũng Silicon. Tiêu chuẩn mở này, được gọi là “USB-C của thế giới AI”, không chỉ tái tạo lại kết nối giữa các mô hình lớn và thế giới vật lý, mà còn ẩn mã để phá vỡ tình thế tiến thoái lưỡng nan độc quyền AI và xây dựng lại mối quan hệ sản xuất của nền văn minh kỹ thuật số. Trong khi chúng ta vẫn đang tranh luận về quy mô tham số của GPT-5, MCP đã lặng lẽ mở đường cho sự phân cấp trong kỷ nguyên AGI…
Bruce: Gần đây tôi đang nghiên cứu Giao thức Ngữ cảnh Mô hình (MCP). Đây là điều thứ hai trong lĩnh vực AI khiến tôi rất phấn khích, sau ChatGPT, vì nó có hy vọng giải quyết ba vấn đề mà tôi đã suy nghĩ trong nhiều năm.
MCP là một khung tiêu chuẩn mở, có thể đơn giản hóa việc tích hợp LLM với các nguồn dữ liệu và công cụ bên ngoài. Nếu chúng ta so sánh LLM với hệ điều hành Windows, các ứng dụng như Cursor là bàn phím và phần cứng, thì MCP chính là giao diện USB, hỗ trợ việc linh hoạt kết nối dữ liệu và công cụ bên ngoài, sau đó người dùng có thể đọc và sử dụng những dữ liệu và công cụ bên ngoài này.
MCP cung cấp ba khả năng để mở rộng LLM:
MCP có thể được phát triển và quản lý bởi bất kỳ ai, cung cấp dưới dạng Server, có thể ngừng dịch vụ bất cứ lúc nào.
Hiện tại, LLM sử dụng càng nhiều dữ liệu càng tốt để thực hiện một khối lượng lớn phép toán và tạo ra một lượng lớn tham số, tích hợp kiến thức vào mô hình, từ đó thực hiện đầu ra đối thoại với kiến thức tương ứng. Tuy nhiên, vẫn tồn tại vài vấn đề lớn:
Chúng ta có thể coi các mô hình quy mô siêu lớn hiện tại là các LLM béo, kiến trúc của chúng có thể được biểu diễn bằng hình ảnh đơn giản dưới đây:
Sau khi người dùng nhập thông tin, thông qua lớp Nhận thức & Lý luận để phân tích và suy luận đầu vào, sau đó gọi các tham số khổng lồ để tạo ra kết quả.
Dựa trên MCP, LLM có thể tập trung vào việc phân tích ngôn ngữ bản thân, tách rời kiến thức và khả năng, trở thành LLM gọn nhẹ:
Dưới kiến trúc của LLM gầy, lớp Perception & Reasoning sẽ tập trung vào cách phân tích thông tin môi trường vật lý toàn diện của con người thành các tokens, bao gồm nhưng không giới hạn: giọng nói, ngữ điệu, mùi hương, hình ảnh, văn bản, trọng lực, nhiệt độ, v.v., sau đó thông qua MCP Coordinator để điều phối và phối hợp với hàng trăm MCP Servers để hoàn thành nhiệm vụ. Chi phí và tốc độ đào tạo của LLM gầy sẽ tăng nhanh chóng, yêu cầu về thiết bị triển khai sẽ giảm xuống rất thấp.
Bất kỳ ai có tài năng độc đáo đều có thể tạo ra máy chủ MCP của riêng mình để cung cấp dịch vụ cho LLM. Ví dụ, một người yêu thích chim có thể sử dụng những ghi chép về chim của mình trong nhiều năm qua để cung cấp dịch vụ qua MCP. Khi ai đó sử dụng LLM để tìm kiếm thông tin liên quan đến chim, dịch vụ MCP ghi chép về chim hiện tại sẽ được gọi. Người sáng tạo cũng sẽ nhận được phần chia thu nhập từ đó.
Đây là một vòng tuần hoàn kinh tế của người sáng tạo chính xác và tự động hơn, nội dung dịch vụ được chuẩn hóa hơn, số lần gọi và token đầu ra đều có thể được thống kê một cách chính xác. Nhà cung cấp LLM thậm chí có thể gọi đồng thời nhiều máy chủ MCP của Bird Note để người dùng lựa chọn và đánh giá nhằm xác định ai có chất lượng tốt hơn và nhận được trọng số phù hợp cao hơn.
a. Chúng tôi có thể xây dựng một mạng lưới khuyến khích người sáng tạo OpenMCP.Network dựa trên Ethereum. Máy chủ MCP cần được lưu trữ và cung cấp dịch vụ ổn định, người dùng trả phí cho nhà cung cấp LLM, nhà cung cấp LLM sẽ phân phối các khuyến khích thực tế qua mạng đến các Máy chủ MCP được gọi để duy trì tính bền vững và ổn định của toàn bộ mạng lưới, kích thích người sáng tạo MCP tiếp tục sáng tạo và cung cấp nội dung chất lượng cao. Hệ thống mạng này sẽ cần sử dụng hợp đồng thông minh để thực hiện tự động hóa, minh bạch, đáng tin cậy và chống kiểm duyệt cho các khuyến khích. Quá trình ký, xác thực quyền hạn và bảo vệ quyền riêng tư trong quá trình vận hành có thể được thực hiện bằng ví Ethereum, ZK và các công nghệ khác.
b. Phát triển các MCP Servers liên quan đến thao tác trên chuỗi Ethereum, chẳng hạn như dịch vụ gọi ví AA, người dùng sẽ hỗ trợ thanh toán ví thông qua ngôn ngữ trong LLM mà không tiết lộ khóa riêng và quyền hạn liên quan cho LLM.
c. Còn có nhiều công cụ dành cho nhà phát triển, giúp đơn giản hóa việc phát triển hợp đồng thông minh Ethereum và tạo mã.
a. MCP Servers phân quyền kiến thức và khả năng của AI, bất kỳ ai cũng có thể tạo và lưu trữ MCP Servers, đăng ký lên các nền tảng như OpenMCP.Network và nhận phần thưởng theo cách gọi. Không có công ty nào có thể kiểm soát tất cả MCP Servers. Nếu một nhà cung cấp LLM đưa ra phần thưởng không công bằng cho MCP Servers, các nhà sáng tạo sẽ hỗ trợ việc chặn công ty đó, và người dùng sẽ chuyển sang các nhà cung cấp LLM khác để đạt được sự cạnh tranh công bằng hơn.
b. Người sáng tạo có thể thực hiện kiểm soát quyền truy cập chi tiết cho các máy chủ MCP của họ để bảo vệ quyền riêng tư và bản quyền. Các nhà cung cấp LLM gầy nên cung cấp các động lực hợp lý để khuyến khích người sáng tạo đóng góp các máy chủ MCP chất lượng cao.
c. Khoảng cách năng lực giữa các LLM gầy sẽ từ từ được thu hẹp, vì ngôn ngữ của con người có giới hạn khám phá và sự tiến hóa cũng rất chậm. Các nhà cung cấp LLM sẽ cần phải hướng tầm nhìn và vốn vào các MCP Servers chất lượng cao, thay vì lặp đi lặp lại việc sử dụng nhiều card đồ họa để khai thác.
d. Khả năng của AGI sẽ được phân tán và giảm quyền, LLM chỉ hoạt động như một công cụ xử lý ngôn ngữ và tương tác với người dùng, khả năng cụ thể sẽ được phân bổ trong các Máy chủ MCP khác nhau. AGI sẽ không đe dọa đến con người, vì sau khi tắt các Máy chủ MCP, chỉ có thể thực hiện các cuộc trò chuyện ngôn ngữ cơ bản.