Mira: Xây dựng niềm tin trong việc xác minh đầu ra AI

Trung cấp1/14/2025, 12:32:46 PM
Trong những năm gần đây, sự tiến bộ nhanh chóng của trí tuệ nhân tạo tạo ra những yêu cầu mới đối với cơ sở hạ tầng và quy trình làm việc, đặc biệt là trong việc xác thực và đánh giá. Sự đáng tin cậy của các ứng dụng trí tuệ nhân tạo chặt chẽ liên quan đến sự tin tưởng của người dùng, và Mira đã cam kết giải quyết vấn đề cốt lõi này thông qua mạng lưới phi tập trung, thiết lập các tiêu chuẩn mới cho việc xác thực và đánh giá trí tuệ nhân tạo.

Chuyển tiếp Tiêu đề Gốc: Mira: AI Được Xác minh không cần tin tưởng

TL; DR

  • Xác minh các đầu ra là rất quan trọng để đảm bảo AI hoạt động đáng tin cậy.
  • Mira đang xây dựng một mạng lưới tầng 1 cung cấp xác thực không đáng tin cậy, có khả năng mở rộng và chính xác của đầu ra trí tuệ nhân tạo.
  • Đồng thời giảm thiểu ảo giác và đảo lộn cũng là một sự cân bằng tinh tế. Mira thực hiện điều này bằng cách khai thác sự hiểu biết chung của các mô hình AI.
  • Hệ thống xác minh của Mira được xây dựng trên hai nguyên tắc thiết kế cơ bản: (1) Phân chia đầu ra của trí tuệ nhân tạo thành các phần nhỏ, dễ xác minh, và (2) Sử dụng một bộ sưu tập các mô hình để xác minh từng phần.
  • Kích thước thị trường ban đầu của Mira liên quan đến LLMOps, nhưng thị trường tiềm năng tổng thể có thể mở rộng đến tất cả các ứng dụng AI vì mọi ứng dụng AI sẽ cần đầu ra đáng tin cậy hơn.
  • Mira đang cung cấp xác minh AI cho một số ứng dụng AI với hơn 200 nghìn người dùng.
  • Mục tiêu cuối cùng của Mira là trở thành một mô hình nền tảng tổng hợp, liên kết một cách mượt mà với mọi nhà cung cấp hàng đầu để cung cấp đầu ra đã được xác minh trước thông qua một API duy nhất.

Ảo giác: một trải nghiệm liên quan đến sự cảm nhận rõ ràng về một điều gì đó không có mặt.

Andrej Karpathy gọi AI là “cỗ máy mơ ước”. Ông tin rằng ảo giác - những khoảnh khắc khi AI tự tin tạo ra những thứ không có thật - là một tính năng, không phải là một lỗi. Thật vô ích khi cố gắng loại bỏ chúng hoàn toàn. Và thành thật mà nói, có một cái gì đó thơ mộng về điều đó.

Các mô hình ngôn ngữ lớn (LLMs) là một nghệ sĩ, một người sáng tạo. Nó mơ mộng trong mã, tạo ra ý tưởng từ hư không, và tạo nên ý nghĩa từ dữ liệu. Nhưng để trí tuệ nhân tạo chuyển từ những giấc mơ đẹp đẽ sang các ứng dụng thực tế hàng ngày, chúng ta phải kiềm chế những ảo giác đó.

Tỷ lệ lỗi cho LLM vẫn cao ở nhiều nhiệm vụ - thường dao động xung quanh 30%. Ở mức đó, LLM vẫn cần sự can thiệp của con người để đạt được một chuẩn độ chính xác có thể sử dụng được.

Nhưng khi chúng ta đạt được độ chính xác 99.x% khó tìm ấy - nơi đầu ra đáng tin cậy mà không cần sự giám sát của con người - thì phép màu xảy ra. Đó là ngưỡng mà trí tuệ nhân tạo đạt được độ tin cậy tương đương với con người, mở khóa một vũ trụ vô tận các trường hợp sử dụng trước đây không thể đạt được.

Tuy nhiên, đạt được mức độ chính xác đó không phải là một kỳ tích nhỏ. Điều này đòi hỏi nỗ lực kỹ thuật không ngừng nghỉ và sự đổi mới.

Câu chuyện của @Mira_NetworkBắt đầu từ đây. Nhưng trước khi chúng ta bắt đầu, hãy dành chút thời gian để nói về việc phát triển LLM - và tại sao việc xác minh đang trở thành xu hướng tiếp theo trong trí tuệ nhân tạo.

Làm thế nào một LLM ra đời

Phát triển LLM là sự tiến hóa mới nhất trong hành trình học sâu — khác biệt so với các phương pháp phát triển phần mềm truyền thống mà chúng ta đã hoàn thiện trong hơn 50 năm qua. LLM, chỉ mới xuất hiện khoảng ba năm, hoàn toàn thay đổi cách suy nghĩ, chuyển từ tư duy xác định (nếu X, thì Y) sang lý luận xác suất (nếu X, thì… có lẽ Y?).

Điều này có nghĩa là cơ sở hạ tầng cho một thế giới do trí tuệ nhân tạo điều hành đòi hỏi một bộ công cụ và quy trình làm việc hoàn toàn mới. Tuy nhiên, nhiều công cụ này vẫn bị khóa bên trong các phòng thí nghiệm nghiên cứu đã tạo ra LLMs.

Thông tin tốt là những công cụ này đang bắt đầu được công bố rộng rãi, mở ra một thế giới các khả năng cho các nhà phát triển trên toàn thế giới.

Ở cuối quy trình công việc mới này nằm một phần quan trọng của bức tranh: đánh giá và xác minh. Hôm nay, ánh đèn sân khấu của chúng ta chiếu trực tiếp lên những cái này. Chúng trả lời một câu hỏi cơ bản: AI hoạt động tốt không?

Xác minh = Tin cậy

Niềm tin là nền tảng của bất kỳ sản phẩm trí tuệ nhân tạo nào tuyệt vời.

Khi trí tuệ nhân tạo trở thành một phần ngày càng quan trọng của cuộc sống của chúng ta, công nghệ chính nó vẫn còn mong manh. Sai lầm xảy ra, và khi điều đó xảy ra, sự tin tưởng sẽ bị mòn nhanh chóng. Người dùng mong đợi trí tuệ nhân tạo phải chính xác, không thiên vị và thực sự hữu ích, nhưng mà không có hệ thống đáng tin cậy để đảm bảo điều đó, sự bực tức tăng—và sự bực tức dẫn đến việc chuyển đổi.

Đây là nơi mà các xác minh trở nên quan trọng.

Xác thực hoạt động như một cơ chế bảo vệ. Chúng là tầng đảm bảo chất lượng mà các nhà phát triển dựa vào để tinh chỉnh đầu ra và xây dựng hệ thống mà người dùng có thể tin tưởng.

Mira đang giải quyết một vấn đề cốt lõi của Web2 với sự minh bạch không đáng tin cậy của tiền mã hóa. Bằng cách tận dụng một mạng lưới phi tập trung các nút xác minh, Mira đảm bảo rằng đầu ra của trí tuệ nhân tạo được xác minh một cách chính xác và độc lập.

Nhập Mira

Hãy nói rằng bạn có một đoạn văn bản đầu ra từ một LLM về thành phố Paris. Làm thế nào để xác minh rằng nó chính xác? Điều này khó khăn vì có quá nhiều sắc thái xung quanh mọi thứ từ những tuyên bố đến cấu trúc của nội dung đến phong cách viết.

Đây là nơi mà Mira bước vào.

Tầm nhìn của Mira rất táo bạo: tạo ra một mạng lưới tầng 1 cung cấp xác nhận AI không cần tin cậy, có khả năng mở rộng và chính xác. Bằng cách tận dụng trí tuệ tập thể, Mira giảm thiểu sự thiên vị và ảo tưởng, giải quyết các vấn đề cốt lõi như sự công bằng và chi phí, đồng thời chứng minh cách mà blockchain thực sự có thể tăng cường trí tuệ nhân tạo.

Nguồn: Mira

Kết quả ban đầu rất hứa hẹn. Trong một lần gần đâynghiên cứu được công bố trên Arxiv, Mira đã chứng minh rằng việc sử dụng nhiều mô hình để tạo ra kết quả và yêu cầu sự đồng lòng tăng đáng kể độ chính xác. Độ chính xác đạt 95,6% với ba mô hình, so với 73,1% cho một kết quả mô hình duy nhất.

Hai yếu tố thiết kế quan trọng làm nền tảng cho phương pháp của Mira:

  • Sharding & Binarization của nội dung: Phân mảnh đầu ra AI phức tạp thành các phần nhỏ, có thể xác minh một cách độc lập.
  • Đa dạng mô hình: Tận dụng nhiều mô hình để cải thiện độ tin cậy và giảm thiểu sự thiên lệch.

#1: Chuyển đổi nội dung qua quá trình nhị phân hóa và tách rời

Các kết quả do trí tuệ nhân tạo tạo ra có thể từ các câu tối giản đến các bài luận dài, nhờ vào chi phí gần như bằng không của việc tạo nội dung. Tuy nhiên, sự phong phú này tạo ra một thách thức: làm thế nào để đảm bảo tính chính xác của các kết quả đa dạng như vậy?

Giải pháp của Mira rất đơn giản: phân tách nó ra.

@Mira_Networkbiến đổi nội dung phức tạp được tạo ra bởi trí tuệ nhân tạo thành các phần nhỏ, dễ tiêu hóa mà các mô hình trí tuệ nhân tạo có thể đánh giá một cách khách quan trong quá trình gọi là sharding.

Bằng cách chuẩn hóa các đầu ra và chia chúng thành những tuyên bố cụ thể, có thể xác minh, Mira đảm bảo mỗi phần có thể được đánh giá một cách nhất quán, loại bỏ sự mơ hồ mà thường xuyên làm mất công đánh giá.

Ví dụ, hãy xem xét câu lệnh phức hợp này:

Quang hợp xảy ra trong cây để chuyển đổi ánh sáng mặt trời thành năng lượng, và ong đóng vai trò quan trọng trong việc thụ phấn bằng cách truyền phấn hoa giữa các bông hoa.

Trên bề mặt, có vẻ như việc xác minh đơn giản. Nhưng khi đưa cho nhiều mô hình, những khía cạnh phiên dịch có thể dẫn đến các câu trả lời khác nhau. Việc chuyển đổi nội dung của Mira qua cách gom nhóm giải quyết vấn đề này bằng cách chia câu thành hai yêu cầu độc lập:

  1. Quang hợp xảy ra trong thực vật để chuyển đổi ánh sáng thành năng lượng.
  2. “Ong đóng vai trò quan trọng trong việc thụ phấn bằng cách chuyển phấn hoa giữa các hoa.”

Sau khi được chia thành các mảnh, mỗi yêu cầu được chuyển đổi thành một câu hỏi đa lựa chọn. Những câu hỏi này được phân phối đến một mạng lưới các nút chạy các mô hình AI. Sử dụng phương pháp xác minh tập hợp của Mira, các mô hình cùng nhau đánh giá và xác nhận tính hợp lệ của mỗi yêu cầu.

Hiện tại, khả năng chia nhỏ và nhị phân hóa nội dung của Mira tập trung vào đầu vào văn bản. Đến đầu năm 2025, quy trình này sẽ mở rộng hỗ trợ đầu vào đa phương thức, chẳng hạn như hình ảnh và video.

#2: Một Nhóm, Không Phải Là Một Cá Nhân

Mira đã phát triển một hệ thống xác minh tiên tiến kết hợp sức mạnh của nhiều mô hình trí tuệ nhân tạo để đánh giá chất lượng đầu ra của trí tuệ nhân tạo.

Hãy mở gói nó.

Các đánh giá tự động truyền thống thường dựa vào một mô hình ngôn ngữ lớn duy nhất (LLM), như GPT-4, làm trọng tài cuối cùng về chất lượng. Mặc dù có chức năng, cách tiếp cận này có những sai sót đáng kể: nó tốn kém, dễ bị thiên vị và bị giới hạn bởi những điều kỳ quặc và “tính cách” vốn có trong các mô hình.

Bước đột phá của Mira là chuyển từ sự phụ thuộc vào một mô hình lớn duy nhất sang việc tận dụngtập hợp của những LLM đa dạng. Bộ sưu tập này xuất sắc trong các nhiệm vụ nơi độ chính xác về sự thật quan trọng hơn so với sự sáng tạo, giảm tỷ lệ lỗi và cung cấp các xác minh đáng tin cậy, nhất quán hơn.

Các kỹ thuật tổ hợp đã được nghiên cứu kỹ trong các nhiệm vụ học máy như phân loại, và Mira hiện đang mang lại điều này cho việc xác minh.

Ở trung tâm của hệ thống Mira là Bảng xác minh LLM (Panel of LLM verifiers - PoLL) - một mạng lưới cộng tác của các mô hình làm việc cùng nhau để xác minh đầu ra. Hãy tưởng tượng đó là một bảng đa dạng các chuyên gia đánh giá một quyết định thay vì để cho một thẩm phán đơn lẻ có khả năng thiên vị.

Và điều này không chỉ là mơ ước mơ hồ—nó dựa trên nghiên cứu. Hãy nhìn vào biểu đồ dưới đây:

Một nghiên cứu Coheređã xuất bảnvào tháng 4 năm 2024 đã chứng minh rằng một bảng ba mô hình nhỏ hơn - GPT-3.5, Claude-3 Haiku và Command R - phù hợp hơn với các đánh giá của con người hơn GPT-4 một mình. Đáng chú ý, phương pháp tập hợp này cũng rẻ hơn 7 lần.

Mira hiện đang đưa nghiên cứu này vào thực tế, triển khai phương pháp xác minh tổ hợp của mình ở quy mô lớn. Kết quả nội bộ mà họ đã chia sẻ cho đến nay rất thuyết phục:

• Tỷ lệ lỗi giảm từ 80% xuống còn 5% cho các nhiệm vụ tư duy phức tạp.

• Cải thiện 5 lần về tốc độ và chi phí so với xác minh bằng con người.

Điều này không phải là một thành tựu nhỏ. Bằng cách sử dụng cơ chế đồng thuận, hợp tác đội ngũ mô hình đa dạng của Mira hiệu quả loại bỏ những ảo giác và cân bằng sự thiên vị của mỗi mô hình cá nhân. Cùng nhau, họ mang lại cái gì đó lớn hơn tổng của các thành phần của họ: các xác nhận nhanh hơn, rẻ hơn và phù hợp hơn với nhu cầu của chúng ta.

Cách Hoạt Động - Thiết Kế Kiến Trúc

Tóm lại, hệ thống xác minh của Mira được xây dựng trên hai nguyên tắc thiết kế cơ bản:

  • Phân chia đầu ra AI thành các phần nhỏ hơn, dễ dàng xác minh.
  • Xác minh từng mảnh bằng một bộ sưu tập các mô hình AI đa dạng.

Giữ một tập hợp đa dạng các mô hình là điều cần thiết để có được đầu ra chất lượng cao, làm cho thiết kế của Mira lý tưởng cho một kiến trúc phi tập trung. Loại bỏ các điểm thất bại duy nhất là rất quan trọng đối với bất kỳ sản phẩm xác minh nào.

Mira sử dụng một phương pháp dựa trên blockchain để đảm bảo không có một thực thể duy nhất có thể thao túng kết quả. Tiền đề đơn giản: các đầu ra được tạo bởi trí tuệ nhân tạo nên được xác minh giống như các thay đổi trạng thái của blockchain.

Xác minh diễn ra thông qua một mạng lưới các nút độc lập, với các nhà điều hành được kích thích kinh tế để thực hiện xác minh chính xác. Bằng cách cân đối phần thưởng với sự trung thực, hệ thống của Mira ngăn chặn những người tham gia xấu và đảm bảo kết quả đáng tin cậy.

Đây là cách hoạt động:

  1. Một nhà phát triển AI tạo một tập dữ liệu đầu ra từ mô hình của họ và gửi nó đến Mira qua một API.
  2. Mira chuyển đổi tập dữ liệu thành các câu hỏi trắc nghiệm (nhị phân hóa) và chia nó thành các phần nhỏ hơn, dễ quản lý (sharding).
  3. Những mảnh này được phân phối cho mạng lưới nút xác minh của Mira. Mỗi nút nhận một mảnh khác nhau để xác minh.
  4. Mỗi nút độc lập đánh giá các câu hỏi trong phân vùng được giao và gửi kết quả của mình trở lại cho mạng.
  5. Các node được gán vào cùng một shard đạt được sự đồng thuận về kết quả xác minh, sau đó được tổng hợp thành đánh giá cuối cùng.
  6. Kết quả xác minh cuối cùng được trả về cho nhà phát triển AI, cùng với một chứng chỉ xác minh - một bằng chứng mã hóa về đánh giá. Chứng chỉ này được lưu trữ trên blockchain, tạo ra một bản ghi xác minh không thể sửa đổi.

Mira đảm bảo tính bảo mật của dữ liệu bằng cách chia dữ liệu đầu vào thành các phần nhỏ hơn, đảm bảo không có một nút đơn lẻ nào có quyền truy cập vào toàn bộ bộ dữ liệu.

Để đảm bảo an ninh bổ sung, Mira hỗ trợ các mức độ bảo mật linh hoạt, cho phép người dùng điều chỉnh số lượng shards dựa trên độ nhạy cảm của dữ liệu. Trong khi mức độ bảo mật cao yêu cầu nhiều hơn việc chia nhỏ (và do đó tăng chi phí), chúng cung cấp tính bảo mật bổ sung cho người dùng xử lý thông tin nhạy cảm.

Mỗi xác minh mà một nút thực hiện đều được ghi lại trên blockchain, tạo ra một bản ghi minh bạch và có thể kiểm tra của quá trình xác minh. Sổ cái không thể thay đổi này đảm bảo sự tin cậy và trách nhiệm mà các phương pháp truyền thống không dựa trên blockchain không thể đạt được.

Đây thiết lập một tiêu chuẩn mới cho việc xác minh trí tuệ nhân tạo an toàn và không thiên vị.

Đảm bảo các Node hoàn thành công việc của mình

Trong mạng lưới phân tán của Mira, công việc trung thực được thưởng.

Chuyên gia có thể triển khai các mô hình trí tuệ nhân tạo chuyên dụng thông qua phần mềm node và kiếm token cho các xác minh chính xác. Các nhà phát triển trí tuệ nhân tạo, trong quá trình này, trả phí cho mỗi xác minh, tạo ra một vòng kinh tế tự duy trì giữa cung và cầu.

Phương pháp này cầu nối giá trị thực từ quy trình Web2 vào hệ sinh thái Web3, trực tiếp thưởng cho các nhà cung cấp suy luận và người tạo mô hình.

Nhưng động cơ đi kèm với những thách thức. Trong bất kỳ hệ thống phi tập trung nào, những người chơi xấu sẽ cố gắng lợi dụng mạng lưới, gửi kết quả giả để kiếm phần thưởng mà không cần làm việc.

Vậy, làm thế nào chúng ta đảm bảo các node thực sự thực hiện nhiệm vụ của mình một cách chính xác và trung thực?

Để duy trì tính toàn vẹn, Mira sử dụng Proof-of-Verification—một cơ chế được lấy cảm hứng từ proof-of-work của Bitcoin nhưng được thiết kế cho trí tuệ nhân tạo. Thay vì đào các khối, các nút phải chứng minh rằng họ đã hoàn thành nhiệm vụ xác minh để tham gia vào quá trình đồng thuận.

Dưới đây là cách nó hoạt động:

  • Yêu cầu Staking: Mỗi nút phải đặt cược token như một cam kết kinh tế. Nếu một nút liên tục nộp kết quả không chính xác, một phần của số tiền cược của nó sẽ bị cắt giảm như một hình phạt. Điều này đảm bảo các nút có quyền lợi và lý do để hành động trung thực.
  • Hình phạt cho Công việc Giả: Các nút gửi kết quả giả - như bỏ qua tính toán hoặc tạo ra kết quả ngẫu nhiên - đối mặt với hình phạt. Gian lận được phát hiện khi kết quả của họ thường xuyên lệch đáng kể so với sự nhất trí (giả sử hầu hết các nút là trung thực).

Proof-of-Verification tạo ra một hệ thống cân bằng trong đó các nút được động viên kinh tế để thực hiện các xác minh chất lượng cao. Cơ chế này đảm bảo rằng mạng luôn an toàn và đáng tin cậy theo thời gian.

Thách thức và Sự đánh đổi

Đây là câu hỏi: Nếu phương pháp của Mira hiệu quả đến vậy, tại sao không phải ai cũng làm theo?

Câu trả lời nằm ở sự hy sinh và phức tạp khi triển khai một hệ thống như vậy trong thế giới thực. Đạt được sự cân bằng hoàn hảo giữa việc đánh giá nhanh chóng, chính xác và quản lý sự phức tạp của nhiều mô hình không phải là một chiến công nhỏ.

Một trong những rào cản lớn nhất của Mira là độ trễ. Mặc dù việc sử dụng các mô hình tập hợp cho phép các xác minh chạy song song, việc đồng bộ hóa kết quả và đạt được sự đồng thuận gây ra sự trễ trễ. Quá trình chỉ nhanh như nút chậm nhất.

Hiện tại, điều này khiến Mira trở thành lựa chọn lý tưởng cho việc xử lý hàng loạt các đầu ra AI - các trường hợp sử dụng mà không yêu cầu kết quả thời gian thực. Khi mạng lưới mở rộng với nhiều nút hơn và sẵn có tính toán, mục tiêu dài hạn là đạt được xác minh thời gian thực, mở rộng khả năng áp dụng của Mira cho một loạt các tình huống.

Bên cạnh độ trễ, những thách thức khác bao gồm:

Độ phức tạp của kỹ thuật: Tổ chức đánh giá qua nhiều mô hình và đảm bảo cơ chế đồng thuận hoạt động mượt mà đòi hỏi nỗ lực kỹ thuật đáng kể.

Yêu cầu tính toán cao hơn: Ngay cả khi sử dụng các mô hình nhỏ hơn, việc chạy chúng cùng nhau trong các tập hợp tăng yêu cầu tính toán.

Thiết kế cơ chế đồng thuận tốt: Cách thức đồng thuận được đạt được - thông qua bỏ phiếu đa số, điểm số có trọng số, hoặc các phương pháp khác - đóng một vai trò quan trọng trong độ tin cậy của hệ thống. Trong những trường hợp mơ hồ, các tập hợp có thể gặp khó khăn trong việc cân nhắc, dẫn đến kết quả không nhất quán.

Ứng dụng & Các trường hợp sử dụng cho Mira

Nguồn: Mira

API của Mira dễ dàng tích hợp với bất kỳ ứng dụng nào, tương tự như GPT-4o của OpenAI. Nó không phụ thuộc vào người tiêu dùng và ứng dụng B2B, làm cho nó trở thành một giải pháp linh hoạt cho nhiều trường hợp sử dụng khác nhau. Hiện nay, hơn một chục ứng dụng sử dụng cơ sở hạ tầng của Mira.

Tích hợp Người tiêu dùng

On the consumer side, Mira is already powering AI verification for several early-stage AI apps:

  • Creato: Một ứng dụng khám phá và chia sẻ cho những câu trích dẫn và trạng thái cá nhân hàng ngày, phục vụ hơn 120k người dùng.
  • Astro247: Một nền tảng nơi người dùng trò chuyện với một nhà chiêm tinh AI để có tử vi và dự đoán được cá nhân hóa.
  • Amor: Một ứng dụng bạn đồng hành AI cho phép người dùng tương tác với nhân vật AI hư cấu để có cuộc trò chuyện sâu sắc.
  • Klok: Một ChatGPT tập trung vào tiền điện tử của Mira trả lời các câu hỏi về tiền điện tử bằng cách sử dụng các API như CoinMarketCap và dữ liệu thu thập được từ các trang web tiền điện tử và các cơ quan thông tin.

Delphi Oraclelà sự tích hợp mới nhất và có lẽ là tiên tiến nhất. Trợ lý nghiên cứu dựa trên trí tuệ nhân tạo này cho phép @Delphi_Digitalthành viên trực tiếp tương tác với nội dung nghiên cứu, đặt câu hỏi, làm rõ điểm, tích hợp nguồn cung cấp giá và điều chỉnh nội dung cho các cấp độ phức tạp khác nhau.

Delphi Oracle tận dụng công nghệ xác minh của Mạng Mira để cung cấp các phản hồi đáng tin cậy và chính xác. Bằng cách xác minh các phản hồi qua nhiều mô hình, Mira giảm tỷ lệ mất trí tưởng tượng từ ~30% xuống dưới 5%, đảm bảo một nền tảng tin cậy.

Tại trung tâm của Delphi Oracle là một bộ định tuyến truy vấn hiệu suất cao

  • Truy vấn giá: Được định tuyến trực tiếp đến các điểm dữ liệu thị trường để đáp ứng gần như tức thì.
  • Câu hỏi cơ bản: Được xử lý bởi hệ thống phản hồi được lưu trữ, cân bằng tốc độ và hiệu quả chi phí.
  • Các yêu cầu phức tạp: Được chuyển hướng đến một đường ống xử lý LLM chuyên biệt có khả năng tổng hợp thông tin từ nhiều nguồn.

Hệ thống định tuyến thông minh này, kết hợp với bộ nhớ đệm thông minh, đảm bảo hiệu suất tối ưu bằng cách cân bằng độ trễ, chi phí và chất lượng.

Kiểm tra của Mira đã cho thấy các mô hình nhỏ, hiệu quả về chi phí có thể xử lý hầu hết các truy vấn gần như tốt như các mô hình lớn hơn. Điều này đã dẫn đến giảm 90% chi phí vận hành, đồng thời vẫn duy trì các câu trả lời chất lượng cao mà người dùng mong đợi.

Mặc dù nhiều ứng dụng tiêu dùng này vẫn còn sớm, chúng làm nổi bật khả năng tích hợp một cách mượt mà của Mira và hỗ trợ cơ sở người dùng lớn, hoạt động tích cực. Không khó để tưởng tượng hàng ngàn ứng dụng kết nối vào hệ sinh thái của Mira - miễn là trải nghiệm phát triển viên vẫn đơn giản và đề xuất giá trị vẫn rõ ràng.

Ứng dụng B2B

Về mặt B2B, Mira đang tập trung vào việc tích hợp chuyên sâu trong các ngành nghề nơi niềm tin và sự chính xác là quan trọng nhất, với sự tập trung ban đầu vào lĩnh vực chăm sóc sức khỏe và giáo dục.

Các ứng dụng chính bao gồm:

  • Chăm sóc sức khỏe: Trợ lý AI cung cấp ý kiến thứ hai đáng tin cậy và hỗ trợ bác sĩ trong quyết định quan trọng.
  • Giáo dục: Trợ lí học tập cá nhân hóa thích nghi với nhu cầu của từng học sinh trong khi vẫn đảm bảo tính chính xác về sự thật và sự phù hợp với chương trình giảng dạy.
  • Dịch vụ pháp lý: Hệ thống có khả năng tóm tắt chính xác về luật pháp và dự đoán kết quả pháp lý để tối ưu hóa quy trình pháp lý.

Cuộc chơi cuối cùng của Mira

Mục tiêu cuối cùng của Mira là cung cấp các thế hệ đã được xác minh nguyên bản — nơi người dùng chỉ cần kết nối thông qua API, giống như OpenAI hoặc Anthropic và nhận đầu ra được xác minh trước khi chúng được trả lại.

Họ nhằm thay thế các phiên bản API mô hình hiện tại bằng cách cung cấp các phiên bản có độ tin cậy cao của các mô hình hiện tại (ví dụ, Mira-Claude-3.5-Sonnet hoặc Mira-OpenAI-GPT-4o), được cải thiện với tính năng tích hợp, độ tin cậy dựa trên đồng thuận.

Kích thước thị trường

Trí tuệ nhân tạo sinh sản đang trên một chiếc tàu vũ trụ. TheoBloombergTrong suốt thời gian tới, thị trường dự kiến sẽ tăng trưởng với tỷ suất tăng trưởng hàng năm ấn tượng lên đến 42%, với doanh thu vượt qua 1 nghìn tỷ đô la vào năm 2030. Trong làn sóng khổng lồ này, các công cụ cải thiện tốc độ, độ chính xác và đáng tin cậy của quy trình làm việc trí tuệ nhân tạo sẽ thu hút một phần quan trọng.

Khi các doanh nghiệp tích hợp LLM vào quy trình làm việc của mình - từ các chatbot hỗ trợ khách hàng đến các trợ lý nghiên cứu phức tạp - nhu cầu kiểm tra mô hình mạnh mẽ trở nên càng cấp thiết hơn.

Tổ chức sẽ tìm kiếm các công cụ có thể (1) đo lường độ chính xác và đáng tin cậy của mô hình, (2) chẩn đoán sự không hiệu quả về thời gian và tham số, (3) liên tục theo dõi hiệu suất và sự thay đổi, và (4) đảm bảo tuân thủ các khung pháp luật mới về an toàn trong trí tuệ nhân tạo.

Quen thuộc không? Đây là một chiến lược mà chúng ta đã thấy trước đó với MLOps (viết tắt của “Machine Learning Operations” - Hoạt động Máy học). Khi máy học mở rộng trong thập kỷ 2010, các công cụ để triển khai, theo dõi và duy trì các mô hình trở nên cần thiết, tạo ra một thị trường hàng tỷ đô la. Với sự phát triển của AI sáng tạo, LLMOps đang đi theo cùng quỹ đạo.

Bắt được ngay cả một phần nhỏ của thị trường nghìn tỷ đô la có thể đẩy ngành con này lên trên 100 tỷ đô la vào năm 2030.

Một số công ty khởi nghiệp Web2 đã tự định vị, cung cấp các công cụ để chú thích dữ liệu, điều chỉnh mô hình và đánh giá hiệu suất:

• Braintrust (36 triệu đô la được gọi vốn)

• Vellum AI (đã huy động được $5 triệu)

• Humanloop (đã gây quỹ $2.8 triệu)

Những động lực ban đầu này đang đặt nền móng, nhưng không gian là chất lỏng. Vào năm 2025, chúng ta có thể sẽ thấy sự gia tăng của các công ty khởi nghiệp trong lĩnh vực này. Một số có thể chuyên về các số liệu đánh giá thích hợp (ví dụ: phát hiện thiên vị và kiểm tra độ mạnh), trong khi những người khác mở rộng các dịch vụ của họ để bao gồm toàn bộ vòng đời phát triển AI.

Các công ty công nghệ lớn hơn như các nhà cung cấp đám mây lớn và nền tảng AI có thể sẽ kết hợp các tính năng đánh giá vào các dịch vụ của mình. Tháng trước,OpenAIGate đã giới thiệu đánh giá trực tiếp trên nền tảng của mình. Để cạnh tranh, các startup phải phân biệt thông qua chuyên môn hóa, dễ sử dụng và phân tích tiên tiến.

Mira không phải là đối thủ trực tiếp của những công ty khởi nghiệp hoặc công ty lớn hiện tại. Thay vào đó, đó là một nhà cung cấp cơ sở hạ tầng tích hợp một cách mượt mà với cả hai thông qua API. Chìa khóa? Nó chỉ cần hoạt động.

Kích thước thị trường ban đầu của Mira liên quan đến LLMOps, nhưng thị trường tiềm năng tổng thể sẽ mở rộng đến tất cả các ứng dụng Trí tuệ nhân tạo vì mọi ứng dụng AI sẽ cần đầu ra đáng tin cậy hơn.

Từ góc độ lý thuyết trò chơi, Mira đang ở trong một tình huống đặc biệt. Không giống như các nhà cung cấp mô hình khác như OpenAI, những người bị khóa trong việc hỗ trợ hệ thống của riêng họ, Mira có thể tích hợp trên các mô hình. Điều này định vị Mira là lớp tin cậy cho AI, cung cấp độ tin cậy mà không nhà cung cấp nào có thể sánh kịp.

Lộ trình 2025

Lộ trình năm 2025 của Mira nhằm mục đích cân bằng tính toàn vẹn, khả năng mở rộng và sự tham gia của cộng đồng trên con đường phân cấp đầy đủ:

Giai đoạn 1: Khởi động Niềm tin (Nơi chúng ta đang ở ngày hôm nay)

Ở giai đoạn đầu, các nhà điều hành nút được duyệt đảm bảo tính đáng tin cậy của mạng. Các nhà cung cấp tính toán GPU nổi tiếng phục vụ là làn sóng điều hành đầu tiên, xử lý các hoạt động ban đầu và đặt nền móng vững chắc cho sự phát triển.

Giai đoạn 2: Tái phân quyền tiến bộ

Mira giới thiệu tính năng sao chép được thiết kế, trong đó nhiều phiên bản của cùng một mô hình trình xác minh xử lý từng yêu cầu. Mặc dù điều này làm tăng chi phí xác minh, nhưng điều cần thiết là xác định và loại bỏ các toán tử độc hại. Bằng cách so sánh đầu ra giữa các nút, các tác nhân xấu được phát hiện sớm.

Ở dạng trưởng thành, Mira sẽ triển khai phân mảnh ngẫu nhiên để phân phối các tác vụ xác minh. Điều này làm cho sự thông đồng không khả thi về mặt kinh tế và tăng cường khả năng phục hồi và bảo mật của mạng khi nó mở rộng quy mô.

Giai đoạn 3: Mô hình nền tổng hợp

Ở đây, Mira sẽ cung cấp các thế hệ được xác minh một cách tự nhiên. Người dùng sẽ kết nối qua API, tương tự như OpenAI hoặc Anthropic, và nhận được các kết quả đã được xác minh trước - các kết quả đáng tin cậy, sẵn sàng sử dụng mà không cần xác minh bổ sung.

Trong những tháng sắp tới, Mira đang chuẩn bị cho một số cột mốc quan trọng:

  • Ra mắt Mira Flows, sản phẩm quy trình làm việc trí tuệ nhân tạo cho phép nhà phát triển xây dựng ứng dụng trí tuệ nhân tạo dựa trên API một cách nhanh chóng
  • Mạng thử nghiệm công khai vào tháng 1.
  • Một đợt ra mắt token cũng đang trong tầm nhìn, dự kiến diễn ra trong quý 1 năm 2024.

🌈 Chương trình Ủy quyền Node

Mira đang mở rộng cơ hội tham gia cộng đồng thông quaChương trình ủy quyền Node. Sáng kiến này giúp cho việc hỗ trợ mạng trở nên dễ dàng cho mọi người - không cần kiến thức kỹ thuật.

Quá trình đơn giản: Bạn có thể thuê tài nguyên tính toán và ủy quyền cho một nhóm chọn lọc các nhà điều hành nút. Các đóng góp có thể dao động từ 35 đến 750 đô la và đề xuất thưởng cho việc hỗ trợ mạng. Mira quản lý toàn bộ cơ sở hạ tầng phức tạp, vì vậy người ủy quyền nút có thể ngồi lại, theo dõi sự phát triển của mạng và thu được một số lợi nhuận.

Nhóm

Ngày nay, Mira có một đội ngũ nhỏ nhưng chặt chẽ, chủ yếu tập trung vào kỹ thuật.

Có 3 đồng sáng lập:

  1. @karansirdesai (Giám đốc điều hành), trước đây là thành viên của nhóm đầu tư Crypto & AI tại Accel và làm tư vấn tại BCG
  2. Sid Doddipalli (CTO) là cựu sinh viên của IIT Madras và trước đây là đồng sáng lập tại Stader Labs, một nền tảng staking lỏng trên Ethereum với tổng giá trị khoảng $400 triệu
  3. Ninad Naik (Trưởng Phòng Sản phẩm) đã giữ các vai trò lãnh đạo như Giám đốc Quản lý Sản phẩm tại Uber và là Tổng Quản lý tại phân cấp Nhà thông minh của Amazon.

Cùng nhau, họ kết hợp sự sáng suốt trong đầu tư, sự đổi mới kỹ thuật và vai trò sản phẩm để thực hiện tầm nhìn của Mira về việc xác minh trí tuệ nhân tạo phi tập trung. Mira đã huy động được 9 triệu đô lavòng góivào tháng 7 năm 2024, do BITKRAFT và Framework Ventures dẫn đầu.

Suy nghĩ của chúng tôi

Rất làm mới khi thấy một nhóm Crypto AI đang giải quyết một vấn đề cốt lõi của Web2 AI - làm cho AI tốt hơn - thay vì chơi các trò chơi đầu cơ trong bong bóng của tiền điện tử.

  1. Xác minh sẽ là từ mới nổi AI năm 2025

Ngành công nghiệp đang tỉnh táo với sự quan trọng của việc xác minh. Dựa vào “cảm giác” không còn đủ. Mọi ứng dụng AI và quy trình làm việc sẽ sớm cần một quy trình xác minh đúng đắn—và không phải là điều quá tưởng tượng khi tưởng tượng về các quy định tương lai buộc phải thực hiện những quy trình này để đảm bảo an toàn.

Phương pháp của Mira sử dụng nhiều mô hình để xác minh đầu ra một cách độc lập, tránh sự phụ thuộc vào một mô hình tập trung duy nhất. Khung công việc phi tập trung này tăng cường sự tin tưởng và giảm rủi ro về thiên lệch và sự thao túng.

Và hãy xem xét điều gì sẽ xảy ra nếu chúng ta đạt được AGI trong vài năm tới (một khả năng thực sự).

NhưAnand Iyer (@AITừ Canonical chỉ ra, nếu trí tuệ nhân tạo có thể tinh tế thao túng quyết định và mã lệnh, làm sao chúng ta có thể tin tưởng vào các hệ thống kiểm thử cho những hành vi này? Những người thông minh đang nghĩ tới tương lai.nghiên cứu của Anthropic underscores the urgency, highlighting evaluations as a critical tool to identify potentially dangerous AI capabilities before they escalate into problems.

Bằng cách tạo ra sự minh bạch cực độ, các chuỗi khối thêm vào một lớp bảo vệ mạnh mẽ chống lại các hệ thống AI sai trái. Cơ chế đồng thuận không đáng tin cậy đảm bảo rằng các đánh giá về an toàn được xác minh bởi hàng ngàn nút độc lập (như trên Mira), giảm đáng kể nguy cơ tấn công Sybil.

  1. Tầm nhìn tham vọng với rủi ro thực hiện

Mira đang theo đuổi một thị trường lớn với nhu cầu rõ ràng cho một giải pháp hoạt động. Nhưng những thách thức là thật sự. Cải thiện độ trễ, độ chính xác và hiệu quả chi phí sẽ đòi hỏi nỗ lực kỹ thuật không ngừng và thời gian. Đội ngũ sẽ cần liên tục chứng minh rằng phương pháp của họ đo được tốt hơn so với các phương pháp hiện có.

Sự đổi mới cốt lõi nằm ở quy trình binarization và sharding của Mira. “Nước sốt bí mật” này hứa hẹn sẽ giải quyết các thách thức về khả năng mở rộng và niềm tin. Để Mira thành công, công nghệ này cần phải thực hiện đúng lời hứa của mình.

  1. Thiết kế Token & mẹo bí mật của Mira

Trong bất kỳ mạng lưới phi tập trung nào, thiết kế token và động cơ khuyến mãi đều là các yếu tố quyết định thành bại. Sự thành công của Mira sẽ phụ thuộc vào việc cơ chế này có tương thích với lợi ích của người tham gia và duy trì tính toàn vẹn của mạng lưới như thế nào.

Trong khi chi tiết về tokenomics của Mira vẫn được giữ kín, tôi mong đợi đội ngũ sẽ tiết lộ thêm khi token ra mắt vào đầu năm 2025.

Một Tương Lai Tươi Sáng

“Chúng tôi đã phát hiện rằng những nhóm kỹ sư triển khai đánh giá tuyệt vời di chuyển nhanh hơn đáng kể - lên đến 10 lần nhanh hơn - so với những người chỉ xem xét những gì xảy ra trong sản xuất và cố gắng sửa chữa chúng theo cách tạm thời,” - Ankur Goyal, Braintrust

Trong một thế giới do trí tuệ nhân tạo điều khiển, niềm tin là tất cả.

Khi các mô hình trở nên phức tạp hơn, việc xác minh đáng tin cậy sẽ là nền tảng cho mọi sản phẩm AI tuyệt vời. Chúng giúp chúng ta giải quyết những ảo tưởng, loại bỏ sự thiên vị và đảm bảo đầu ra AI phù hợp với nhu cầu thực tế của người dùng.

Mira tự động hóa việc xác minh, giảm chi phí và sự phụ thuộc vào sự can thiệp của con người. Điều này mở ra các vòng lặp nhanh hơn, điều chỉnh trong thời gian thực và các giải pháp có thể mở rộng mà không gặp trở ngại.

Cuối cùng, Mira nhằm trở thành API cho sự tin cậy—một khung xác minh phi tập trung mà mọi nhà phát triển và ứng dụng trí tuệ nhân tạo có thể phụ thuộc để có câu trả lời đã xác minh.

Đây là một bước đi táo bạo, tham vọng, và chính xác những gì thế giới AI cần.

Cảm ơn bạn đã đọc, Teng Yan

Thông báo từ chối trách nhiệm:

  1. Bài viết này được in lại từ [Teng Yan]. Chuyển Tiêu Đề Gốc: Mira: AI Được Xác Minh Không Cần Tin Cậy. Tất cả bản quyền thuộc về tác giả gốc [ Teng Yan]. Nếu có bất kỳ ý kiến ​​phản đối về việc tái bản này, vui lòng liên hệ Gate Learnđội ngũ, và họ sẽ xử lý nó một cách nhanh chóng.
  2. Từ chối trách nhiệm về trách nhiệm: Quan điểm và ý kiến được biểu đạt trong bài viết này chỉ thuộc về tác giả và không đại diện cho bất kỳ lời khuyên đầu tư nào.
  3. Việc dịch bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm gate Learn. Trừ khi đã được đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết đã được dịch là không được phép.

Mira: Xây dựng niềm tin trong việc xác minh đầu ra AI

Trung cấp1/14/2025, 12:32:46 PM
Trong những năm gần đây, sự tiến bộ nhanh chóng của trí tuệ nhân tạo tạo ra những yêu cầu mới đối với cơ sở hạ tầng và quy trình làm việc, đặc biệt là trong việc xác thực và đánh giá. Sự đáng tin cậy của các ứng dụng trí tuệ nhân tạo chặt chẽ liên quan đến sự tin tưởng của người dùng, và Mira đã cam kết giải quyết vấn đề cốt lõi này thông qua mạng lưới phi tập trung, thiết lập các tiêu chuẩn mới cho việc xác thực và đánh giá trí tuệ nhân tạo.

Chuyển tiếp Tiêu đề Gốc: Mira: AI Được Xác minh không cần tin tưởng

TL; DR

  • Xác minh các đầu ra là rất quan trọng để đảm bảo AI hoạt động đáng tin cậy.
  • Mira đang xây dựng một mạng lưới tầng 1 cung cấp xác thực không đáng tin cậy, có khả năng mở rộng và chính xác của đầu ra trí tuệ nhân tạo.
  • Đồng thời giảm thiểu ảo giác và đảo lộn cũng là một sự cân bằng tinh tế. Mira thực hiện điều này bằng cách khai thác sự hiểu biết chung của các mô hình AI.
  • Hệ thống xác minh của Mira được xây dựng trên hai nguyên tắc thiết kế cơ bản: (1) Phân chia đầu ra của trí tuệ nhân tạo thành các phần nhỏ, dễ xác minh, và (2) Sử dụng một bộ sưu tập các mô hình để xác minh từng phần.
  • Kích thước thị trường ban đầu của Mira liên quan đến LLMOps, nhưng thị trường tiềm năng tổng thể có thể mở rộng đến tất cả các ứng dụng AI vì mọi ứng dụng AI sẽ cần đầu ra đáng tin cậy hơn.
  • Mira đang cung cấp xác minh AI cho một số ứng dụng AI với hơn 200 nghìn người dùng.
  • Mục tiêu cuối cùng của Mira là trở thành một mô hình nền tảng tổng hợp, liên kết một cách mượt mà với mọi nhà cung cấp hàng đầu để cung cấp đầu ra đã được xác minh trước thông qua một API duy nhất.

Ảo giác: một trải nghiệm liên quan đến sự cảm nhận rõ ràng về một điều gì đó không có mặt.

Andrej Karpathy gọi AI là “cỗ máy mơ ước”. Ông tin rằng ảo giác - những khoảnh khắc khi AI tự tin tạo ra những thứ không có thật - là một tính năng, không phải là một lỗi. Thật vô ích khi cố gắng loại bỏ chúng hoàn toàn. Và thành thật mà nói, có một cái gì đó thơ mộng về điều đó.

Các mô hình ngôn ngữ lớn (LLMs) là một nghệ sĩ, một người sáng tạo. Nó mơ mộng trong mã, tạo ra ý tưởng từ hư không, và tạo nên ý nghĩa từ dữ liệu. Nhưng để trí tuệ nhân tạo chuyển từ những giấc mơ đẹp đẽ sang các ứng dụng thực tế hàng ngày, chúng ta phải kiềm chế những ảo giác đó.

Tỷ lệ lỗi cho LLM vẫn cao ở nhiều nhiệm vụ - thường dao động xung quanh 30%. Ở mức đó, LLM vẫn cần sự can thiệp của con người để đạt được một chuẩn độ chính xác có thể sử dụng được.

Nhưng khi chúng ta đạt được độ chính xác 99.x% khó tìm ấy - nơi đầu ra đáng tin cậy mà không cần sự giám sát của con người - thì phép màu xảy ra. Đó là ngưỡng mà trí tuệ nhân tạo đạt được độ tin cậy tương đương với con người, mở khóa một vũ trụ vô tận các trường hợp sử dụng trước đây không thể đạt được.

Tuy nhiên, đạt được mức độ chính xác đó không phải là một kỳ tích nhỏ. Điều này đòi hỏi nỗ lực kỹ thuật không ngừng nghỉ và sự đổi mới.

Câu chuyện của @Mira_NetworkBắt đầu từ đây. Nhưng trước khi chúng ta bắt đầu, hãy dành chút thời gian để nói về việc phát triển LLM - và tại sao việc xác minh đang trở thành xu hướng tiếp theo trong trí tuệ nhân tạo.

Làm thế nào một LLM ra đời

Phát triển LLM là sự tiến hóa mới nhất trong hành trình học sâu — khác biệt so với các phương pháp phát triển phần mềm truyền thống mà chúng ta đã hoàn thiện trong hơn 50 năm qua. LLM, chỉ mới xuất hiện khoảng ba năm, hoàn toàn thay đổi cách suy nghĩ, chuyển từ tư duy xác định (nếu X, thì Y) sang lý luận xác suất (nếu X, thì… có lẽ Y?).

Điều này có nghĩa là cơ sở hạ tầng cho một thế giới do trí tuệ nhân tạo điều hành đòi hỏi một bộ công cụ và quy trình làm việc hoàn toàn mới. Tuy nhiên, nhiều công cụ này vẫn bị khóa bên trong các phòng thí nghiệm nghiên cứu đã tạo ra LLMs.

Thông tin tốt là những công cụ này đang bắt đầu được công bố rộng rãi, mở ra một thế giới các khả năng cho các nhà phát triển trên toàn thế giới.

Ở cuối quy trình công việc mới này nằm một phần quan trọng của bức tranh: đánh giá và xác minh. Hôm nay, ánh đèn sân khấu của chúng ta chiếu trực tiếp lên những cái này. Chúng trả lời một câu hỏi cơ bản: AI hoạt động tốt không?

Xác minh = Tin cậy

Niềm tin là nền tảng của bất kỳ sản phẩm trí tuệ nhân tạo nào tuyệt vời.

Khi trí tuệ nhân tạo trở thành một phần ngày càng quan trọng của cuộc sống của chúng ta, công nghệ chính nó vẫn còn mong manh. Sai lầm xảy ra, và khi điều đó xảy ra, sự tin tưởng sẽ bị mòn nhanh chóng. Người dùng mong đợi trí tuệ nhân tạo phải chính xác, không thiên vị và thực sự hữu ích, nhưng mà không có hệ thống đáng tin cậy để đảm bảo điều đó, sự bực tức tăng—và sự bực tức dẫn đến việc chuyển đổi.

Đây là nơi mà các xác minh trở nên quan trọng.

Xác thực hoạt động như một cơ chế bảo vệ. Chúng là tầng đảm bảo chất lượng mà các nhà phát triển dựa vào để tinh chỉnh đầu ra và xây dựng hệ thống mà người dùng có thể tin tưởng.

Mira đang giải quyết một vấn đề cốt lõi của Web2 với sự minh bạch không đáng tin cậy của tiền mã hóa. Bằng cách tận dụng một mạng lưới phi tập trung các nút xác minh, Mira đảm bảo rằng đầu ra của trí tuệ nhân tạo được xác minh một cách chính xác và độc lập.

Nhập Mira

Hãy nói rằng bạn có một đoạn văn bản đầu ra từ một LLM về thành phố Paris. Làm thế nào để xác minh rằng nó chính xác? Điều này khó khăn vì có quá nhiều sắc thái xung quanh mọi thứ từ những tuyên bố đến cấu trúc của nội dung đến phong cách viết.

Đây là nơi mà Mira bước vào.

Tầm nhìn của Mira rất táo bạo: tạo ra một mạng lưới tầng 1 cung cấp xác nhận AI không cần tin cậy, có khả năng mở rộng và chính xác. Bằng cách tận dụng trí tuệ tập thể, Mira giảm thiểu sự thiên vị và ảo tưởng, giải quyết các vấn đề cốt lõi như sự công bằng và chi phí, đồng thời chứng minh cách mà blockchain thực sự có thể tăng cường trí tuệ nhân tạo.

Nguồn: Mira

Kết quả ban đầu rất hứa hẹn. Trong một lần gần đâynghiên cứu được công bố trên Arxiv, Mira đã chứng minh rằng việc sử dụng nhiều mô hình để tạo ra kết quả và yêu cầu sự đồng lòng tăng đáng kể độ chính xác. Độ chính xác đạt 95,6% với ba mô hình, so với 73,1% cho một kết quả mô hình duy nhất.

Hai yếu tố thiết kế quan trọng làm nền tảng cho phương pháp của Mira:

  • Sharding & Binarization của nội dung: Phân mảnh đầu ra AI phức tạp thành các phần nhỏ, có thể xác minh một cách độc lập.
  • Đa dạng mô hình: Tận dụng nhiều mô hình để cải thiện độ tin cậy và giảm thiểu sự thiên lệch.

#1: Chuyển đổi nội dung qua quá trình nhị phân hóa và tách rời

Các kết quả do trí tuệ nhân tạo tạo ra có thể từ các câu tối giản đến các bài luận dài, nhờ vào chi phí gần như bằng không của việc tạo nội dung. Tuy nhiên, sự phong phú này tạo ra một thách thức: làm thế nào để đảm bảo tính chính xác của các kết quả đa dạng như vậy?

Giải pháp của Mira rất đơn giản: phân tách nó ra.

@Mira_Networkbiến đổi nội dung phức tạp được tạo ra bởi trí tuệ nhân tạo thành các phần nhỏ, dễ tiêu hóa mà các mô hình trí tuệ nhân tạo có thể đánh giá một cách khách quan trong quá trình gọi là sharding.

Bằng cách chuẩn hóa các đầu ra và chia chúng thành những tuyên bố cụ thể, có thể xác minh, Mira đảm bảo mỗi phần có thể được đánh giá một cách nhất quán, loại bỏ sự mơ hồ mà thường xuyên làm mất công đánh giá.

Ví dụ, hãy xem xét câu lệnh phức hợp này:

Quang hợp xảy ra trong cây để chuyển đổi ánh sáng mặt trời thành năng lượng, và ong đóng vai trò quan trọng trong việc thụ phấn bằng cách truyền phấn hoa giữa các bông hoa.

Trên bề mặt, có vẻ như việc xác minh đơn giản. Nhưng khi đưa cho nhiều mô hình, những khía cạnh phiên dịch có thể dẫn đến các câu trả lời khác nhau. Việc chuyển đổi nội dung của Mira qua cách gom nhóm giải quyết vấn đề này bằng cách chia câu thành hai yêu cầu độc lập:

  1. Quang hợp xảy ra trong thực vật để chuyển đổi ánh sáng thành năng lượng.
  2. “Ong đóng vai trò quan trọng trong việc thụ phấn bằng cách chuyển phấn hoa giữa các hoa.”

Sau khi được chia thành các mảnh, mỗi yêu cầu được chuyển đổi thành một câu hỏi đa lựa chọn. Những câu hỏi này được phân phối đến một mạng lưới các nút chạy các mô hình AI. Sử dụng phương pháp xác minh tập hợp của Mira, các mô hình cùng nhau đánh giá và xác nhận tính hợp lệ của mỗi yêu cầu.

Hiện tại, khả năng chia nhỏ và nhị phân hóa nội dung của Mira tập trung vào đầu vào văn bản. Đến đầu năm 2025, quy trình này sẽ mở rộng hỗ trợ đầu vào đa phương thức, chẳng hạn như hình ảnh và video.

#2: Một Nhóm, Không Phải Là Một Cá Nhân

Mira đã phát triển một hệ thống xác minh tiên tiến kết hợp sức mạnh của nhiều mô hình trí tuệ nhân tạo để đánh giá chất lượng đầu ra của trí tuệ nhân tạo.

Hãy mở gói nó.

Các đánh giá tự động truyền thống thường dựa vào một mô hình ngôn ngữ lớn duy nhất (LLM), như GPT-4, làm trọng tài cuối cùng về chất lượng. Mặc dù có chức năng, cách tiếp cận này có những sai sót đáng kể: nó tốn kém, dễ bị thiên vị và bị giới hạn bởi những điều kỳ quặc và “tính cách” vốn có trong các mô hình.

Bước đột phá của Mira là chuyển từ sự phụ thuộc vào một mô hình lớn duy nhất sang việc tận dụngtập hợp của những LLM đa dạng. Bộ sưu tập này xuất sắc trong các nhiệm vụ nơi độ chính xác về sự thật quan trọng hơn so với sự sáng tạo, giảm tỷ lệ lỗi và cung cấp các xác minh đáng tin cậy, nhất quán hơn.

Các kỹ thuật tổ hợp đã được nghiên cứu kỹ trong các nhiệm vụ học máy như phân loại, và Mira hiện đang mang lại điều này cho việc xác minh.

Ở trung tâm của hệ thống Mira là Bảng xác minh LLM (Panel of LLM verifiers - PoLL) - một mạng lưới cộng tác của các mô hình làm việc cùng nhau để xác minh đầu ra. Hãy tưởng tượng đó là một bảng đa dạng các chuyên gia đánh giá một quyết định thay vì để cho một thẩm phán đơn lẻ có khả năng thiên vị.

Và điều này không chỉ là mơ ước mơ hồ—nó dựa trên nghiên cứu. Hãy nhìn vào biểu đồ dưới đây:

Một nghiên cứu Coheređã xuất bảnvào tháng 4 năm 2024 đã chứng minh rằng một bảng ba mô hình nhỏ hơn - GPT-3.5, Claude-3 Haiku và Command R - phù hợp hơn với các đánh giá của con người hơn GPT-4 một mình. Đáng chú ý, phương pháp tập hợp này cũng rẻ hơn 7 lần.

Mira hiện đang đưa nghiên cứu này vào thực tế, triển khai phương pháp xác minh tổ hợp của mình ở quy mô lớn. Kết quả nội bộ mà họ đã chia sẻ cho đến nay rất thuyết phục:

• Tỷ lệ lỗi giảm từ 80% xuống còn 5% cho các nhiệm vụ tư duy phức tạp.

• Cải thiện 5 lần về tốc độ và chi phí so với xác minh bằng con người.

Điều này không phải là một thành tựu nhỏ. Bằng cách sử dụng cơ chế đồng thuận, hợp tác đội ngũ mô hình đa dạng của Mira hiệu quả loại bỏ những ảo giác và cân bằng sự thiên vị của mỗi mô hình cá nhân. Cùng nhau, họ mang lại cái gì đó lớn hơn tổng của các thành phần của họ: các xác nhận nhanh hơn, rẻ hơn và phù hợp hơn với nhu cầu của chúng ta.

Cách Hoạt Động - Thiết Kế Kiến Trúc

Tóm lại, hệ thống xác minh của Mira được xây dựng trên hai nguyên tắc thiết kế cơ bản:

  • Phân chia đầu ra AI thành các phần nhỏ hơn, dễ dàng xác minh.
  • Xác minh từng mảnh bằng một bộ sưu tập các mô hình AI đa dạng.

Giữ một tập hợp đa dạng các mô hình là điều cần thiết để có được đầu ra chất lượng cao, làm cho thiết kế của Mira lý tưởng cho một kiến trúc phi tập trung. Loại bỏ các điểm thất bại duy nhất là rất quan trọng đối với bất kỳ sản phẩm xác minh nào.

Mira sử dụng một phương pháp dựa trên blockchain để đảm bảo không có một thực thể duy nhất có thể thao túng kết quả. Tiền đề đơn giản: các đầu ra được tạo bởi trí tuệ nhân tạo nên được xác minh giống như các thay đổi trạng thái của blockchain.

Xác minh diễn ra thông qua một mạng lưới các nút độc lập, với các nhà điều hành được kích thích kinh tế để thực hiện xác minh chính xác. Bằng cách cân đối phần thưởng với sự trung thực, hệ thống của Mira ngăn chặn những người tham gia xấu và đảm bảo kết quả đáng tin cậy.

Đây là cách hoạt động:

  1. Một nhà phát triển AI tạo một tập dữ liệu đầu ra từ mô hình của họ và gửi nó đến Mira qua một API.
  2. Mira chuyển đổi tập dữ liệu thành các câu hỏi trắc nghiệm (nhị phân hóa) và chia nó thành các phần nhỏ hơn, dễ quản lý (sharding).
  3. Những mảnh này được phân phối cho mạng lưới nút xác minh của Mira. Mỗi nút nhận một mảnh khác nhau để xác minh.
  4. Mỗi nút độc lập đánh giá các câu hỏi trong phân vùng được giao và gửi kết quả của mình trở lại cho mạng.
  5. Các node được gán vào cùng một shard đạt được sự đồng thuận về kết quả xác minh, sau đó được tổng hợp thành đánh giá cuối cùng.
  6. Kết quả xác minh cuối cùng được trả về cho nhà phát triển AI, cùng với một chứng chỉ xác minh - một bằng chứng mã hóa về đánh giá. Chứng chỉ này được lưu trữ trên blockchain, tạo ra một bản ghi xác minh không thể sửa đổi.

Mira đảm bảo tính bảo mật của dữ liệu bằng cách chia dữ liệu đầu vào thành các phần nhỏ hơn, đảm bảo không có một nút đơn lẻ nào có quyền truy cập vào toàn bộ bộ dữ liệu.

Để đảm bảo an ninh bổ sung, Mira hỗ trợ các mức độ bảo mật linh hoạt, cho phép người dùng điều chỉnh số lượng shards dựa trên độ nhạy cảm của dữ liệu. Trong khi mức độ bảo mật cao yêu cầu nhiều hơn việc chia nhỏ (và do đó tăng chi phí), chúng cung cấp tính bảo mật bổ sung cho người dùng xử lý thông tin nhạy cảm.

Mỗi xác minh mà một nút thực hiện đều được ghi lại trên blockchain, tạo ra một bản ghi minh bạch và có thể kiểm tra của quá trình xác minh. Sổ cái không thể thay đổi này đảm bảo sự tin cậy và trách nhiệm mà các phương pháp truyền thống không dựa trên blockchain không thể đạt được.

Đây thiết lập một tiêu chuẩn mới cho việc xác minh trí tuệ nhân tạo an toàn và không thiên vị.

Đảm bảo các Node hoàn thành công việc của mình

Trong mạng lưới phân tán của Mira, công việc trung thực được thưởng.

Chuyên gia có thể triển khai các mô hình trí tuệ nhân tạo chuyên dụng thông qua phần mềm node và kiếm token cho các xác minh chính xác. Các nhà phát triển trí tuệ nhân tạo, trong quá trình này, trả phí cho mỗi xác minh, tạo ra một vòng kinh tế tự duy trì giữa cung và cầu.

Phương pháp này cầu nối giá trị thực từ quy trình Web2 vào hệ sinh thái Web3, trực tiếp thưởng cho các nhà cung cấp suy luận và người tạo mô hình.

Nhưng động cơ đi kèm với những thách thức. Trong bất kỳ hệ thống phi tập trung nào, những người chơi xấu sẽ cố gắng lợi dụng mạng lưới, gửi kết quả giả để kiếm phần thưởng mà không cần làm việc.

Vậy, làm thế nào chúng ta đảm bảo các node thực sự thực hiện nhiệm vụ của mình một cách chính xác và trung thực?

Để duy trì tính toàn vẹn, Mira sử dụng Proof-of-Verification—một cơ chế được lấy cảm hứng từ proof-of-work của Bitcoin nhưng được thiết kế cho trí tuệ nhân tạo. Thay vì đào các khối, các nút phải chứng minh rằng họ đã hoàn thành nhiệm vụ xác minh để tham gia vào quá trình đồng thuận.

Dưới đây là cách nó hoạt động:

  • Yêu cầu Staking: Mỗi nút phải đặt cược token như một cam kết kinh tế. Nếu một nút liên tục nộp kết quả không chính xác, một phần của số tiền cược của nó sẽ bị cắt giảm như một hình phạt. Điều này đảm bảo các nút có quyền lợi và lý do để hành động trung thực.
  • Hình phạt cho Công việc Giả: Các nút gửi kết quả giả - như bỏ qua tính toán hoặc tạo ra kết quả ngẫu nhiên - đối mặt với hình phạt. Gian lận được phát hiện khi kết quả của họ thường xuyên lệch đáng kể so với sự nhất trí (giả sử hầu hết các nút là trung thực).

Proof-of-Verification tạo ra một hệ thống cân bằng trong đó các nút được động viên kinh tế để thực hiện các xác minh chất lượng cao. Cơ chế này đảm bảo rằng mạng luôn an toàn và đáng tin cậy theo thời gian.

Thách thức và Sự đánh đổi

Đây là câu hỏi: Nếu phương pháp của Mira hiệu quả đến vậy, tại sao không phải ai cũng làm theo?

Câu trả lời nằm ở sự hy sinh và phức tạp khi triển khai một hệ thống như vậy trong thế giới thực. Đạt được sự cân bằng hoàn hảo giữa việc đánh giá nhanh chóng, chính xác và quản lý sự phức tạp của nhiều mô hình không phải là một chiến công nhỏ.

Một trong những rào cản lớn nhất của Mira là độ trễ. Mặc dù việc sử dụng các mô hình tập hợp cho phép các xác minh chạy song song, việc đồng bộ hóa kết quả và đạt được sự đồng thuận gây ra sự trễ trễ. Quá trình chỉ nhanh như nút chậm nhất.

Hiện tại, điều này khiến Mira trở thành lựa chọn lý tưởng cho việc xử lý hàng loạt các đầu ra AI - các trường hợp sử dụng mà không yêu cầu kết quả thời gian thực. Khi mạng lưới mở rộng với nhiều nút hơn và sẵn có tính toán, mục tiêu dài hạn là đạt được xác minh thời gian thực, mở rộng khả năng áp dụng của Mira cho một loạt các tình huống.

Bên cạnh độ trễ, những thách thức khác bao gồm:

Độ phức tạp của kỹ thuật: Tổ chức đánh giá qua nhiều mô hình và đảm bảo cơ chế đồng thuận hoạt động mượt mà đòi hỏi nỗ lực kỹ thuật đáng kể.

Yêu cầu tính toán cao hơn: Ngay cả khi sử dụng các mô hình nhỏ hơn, việc chạy chúng cùng nhau trong các tập hợp tăng yêu cầu tính toán.

Thiết kế cơ chế đồng thuận tốt: Cách thức đồng thuận được đạt được - thông qua bỏ phiếu đa số, điểm số có trọng số, hoặc các phương pháp khác - đóng một vai trò quan trọng trong độ tin cậy của hệ thống. Trong những trường hợp mơ hồ, các tập hợp có thể gặp khó khăn trong việc cân nhắc, dẫn đến kết quả không nhất quán.

Ứng dụng & Các trường hợp sử dụng cho Mira

Nguồn: Mira

API của Mira dễ dàng tích hợp với bất kỳ ứng dụng nào, tương tự như GPT-4o của OpenAI. Nó không phụ thuộc vào người tiêu dùng và ứng dụng B2B, làm cho nó trở thành một giải pháp linh hoạt cho nhiều trường hợp sử dụng khác nhau. Hiện nay, hơn một chục ứng dụng sử dụng cơ sở hạ tầng của Mira.

Tích hợp Người tiêu dùng

On the consumer side, Mira is already powering AI verification for several early-stage AI apps:

  • Creato: Một ứng dụng khám phá và chia sẻ cho những câu trích dẫn và trạng thái cá nhân hàng ngày, phục vụ hơn 120k người dùng.
  • Astro247: Một nền tảng nơi người dùng trò chuyện với một nhà chiêm tinh AI để có tử vi và dự đoán được cá nhân hóa.
  • Amor: Một ứng dụng bạn đồng hành AI cho phép người dùng tương tác với nhân vật AI hư cấu để có cuộc trò chuyện sâu sắc.
  • Klok: Một ChatGPT tập trung vào tiền điện tử của Mira trả lời các câu hỏi về tiền điện tử bằng cách sử dụng các API như CoinMarketCap và dữ liệu thu thập được từ các trang web tiền điện tử và các cơ quan thông tin.

Delphi Oraclelà sự tích hợp mới nhất và có lẽ là tiên tiến nhất. Trợ lý nghiên cứu dựa trên trí tuệ nhân tạo này cho phép @Delphi_Digitalthành viên trực tiếp tương tác với nội dung nghiên cứu, đặt câu hỏi, làm rõ điểm, tích hợp nguồn cung cấp giá và điều chỉnh nội dung cho các cấp độ phức tạp khác nhau.

Delphi Oracle tận dụng công nghệ xác minh của Mạng Mira để cung cấp các phản hồi đáng tin cậy và chính xác. Bằng cách xác minh các phản hồi qua nhiều mô hình, Mira giảm tỷ lệ mất trí tưởng tượng từ ~30% xuống dưới 5%, đảm bảo một nền tảng tin cậy.

Tại trung tâm của Delphi Oracle là một bộ định tuyến truy vấn hiệu suất cao

  • Truy vấn giá: Được định tuyến trực tiếp đến các điểm dữ liệu thị trường để đáp ứng gần như tức thì.
  • Câu hỏi cơ bản: Được xử lý bởi hệ thống phản hồi được lưu trữ, cân bằng tốc độ và hiệu quả chi phí.
  • Các yêu cầu phức tạp: Được chuyển hướng đến một đường ống xử lý LLM chuyên biệt có khả năng tổng hợp thông tin từ nhiều nguồn.

Hệ thống định tuyến thông minh này, kết hợp với bộ nhớ đệm thông minh, đảm bảo hiệu suất tối ưu bằng cách cân bằng độ trễ, chi phí và chất lượng.

Kiểm tra của Mira đã cho thấy các mô hình nhỏ, hiệu quả về chi phí có thể xử lý hầu hết các truy vấn gần như tốt như các mô hình lớn hơn. Điều này đã dẫn đến giảm 90% chi phí vận hành, đồng thời vẫn duy trì các câu trả lời chất lượng cao mà người dùng mong đợi.

Mặc dù nhiều ứng dụng tiêu dùng này vẫn còn sớm, chúng làm nổi bật khả năng tích hợp một cách mượt mà của Mira và hỗ trợ cơ sở người dùng lớn, hoạt động tích cực. Không khó để tưởng tượng hàng ngàn ứng dụng kết nối vào hệ sinh thái của Mira - miễn là trải nghiệm phát triển viên vẫn đơn giản và đề xuất giá trị vẫn rõ ràng.

Ứng dụng B2B

Về mặt B2B, Mira đang tập trung vào việc tích hợp chuyên sâu trong các ngành nghề nơi niềm tin và sự chính xác là quan trọng nhất, với sự tập trung ban đầu vào lĩnh vực chăm sóc sức khỏe và giáo dục.

Các ứng dụng chính bao gồm:

  • Chăm sóc sức khỏe: Trợ lý AI cung cấp ý kiến thứ hai đáng tin cậy và hỗ trợ bác sĩ trong quyết định quan trọng.
  • Giáo dục: Trợ lí học tập cá nhân hóa thích nghi với nhu cầu của từng học sinh trong khi vẫn đảm bảo tính chính xác về sự thật và sự phù hợp với chương trình giảng dạy.
  • Dịch vụ pháp lý: Hệ thống có khả năng tóm tắt chính xác về luật pháp và dự đoán kết quả pháp lý để tối ưu hóa quy trình pháp lý.

Cuộc chơi cuối cùng của Mira

Mục tiêu cuối cùng của Mira là cung cấp các thế hệ đã được xác minh nguyên bản — nơi người dùng chỉ cần kết nối thông qua API, giống như OpenAI hoặc Anthropic và nhận đầu ra được xác minh trước khi chúng được trả lại.

Họ nhằm thay thế các phiên bản API mô hình hiện tại bằng cách cung cấp các phiên bản có độ tin cậy cao của các mô hình hiện tại (ví dụ, Mira-Claude-3.5-Sonnet hoặc Mira-OpenAI-GPT-4o), được cải thiện với tính năng tích hợp, độ tin cậy dựa trên đồng thuận.

Kích thước thị trường

Trí tuệ nhân tạo sinh sản đang trên một chiếc tàu vũ trụ. TheoBloombergTrong suốt thời gian tới, thị trường dự kiến sẽ tăng trưởng với tỷ suất tăng trưởng hàng năm ấn tượng lên đến 42%, với doanh thu vượt qua 1 nghìn tỷ đô la vào năm 2030. Trong làn sóng khổng lồ này, các công cụ cải thiện tốc độ, độ chính xác và đáng tin cậy của quy trình làm việc trí tuệ nhân tạo sẽ thu hút một phần quan trọng.

Khi các doanh nghiệp tích hợp LLM vào quy trình làm việc của mình - từ các chatbot hỗ trợ khách hàng đến các trợ lý nghiên cứu phức tạp - nhu cầu kiểm tra mô hình mạnh mẽ trở nên càng cấp thiết hơn.

Tổ chức sẽ tìm kiếm các công cụ có thể (1) đo lường độ chính xác và đáng tin cậy của mô hình, (2) chẩn đoán sự không hiệu quả về thời gian và tham số, (3) liên tục theo dõi hiệu suất và sự thay đổi, và (4) đảm bảo tuân thủ các khung pháp luật mới về an toàn trong trí tuệ nhân tạo.

Quen thuộc không? Đây là một chiến lược mà chúng ta đã thấy trước đó với MLOps (viết tắt của “Machine Learning Operations” - Hoạt động Máy học). Khi máy học mở rộng trong thập kỷ 2010, các công cụ để triển khai, theo dõi và duy trì các mô hình trở nên cần thiết, tạo ra một thị trường hàng tỷ đô la. Với sự phát triển của AI sáng tạo, LLMOps đang đi theo cùng quỹ đạo.

Bắt được ngay cả một phần nhỏ của thị trường nghìn tỷ đô la có thể đẩy ngành con này lên trên 100 tỷ đô la vào năm 2030.

Một số công ty khởi nghiệp Web2 đã tự định vị, cung cấp các công cụ để chú thích dữ liệu, điều chỉnh mô hình và đánh giá hiệu suất:

• Braintrust (36 triệu đô la được gọi vốn)

• Vellum AI (đã huy động được $5 triệu)

• Humanloop (đã gây quỹ $2.8 triệu)

Những động lực ban đầu này đang đặt nền móng, nhưng không gian là chất lỏng. Vào năm 2025, chúng ta có thể sẽ thấy sự gia tăng của các công ty khởi nghiệp trong lĩnh vực này. Một số có thể chuyên về các số liệu đánh giá thích hợp (ví dụ: phát hiện thiên vị và kiểm tra độ mạnh), trong khi những người khác mở rộng các dịch vụ của họ để bao gồm toàn bộ vòng đời phát triển AI.

Các công ty công nghệ lớn hơn như các nhà cung cấp đám mây lớn và nền tảng AI có thể sẽ kết hợp các tính năng đánh giá vào các dịch vụ của mình. Tháng trước,OpenAIGate đã giới thiệu đánh giá trực tiếp trên nền tảng của mình. Để cạnh tranh, các startup phải phân biệt thông qua chuyên môn hóa, dễ sử dụng và phân tích tiên tiến.

Mira không phải là đối thủ trực tiếp của những công ty khởi nghiệp hoặc công ty lớn hiện tại. Thay vào đó, đó là một nhà cung cấp cơ sở hạ tầng tích hợp một cách mượt mà với cả hai thông qua API. Chìa khóa? Nó chỉ cần hoạt động.

Kích thước thị trường ban đầu của Mira liên quan đến LLMOps, nhưng thị trường tiềm năng tổng thể sẽ mở rộng đến tất cả các ứng dụng Trí tuệ nhân tạo vì mọi ứng dụng AI sẽ cần đầu ra đáng tin cậy hơn.

Từ góc độ lý thuyết trò chơi, Mira đang ở trong một tình huống đặc biệt. Không giống như các nhà cung cấp mô hình khác như OpenAI, những người bị khóa trong việc hỗ trợ hệ thống của riêng họ, Mira có thể tích hợp trên các mô hình. Điều này định vị Mira là lớp tin cậy cho AI, cung cấp độ tin cậy mà không nhà cung cấp nào có thể sánh kịp.

Lộ trình 2025

Lộ trình năm 2025 của Mira nhằm mục đích cân bằng tính toàn vẹn, khả năng mở rộng và sự tham gia của cộng đồng trên con đường phân cấp đầy đủ:

Giai đoạn 1: Khởi động Niềm tin (Nơi chúng ta đang ở ngày hôm nay)

Ở giai đoạn đầu, các nhà điều hành nút được duyệt đảm bảo tính đáng tin cậy của mạng. Các nhà cung cấp tính toán GPU nổi tiếng phục vụ là làn sóng điều hành đầu tiên, xử lý các hoạt động ban đầu và đặt nền móng vững chắc cho sự phát triển.

Giai đoạn 2: Tái phân quyền tiến bộ

Mira giới thiệu tính năng sao chép được thiết kế, trong đó nhiều phiên bản của cùng một mô hình trình xác minh xử lý từng yêu cầu. Mặc dù điều này làm tăng chi phí xác minh, nhưng điều cần thiết là xác định và loại bỏ các toán tử độc hại. Bằng cách so sánh đầu ra giữa các nút, các tác nhân xấu được phát hiện sớm.

Ở dạng trưởng thành, Mira sẽ triển khai phân mảnh ngẫu nhiên để phân phối các tác vụ xác minh. Điều này làm cho sự thông đồng không khả thi về mặt kinh tế và tăng cường khả năng phục hồi và bảo mật của mạng khi nó mở rộng quy mô.

Giai đoạn 3: Mô hình nền tổng hợp

Ở đây, Mira sẽ cung cấp các thế hệ được xác minh một cách tự nhiên. Người dùng sẽ kết nối qua API, tương tự như OpenAI hoặc Anthropic, và nhận được các kết quả đã được xác minh trước - các kết quả đáng tin cậy, sẵn sàng sử dụng mà không cần xác minh bổ sung.

Trong những tháng sắp tới, Mira đang chuẩn bị cho một số cột mốc quan trọng:

  • Ra mắt Mira Flows, sản phẩm quy trình làm việc trí tuệ nhân tạo cho phép nhà phát triển xây dựng ứng dụng trí tuệ nhân tạo dựa trên API một cách nhanh chóng
  • Mạng thử nghiệm công khai vào tháng 1.
  • Một đợt ra mắt token cũng đang trong tầm nhìn, dự kiến diễn ra trong quý 1 năm 2024.

🌈 Chương trình Ủy quyền Node

Mira đang mở rộng cơ hội tham gia cộng đồng thông quaChương trình ủy quyền Node. Sáng kiến này giúp cho việc hỗ trợ mạng trở nên dễ dàng cho mọi người - không cần kiến thức kỹ thuật.

Quá trình đơn giản: Bạn có thể thuê tài nguyên tính toán và ủy quyền cho một nhóm chọn lọc các nhà điều hành nút. Các đóng góp có thể dao động từ 35 đến 750 đô la và đề xuất thưởng cho việc hỗ trợ mạng. Mira quản lý toàn bộ cơ sở hạ tầng phức tạp, vì vậy người ủy quyền nút có thể ngồi lại, theo dõi sự phát triển của mạng và thu được một số lợi nhuận.

Nhóm

Ngày nay, Mira có một đội ngũ nhỏ nhưng chặt chẽ, chủ yếu tập trung vào kỹ thuật.

Có 3 đồng sáng lập:

  1. @karansirdesai (Giám đốc điều hành), trước đây là thành viên của nhóm đầu tư Crypto & AI tại Accel và làm tư vấn tại BCG
  2. Sid Doddipalli (CTO) là cựu sinh viên của IIT Madras và trước đây là đồng sáng lập tại Stader Labs, một nền tảng staking lỏng trên Ethereum với tổng giá trị khoảng $400 triệu
  3. Ninad Naik (Trưởng Phòng Sản phẩm) đã giữ các vai trò lãnh đạo như Giám đốc Quản lý Sản phẩm tại Uber và là Tổng Quản lý tại phân cấp Nhà thông minh của Amazon.

Cùng nhau, họ kết hợp sự sáng suốt trong đầu tư, sự đổi mới kỹ thuật và vai trò sản phẩm để thực hiện tầm nhìn của Mira về việc xác minh trí tuệ nhân tạo phi tập trung. Mira đã huy động được 9 triệu đô lavòng góivào tháng 7 năm 2024, do BITKRAFT và Framework Ventures dẫn đầu.

Suy nghĩ của chúng tôi

Rất làm mới khi thấy một nhóm Crypto AI đang giải quyết một vấn đề cốt lõi của Web2 AI - làm cho AI tốt hơn - thay vì chơi các trò chơi đầu cơ trong bong bóng của tiền điện tử.

  1. Xác minh sẽ là từ mới nổi AI năm 2025

Ngành công nghiệp đang tỉnh táo với sự quan trọng của việc xác minh. Dựa vào “cảm giác” không còn đủ. Mọi ứng dụng AI và quy trình làm việc sẽ sớm cần một quy trình xác minh đúng đắn—và không phải là điều quá tưởng tượng khi tưởng tượng về các quy định tương lai buộc phải thực hiện những quy trình này để đảm bảo an toàn.

Phương pháp của Mira sử dụng nhiều mô hình để xác minh đầu ra một cách độc lập, tránh sự phụ thuộc vào một mô hình tập trung duy nhất. Khung công việc phi tập trung này tăng cường sự tin tưởng và giảm rủi ro về thiên lệch và sự thao túng.

Và hãy xem xét điều gì sẽ xảy ra nếu chúng ta đạt được AGI trong vài năm tới (một khả năng thực sự).

NhưAnand Iyer (@AITừ Canonical chỉ ra, nếu trí tuệ nhân tạo có thể tinh tế thao túng quyết định và mã lệnh, làm sao chúng ta có thể tin tưởng vào các hệ thống kiểm thử cho những hành vi này? Những người thông minh đang nghĩ tới tương lai.nghiên cứu của Anthropic underscores the urgency, highlighting evaluations as a critical tool to identify potentially dangerous AI capabilities before they escalate into problems.

Bằng cách tạo ra sự minh bạch cực độ, các chuỗi khối thêm vào một lớp bảo vệ mạnh mẽ chống lại các hệ thống AI sai trái. Cơ chế đồng thuận không đáng tin cậy đảm bảo rằng các đánh giá về an toàn được xác minh bởi hàng ngàn nút độc lập (như trên Mira), giảm đáng kể nguy cơ tấn công Sybil.

  1. Tầm nhìn tham vọng với rủi ro thực hiện

Mira đang theo đuổi một thị trường lớn với nhu cầu rõ ràng cho một giải pháp hoạt động. Nhưng những thách thức là thật sự. Cải thiện độ trễ, độ chính xác và hiệu quả chi phí sẽ đòi hỏi nỗ lực kỹ thuật không ngừng và thời gian. Đội ngũ sẽ cần liên tục chứng minh rằng phương pháp của họ đo được tốt hơn so với các phương pháp hiện có.

Sự đổi mới cốt lõi nằm ở quy trình binarization và sharding của Mira. “Nước sốt bí mật” này hứa hẹn sẽ giải quyết các thách thức về khả năng mở rộng và niềm tin. Để Mira thành công, công nghệ này cần phải thực hiện đúng lời hứa của mình.

  1. Thiết kế Token & mẹo bí mật của Mira

Trong bất kỳ mạng lưới phi tập trung nào, thiết kế token và động cơ khuyến mãi đều là các yếu tố quyết định thành bại. Sự thành công của Mira sẽ phụ thuộc vào việc cơ chế này có tương thích với lợi ích của người tham gia và duy trì tính toàn vẹn của mạng lưới như thế nào.

Trong khi chi tiết về tokenomics của Mira vẫn được giữ kín, tôi mong đợi đội ngũ sẽ tiết lộ thêm khi token ra mắt vào đầu năm 2025.

Một Tương Lai Tươi Sáng

“Chúng tôi đã phát hiện rằng những nhóm kỹ sư triển khai đánh giá tuyệt vời di chuyển nhanh hơn đáng kể - lên đến 10 lần nhanh hơn - so với những người chỉ xem xét những gì xảy ra trong sản xuất và cố gắng sửa chữa chúng theo cách tạm thời,” - Ankur Goyal, Braintrust

Trong một thế giới do trí tuệ nhân tạo điều khiển, niềm tin là tất cả.

Khi các mô hình trở nên phức tạp hơn, việc xác minh đáng tin cậy sẽ là nền tảng cho mọi sản phẩm AI tuyệt vời. Chúng giúp chúng ta giải quyết những ảo tưởng, loại bỏ sự thiên vị và đảm bảo đầu ra AI phù hợp với nhu cầu thực tế của người dùng.

Mira tự động hóa việc xác minh, giảm chi phí và sự phụ thuộc vào sự can thiệp của con người. Điều này mở ra các vòng lặp nhanh hơn, điều chỉnh trong thời gian thực và các giải pháp có thể mở rộng mà không gặp trở ngại.

Cuối cùng, Mira nhằm trở thành API cho sự tin cậy—một khung xác minh phi tập trung mà mọi nhà phát triển và ứng dụng trí tuệ nhân tạo có thể phụ thuộc để có câu trả lời đã xác minh.

Đây là một bước đi táo bạo, tham vọng, và chính xác những gì thế giới AI cần.

Cảm ơn bạn đã đọc, Teng Yan

Thông báo từ chối trách nhiệm:

  1. Bài viết này được in lại từ [Teng Yan]. Chuyển Tiêu Đề Gốc: Mira: AI Được Xác Minh Không Cần Tin Cậy. Tất cả bản quyền thuộc về tác giả gốc [ Teng Yan]. Nếu có bất kỳ ý kiến ​​phản đối về việc tái bản này, vui lòng liên hệ Gate Learnđội ngũ, và họ sẽ xử lý nó một cách nhanh chóng.
  2. Từ chối trách nhiệm về trách nhiệm: Quan điểm và ý kiến được biểu đạt trong bài viết này chỉ thuộc về tác giả và không đại diện cho bất kỳ lời khuyên đầu tư nào.
  3. Việc dịch bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm gate Learn. Trừ khi đã được đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết đã được dịch là không được phép.
Empieza ahora
¡Registrarse y recibe un bono de
$100
!