Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Google công khai nhắm vào mạng lưới trung tâm dữ liệu siêu lớn 'Vergo' của 'AI dạng đại lý'... tăng cường khả năng xử lý độ trễ và đối phó sự cố
Google công bố mạng lưới trung tâm dữ liệu siêu lớn và hạ tầng đa đám mây cho thời đại ‘Trí tuệ nhân tạo tác nhân (Agentic AI)’. Khi môi trường AI gọi các công cụ bên ngoài trong vòng chưa đầy mili giây ngày càng phổ biến, cuộc cạnh tranh về hạ tầng giảm độ trễ và xử lý quy mô lớn ổn định đang diễn ra toàn diện.
Google ngày 24 đã phát hành hệ thống mạng hạ tầng AI mới ‘Virgo Network’. Hệ thống này nhằm nâng cao tốc độ truyền thông tổng thể của trung tâm dữ liệu, từ nhóm tăng tốc đến bộ nhớ, tính toán, lưu trữ và các tài nguyên khác.
Điểm cốt lõi là cấu trúc mạng ‘phi lớp’. Phương pháp này giảm số lượng lớp trung gian trong quá trình truyền dữ liệu để giảm điểm nghẽn. Theo Google, Virgo Network có thể kết nối tối đa 134.000 chip, bao gồm cả bộ xử lý TPU 8t thế hệ thứ 8 dùng để huấn luyện. Băng thông hai chiều tối đa đạt 47 petabit mỗi giây (Pbps). Công ty cho biết, so với thế hệ trước, băng thông của mỗi bộ tăng tốc đã tăng hơn 4 lần.
Phần đáng chú ý trong lần ra mắt này là, ngoài cạnh tranh về tốc độ thuần túy, còn nhấn mạnh toàn diện về ‘khả năng phục hồi’. Trong các tập đoàn AI quy mô siêu lớn, sự cố, độ trễ và giảm tốc của một số thiết bị gần như không thể tránh khỏi. Google cho biết, để giải quyết vấn đề này, họ kết hợp chức năng ‘tầm nhìn’ theo dõi trạng thái toàn bộ mạng lưới với phần mềm tự động vòng vo/phục hồi. Điểm đặc trưng còn bao gồm việc áp dụng một mặt phẳng chuyển mạch độc lập để đảm bảo ngay cả khi xảy ra độ trễ hoặc sự cố mạng, tổng thông lượng không bị dao động đột ngột.
Google mô tả Virgo Network không chỉ là mở rộng đơn thuần của các trung tâm dữ liệu hiện có, mà là một sản phẩm hạ tầng độc lập, với ý tưởng thiết kế ‘tưới toàn bộ khu vực như một siêu máy tính’. Công ty chủ trương, bằng cách giám sát trạng thái hệ thống trong vòng chưa đầy 1 mili giây, có thể tối ưu các vấn đề tắc nghẽn tức thời và quản lý bộ đệm trong toàn bộ phần cứng và phần mềm. Điều này đặc biệt quan trọng trong môi trường cần AI tác nhân xử lý đồng thời gọi công cụ, suy luận và tăng cường truy xuất (RAG).
Cùng lúc, ra mắt lớp kết nối và an ninh vượt qua ranh giới đám mây
Ngoài mạng trung tâm dữ liệu, Google còn phát hành lớp kết nối đám mây và an ninh dành cho tải trọng AI tác nhân. Công ty tóm tắt lần cập nhật này dựa trên bốn trụ cột: ‘tính linh hoạt của tính toán’, ‘kết nối an toàn đa đám mây’, ‘lớp dữ liệu thống nhất’ và ‘chủ quyền số’.
Trước tiên, ‘tính linh hoạt của tính toán’ là kiến trúc nhằm xử lý hiệu quả hơn các biến động nhu cầu của AI agent. Các dịch vụ AI thường gặp phải các đợt yêu cầu đột biến, Google giải thích rằng họ nâng cao khả năng truy cập CPU để phản ứng nhanh hơn, tiết kiệm hơn với nhu cầu này. Đặc biệt, thiết kế cung cấp các tài nguyên CPU tối ưu cho các nhiệm vụ như suy luận, phối hợp agent và truy xuất tăng cường, bổ sung cho GPU.
Để làm điều này, Google đã áp dụng CPU C4N và M4N trên các máy ảo (VM) dựa trên Google Compute Engine và Google Kubernetes Service. Google cho biết hệ thống này có thể xử lý tới 95 triệu gói dữ liệu mỗi giây, nhanh hơn tối đa 40% so với các nhà cung cấp đám mây quy mô lớn chính.
Trong lĩnh vực kết nối an toàn đa đám mây, ‘cổng agent’ được đặt ở vị trí trung tâm. Bộ điều khiển này giám sát quyền truy cập của AI agent, kiểm soát và quản lý các giao thức như Giao thức ngữ cảnh mô hình (MCP) và Giao thức giữa các agent (A2A). Nó cho biết, cổng này có thể đảm bảo khả năng quan sát và bảo vệ luồng dữ liệu di chuyển giữa các đám mây khác nhau.
‘AI đi tới nơi dữ liệu nằm’
Lớp dữ liệu thống nhất tập trung vào việc cho phép AI hiểu và sử dụng trực tiếp dữ liệu phân tán trong nhiều kho lưu trữ của doanh nghiệp. Google nói rằng, ‘lưu trữ thông minh’ sẽ thêm siêu dữ liệu cho các đối tượng dữ liệu, biến các ‘dữ liệu tĩnh’ truyền thống thành tài sản tri thức có thể đọc được bởi AI.
Khi kiến trúc này hình thành, nó có thể áp dụng tìm kiếm dựa trên ý nghĩa cho các dạng dữ liệu như bảng tính, tài liệu, PDF, hình ảnh, và tự động chú thích, trích xuất thông minh. Phương pháp này nhằm giảm hiện tượng ‘hòn đảo dữ liệu’ bị giới hạn trong các kho lưu trữ riêng biệt, giúp AI agent tìm kiếm thông tin nhanh hơn.
Cùng công bố ‘thư viện tri thức’ kết nối kiến thức nội bộ doanh nghiệp dưới dạng đồ họa, giúp AI agent hiểu rõ hơn về quy trình và ngữ cảnh kinh doanh. Google nhấn mạnh, qua cách này, không cần di chuyển dữ liệu riêng lẻ mà vẫn tối ưu hóa việc học và phản hồi của AI. Nói cách khác, phương pháp của họ không phải là chuyển dữ liệu về trung tâm, mà là để mô hình AI chạy trong ‘môi trường riêng’ của dữ liệu.
Lần ra mắt này cho thấy, trọng tâm cạnh tranh AI đang nhanh chóng chuyển từ hiệu năng mô hình sang hạ tầng mạng, an ninh và dữ liệu hỗ trợ vận hành mô hình. Đặc biệt, khi ‘AI tác nhân’ chính thức được đưa vào doanh nghiệp, độ trễ thấp, khả năng phục hồi cao và quản lý đa đám mây có thể trở thành các yếu tố cạnh tranh cốt lõi. Động thái của Google được xem như một tín hiệu cho thấy các tập đoàn công nghệ lớn cạnh tranh ngày càng quyết liệt hơn trong lĩnh vực hạ tầng AI.