Google Ironwood TPU: Hiệu năng gấp 10 lần + Bốn đối tác cùng đối đầu Nvidia

ChainNewsAbmedia

Theo các báo cáo chuyên sâu của Bloomberg và thông báo chính thức từ Google, Google đã chính thức mở rộng danh mục chip AI do tự phát triển vào ngày 22 tháng 4: Ironwood (thế hệ TPU thứ bảy) chuyên cho suy luận được cung cấp đầy đủ trên Google Cloud, đồng thời khởi động hợp tác thiết kế thế hệ tiếp theo với bốn đối tác Broadcom, MediaTek, Marvell, Intel. Mục tiêu là dùng chuỗi cung ứng chip tùy chỉnh để thách thức vị trí thống trị của Nvidia trên thị trường năng lực tính toán AI.

Ironwood: Thế hệ TPU thứ bảy, lần đầu tiên được thiết kế riêng cho suy luận

Ironwood là sản phẩm thế hệ thứ bảy trong dòng TPU của Google và cũng là chip chuyên dụng cho suy luận đầu tiên theo chiến lược “tách nhánh huấn luyện và suy luận”. Các thông số mà Google công bố: hiệu năng đỉnh trên mỗi chip đạt gấp 10 lần TPU v5p, trang bị bộ nhớ 192GB HBM3E, băng thông bộ nhớ đạt 7,2 TB/s, một superpod có thể mở rộng lên tới 9.216 chip Ironwood làm mát bằng chất lỏng, tổng khối lượng tính toán FP8 đạt 42,5 exaflops.

Google cho biết chính thức rằng Ironwood đã “mở hoàn toàn cho khách hàng sử dụng Google Cloud”, và lượng hàng dự kiến xuất xưởng trong năm nay sẽ đạt “quy mô hàng triệu chip”. Anthropic đã cam kết sử dụng tối đa 1 triệu chip Ironwood TPU, còn Meta thì ký “hợp đồng nhiều năm trị giá hàng chục tỷ USD” để sử dụng TPU thông qua Google Cloud.

Phân công bốn đối tác: huấn luyện thuộc Broadcom, suy luận thuộc MediaTek

Chuỗi cung ứng chip thế hệ tiếp theo của Google được phân công rõ ràng như sau:

Đối tác Mã hiệu Vai trò Điểm nhấn Broadcom Sunfish Huấn luyện chuyên dụng Kế thừa quan hệ hợp tác TPU hiện có, dẫn dắt các nút huấn luyện quy mô lớn MediaTek (聯發科) Zebrafish Suy luận chuyên dụng Khẳng định chi phí thấp hơn phương án của Broadcom 20–30% Marvell Đang đàm phán Đơn vị xử lý bộ nhớ (MPU) + thêm TPU suy luận Tối ưu cho HBM và inference Intel Chưa công bố Tham gia thiết kế Tăng cường phân tán chuỗi cung ứng

Đây là lần đầu tiên trong ngành AI xuất hiện mô hình “bốn đối tác song song, phân công rõ ràng giữa huấn luyện và suy luận”. Google tránh sự phụ thuộc cấu trúc vào một nhà cung cấp duy nhất của Nvidia bằng cách phân tán rủi ro IP và đàm phán giá cạnh tranh. Lộ trình mở rộng đến cuối năm 2027 với TPU v8, được sản xuất trên quy trình 2nm của TSMC.

Ý nghĩa chiến lược: Thách thức Nvidia không phải bằng một chip duy nhất, mà bằng chuỗi cung ứng

Trong ba năm qua, thị trường chip AI gần như do Nvidia độc quyền, với hệ sinh thái phần mềm CUDA và hai lớp “hào lũy” từ các chip H100/GB200. Chiến lược của Ironwood của Google và nhóm bốn đối tác không nhằm mục tiêu “vượt trội một điểm đơn lẻ về thông số”, mà là sao chép logic “nền tảng được tiêu chuẩn hóa + mua sắm đa khách hàng” mà Nvidia đã áp dụng trong ngành—để TPU không chỉ phục vụ cho Google, mà còn trở thành một lựa chọn năng lực tính toán thương mại có thể dùng chung cho các công ty AI lớn như Anthropic, Meta.

Ý nghĩa của việc Anthropic cam kết 1 triệu chip TPU đặc biệt quan trọng: đây là cam kết năng lực tính toán lớn nhất ngoài Nvidia của một công ty AI đơn lẻ. Nó bổ sung lẫn nhau với cam kết 5GW/100 tỷ AWS mà Anthropic đạt được cùng Amazon—một bên gắn với AWS Trainium, một bên gắn với Google TPU. Với chiến lược “hai chip tùy chỉnh”, Anthropic giảm sự phụ thuộc vào Nvidia. Meta cũng là lần đầu công khai đưa TPU vào các khối lượng công việc huấn luyện/suy luận AI của chính mình, tạo ra một tín hiệu khác.

Phản ứng thị trường và liên kết với ngành

Trước khi tiết lộ lần này, MediaTek đã từng được xem như “người hưởng lợi từ chip tùy chỉnh của Google”. Việc lộ mã hiệu Zebrafish là lần đầu tiên đưa MediaTek trực tiếp vào danh sách đối tác thiết kế chip suy luận của Google. Đây là bước mở rộng theo tuyến truyện về “liên minh ngoài Nvidia” gần đây, gồm AMD × GlobalFoundries quang tử silicon và Marvell × Google MPU.

Nvidia ở cùng thời điểm vẫn có GB200 và nền tảng Rubin thế hệ tiếp theo để chống đỡ, nhưng tổ hợp năng lực tính toán phía khách hàng đang chuyển từ “toàn bộ Nvidia” sang mô hình ba trục song song “Nvidia + TPU + AWS Trainium”. Điều này cũng đồng nghĩa với việc năng lực sản xuất 2nm của TSMC sẽ đứng trước tình trạng Google, Nvidia, Apple và Amazon—bốn khách hàng lớn—đều đang xếp hàng, và sức mạnh đàm phán giá với nhà máy gia công bán dẫn tiếp tục tăng lên.

Bài viết “Google Ironwood TPU: Hiệu năng gấp 10 lần + bốn đối tác chống lại Nvidia” lần đầu tiên xuất hiện trên 鏈新聞 ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

CEO Google Cloud: Gemini sẽ cung cấp cho kế hoạch ra mắt Siri cá nhân hóa của Apple vào năm 2026

Tóm tắt: Gemini sẽ cung cấp cho Apple một Siri cá nhân hóa vào năm 2026, được xây dựng trên Mô hình Nền tảng của Apple và sự hợp tác với Gemini; Apple đang thử nghiệm một Siri dạng trò chuyện trên iOS 27/macOS 27, dự kiến ra mắt tại WWDC 2026. Trừu tượng: Gemini của Google Cloud được đặt để cung cấp cho Apple một Siri cá nhân hóa vào năm 2026, kết hợp Gemini với Mô hình Nền tảng của Apple trong một hợp tác trị giá khoảng $1 billion. Apple đang thử nghiệm một Siri được thiết kế lại theo phong cách trò chuyện trong iOS 27/macOS 27, với giao diện Dynamic Island và các tính năng mới, trước khi được công bố tại WWDC 2026 vào ngày 8 tháng 6.

GateNews23phút trước

Thỏa thuận $60B của SpaceX-Cursor cung cấp bằng chứng mới cho các lập luận xin ân xá của SBF

Trừu tượng SpaceX công bố một $60 tỷ USD hợp tác với Cursor, kèm theo quyền mua lại, định hình đề xuất ân xá của SBF khi cổ phần Cursor ban đầu của Alameda có giá trị khoảng $3 tỷ USD ở thời điểm hiện tại. Bài viết cân nhắc các cáo buộc mất khả năng thanh toán của SBF, vận động từ phía cha mẹ, phản đối của chủ nợ và xác suất ân xá mong manh. Tóm tắt Thỏa thuận SpaceX-Cursor thúc đẩy đề xuất ân xá của SBF; cổ phần $200k của Alameda sẽ vào khoảng ~ $3B tỷ USD (15,000x) ngày nay. SBF lập luận rằng FTX mất khả năng thanh toán; thị trường cho thấy xác suất ân xá thấp; Trump khó có khả năng ân xá.

GateNews31phút trước

Cổ phiếu Chegg giảm sụp 99% khi AI làm gián đoạn thị trường công nghệ giáo dục

Tóm tắt: Chegg đã tăng mạnh nhờ nhu cầu giáo dục trực tuyến, sau đó các công cụ AI đã làm gián đoạn mô hình của công ty, dẫn đến sa thải quy mô lớn và sụt giảm xuống dưới $2, trong bối cảnh những thay đổi trên diện rộng do AI thúc đẩy đã ảnh hưởng đến các công ty khai thác crypto và các doanh nghiệp fintech. Tóm tắt: Bài viết này xem xét sự vươn lên của Chegg như một “cưng” của edtech trong thời kỳ đại dịch và sự suy giảm tiếp theo của công ty giữa lúc việc áp dụng nhanh chóng AI tạo sinh, vốn cung cấp câu trả lời nhanh và làm suy yếu đề xuất giá trị của Chegg. Bài viết ghi lại các đợt sa thải năm 2025 và việc cổ phiếu lao dốc hướng tới nguy cơ bị hủy niêm yết, đồng thời đặt trải nghiệm của Chegg trong bối cảnh rộng hơn của sự gián đoạn do AI gây ra, đang làm thay đổi lĩnh vực công nghệ và crypto: các nhà khai thác Bitcoin chuyển sang vận hành AI, và các chiến lược “AI-native” tái định nghĩa năng lực cạnh tranh trong fintech và cả hơn thế nữa.

CryptoFrontier41phút trước

OpenAI Phát Hành Mô Hình Bộ Lọc Quyền Riêng Tư Mã Nguồn Mở Để Phát Hiện và Che Giấu PII

Tóm tắt: Bộ lọc Quyền riêng tư của OpenAI là một mô hình mã nguồn mở, chạy cục bộ, có khả năng phát hiện và che giấu (redact) thông tin nhận dạng cá nhân (PII) trong văn bản. Mô hình hỗ trợ các ngữ cảnh lớn, xác định nhiều hạng mục PII và được thiết kế cho các quy trình bảo vệ quyền riêng tư như chuẩn bị dữ liệu, lập chỉ mục, ghi nhật ký và điều tiết (moderation). Bộ lọc Quyền riêng tư của OpenAI là một mô hình mã nguồn mở chạy cục bộ (128k-token context), có khả năng phát hiện và che giấu PII trong văn bản, bao quát dữ liệu liên hệ, tài chính và thông tin đăng nhập cho các quy trình bảo vệ quyền riêng tư.

GateNews1giờ trước

OpenAI Lên Kế Hoạch Triển Khai 30GW Năng Lực Điện Toán Vào Năm 2030

OpenAI nhắm tới 30GW điện toán vào năm 2030 để đáp ứng nhu cầu AI ngày càng tăng, với 8GW đã hoàn thành trong mục tiêu 10GW năm 2025. Việc mở rộng này cho thấy chiến lược mở rộng hạ tầng để phát triển và triển khai AI thế hệ tiếp theo. OpenAI dự định đạt 30GW năng lực điện toán vào năm 2030 để đáp ứng nhu cầu AI ngày càng tăng, với việc đã hoàn thành 8GW trong mục tiêu 10GW cho năm 2025. Động thái này phản ánh việc mở rộng chiến lược hạ tầng nhằm hỗ trợ phát triển và triển khai AI thế hệ tiếp theo.

GateNews1giờ trước

Tác nhân Khám phá Lỗ hổng AI của 360 Tìm thấy Gần 1.000 Khai thác Zero-Day, Cạnh tranh với Mythos

360 Digital Security 的 tác nhân AI được điều khiển bởi AI tuyên bố đã phát hiện khoảng 1.000 lỗ hổng mới, bao gồm trong Office và OpenClaw; AI giờ là cốt lõi của việc phát hiện và chuẩn bị chuỗi khai thác, sánh ngang Mythos. Tóm tắt: Một báo cáo được Bloomberg trích dẫn ghi nhận rằng 360 Digital Security Group’s AI-driven Vulnerability Discovery Agent đã xác định gần 1.000 lỗ hổng phần mềm trước đây chưa được biết đến trong những tháng gần đây, bao gồm trong Microsoft Office và framework OpenClaw. Công ty cho biết AI đã trở thành động cơ cốt lõi của việc phát hiện lỗ hổng và đã công bố một công cụ AI để tăng tốc việc xây dựng chuỗi khai thác. Benincasa mô tả 360 là đối thủ cạnh tranh của Mythos của Anthropic, dựa trên phần đánh giá của Natto Thoughts về các thông báo ngôn ngữ Trung Quốc của công ty.

GateNews1giờ trước
Bình luận
0/400
Không có bình luận