Phá vỡ Thung lũng Silicon! Tài liệu 270 trang tiết lộ bí mật đen tối của OpenAI, vạch trần cuộc chiến quyền lực tài chính của các ông lớn AI

Nguồn: Tài Media

Một cuộc điều tra nặng ký kéo dài 18 tháng đã trực tiếp vạch trần bộ mặt thật của OpenAI, đỉnh cao của Thung lũng Silicon.

Hôm nay, tờ The New Yorker mới tiết lộ, không chỉ hé lộ bản ghi nhớ mật 70 trang của cựu trưởng khoa học Ilya; mà còn công khai cả hơn 200 trang “ghi chú hóng hớt” của CEO Anthropic Dario Amodei, vốn đã giữ kín nhiều năm.

Hai tài liệu quan trọng này đều nhắm vào cùng một người: CEO của OpenAI, Sam Altman.

Các ông lớn trong Thung lũng Silicon đều nhận xét rất nhất trí: thằng này, nói dối như cơm bữa.

Đây không phải là câu chuyện đơn giản về truyền thuyết của Thung lũng Silicon.

Khi một tập đoàn AI có giá trị lên tới 8520 tỷ USD, tuyên bố “phục vụ toàn nhân loại”, mà người đứng đầu lại rơi vào khủng hoảng uy tín, thì câu chuyện đã hoàn toàn biến chất.

Hôm nay, chúng ta sẽ bỏ qua đánh giá đạo đức, kết hợp với các tiết lộ này, theo dòng tiền, khám phá cuộc chơi quyền lực của OpenAI đằng sau những bí mật thương mại đích thực.

Hàng rào an toàn? Vô nghĩa

Khi mới thành lập, OpenAI đã đặt ra mục tiêu rất cao: AI quá nguy hiểm, lợi ích của nhân loại phải đặt trên lợi nhuận thương mại.

Dario thậm chí từng kiên quyết muốn thêm điều khoản “hợp nhất và hợp tác”: nếu đối thủ phát triển AGI an toàn trước, OpenAI phải dừng lại, toàn bộ nguồn lực phải quyên góp cho đối phương.

Đến mùa xuân 2023, OpenAI còn tự tin thành lập “Nhóm siêu căn chỉnh (Superalignment)”.

Dưới sự dẫn dắt của Ilya và Jan Leike, cam kết dành 20% tổng sức mạnh tính toán của công ty để nghiên cứu kiểm soát AI.

Kết quả?

Chỉ là mồi câu.

Thực tế, phần sức mạnh dành cho nhóm an toàn chỉ có vẻn vẹn 1-2%. Hơn nữa, phần lớn phần cứng cũ kỹ đã bị loại bỏ, toàn bộ phần cứng tốt nhất đều dùng để chạy các dịch vụ kiếm tiền. Khi Jan Leike phản đối, các lãnh đạo đã thẳng thừng tuyên bố: “Cam kết đó hoàn toàn không thực tế.”

Việc né tránh kiểm tra an toàn còn trở nên phổ biến hơn. Altman từng cam đoan trước hội đồng quản trị rằng, các chức năng nguy hiểm cao của GPT-4 đã qua kiểm duyệt an toàn. Nhưng sau đó kiểm tra mới phát hiện: hoàn toàn là bịa đặt. Thậm chí, ChatGPT đã được phát hành trước khi qua kiểm duyệt ở Ấn Độ, mà ông còn giấu kín.

Kết quả ai cũng thấy rõ.

Năm 2024, nhóm an toàn bị giải thể trực tiếp, Ilya và Leike từ chức.

Trước khi rời đi, Leike để lại câu nói nổi tiếng: “Văn hóa an toàn đã sớm nhường chỗ cho những sản phẩm rực rỡ.”

Hồ sơ mật và “phản chuyển đổi kiểu Marvel”

Thực ra, sự sụp đổ của hàng rào an toàn đã được dự báo từ lâu. Không thể không nhắc đến trận “đấu tranh nội bộ năm ngày” chấn động thế giới tháng 11 năm 2023, lần này các tiết lộ đã làm rõ thêm nhiều chi tiết hơn.

Quay về mùa thu 2023. Nhìn Altman lách luật, Ilya thật sự đã sợ rồi. Anh ta còn dám không chạm vào máy tính công ty, dùng điện thoại chụp trộm chứng cứ, rồi gửi qua phần mềm “đốt sau khi xem” cho hội đồng quản trị.

Trong bản ghi nhớ 70 trang này, điều đầu tiên bị tố cáo rõ ràng là: nói dối (Lying).

Một vở kịch phế chức chính thức bắt đầu từ đó.

Nhưng vở kịch này chỉ kéo dài 5 ngày, rồi bị Altman dùng sức mạnh của vốn để lật ngược (gọi nội bộ là “The Blip”).

Làm thế nào? Ông biến biệt thự thành trung tâm chỉ huy, kéo Microsoft và Thrive Capital trực tiếp gây áp lực lên hội đồng quản trị. Ngụ ý rõ ràng: nếu tôi không trở lại, quyền chọn trị giá hàng triệu đô của nhân viên sẽ hoàn toàn mất giá.

Trước lợi ích thực sự, nhiều nhân viên đã phản bội.

Sau khi lấy lại quyền lực, Altman xử lý rất khéo léo. Ông thuê một công ty luật từng xử lý vụ bê bối Enron để điều tra “độc lập”. Thật bất ngờ, dưới lời khuyên của luật sư riêng, cuộc điều tra này hoàn toàn không để lại bất kỳ báo cáo bằng văn bản nào. Chỉ có báo cáo miệng, tạo thành một hàng rào phòng thủ hoàn hảo, tránh khỏi rủi ro kiện tụng tập thể trong tương lai.

Chiếc lồng hạn chế quyền lực đã bị phá vỡ hoàn toàn.

Bạn bè cũ, sao hôm nay lại phản bội?

Tại sao những bí mật đen tối này lại bị tiết lộ đúng vào thời điểm nhạy cảm này?

Nói trắng ra, nguyên nhân sâu xa là xung đột lợi ích ngày càng gay gắt.

Cái gọi là tam giác sắt ngày xưa giờ đã trở thành đối thủ trực tiếp trên ba chiến tuyến:

Ilya: rời khỏi, thành lập SSI (Công ty Siêu trí tuệ An toàn), kiên quyết theo chủ nghĩa kỹ thuật thuần túy về “an toàn”.

Dario: cùng Anthropic điên cuồng tranh giành thị phần. Mô hình Claude của ông ta từ 12% tăng vọt lên 32% trong thị trường API doanh nghiệp, trực tiếp đe dọa “cây tiền” của OpenAI.

Altman: hoàn toàn theo đuổi “chủ nghĩa tăng tốc tuyệt đối”, dùng đòn bẩy vốn để thúc đẩy mọi thứ.

Các tiết lộ cũ này về bản chất chính là một cuộc tấn công truyền thông chính xác của đối thủ cạnh tranh nhằm vào uy tín thương mại và bong bóng định giá cao của OpenAI.

Cuộc đua điên cuồng của các đại lý vốn

Hiện tại, Altman đã vượt xa cách làm của một CEO công nghệ truyền thống.

Ông ta chơi khéo đến mức hiểu rõ cấu trúc pháp lý: đến cuối năm 2025, công ty sẽ tái cấu trúc thành “Công ty vì lợi ích cộng đồng (PBC)”. Về danh nghĩa là vì “toàn nhân loại”, nhưng thực tế? Trong cấu trúc này, dù công ty thua lỗ lớn hay xảy ra tai nạn an toàn, hội đồng quản trị vẫn có thể dựa vào “công bằng mục tiêu công cộng” để tránh bị kiện tụng trên Wall Street.

Với chiếc “áo giáp chống đạn” pháp lý này, Altman đạp ga trên con đường thương mại:

  1. Rút lui thực dụng, cắt bỏ Sora

Cuối 2025, OpenAI tuyên bố hợp tác rầm rộ với Disney, muốn đổi lấy 1 tỷ USD đầu tư cho Sora. Nhưng đến đầu 2026, do chi phí suy luận của mô hình video quá cao, khả năng gây ảo tưởng không kiểm soát được, hợp tác đổ bể. Altman quyết đoán dừng phát triển phiên bản dành cho nhà phát triển của Sora, toàn bộ sức mạnh tính toán chuyển về API doanh nghiệp để tạo ra doanh thu thực.

  1. Ôm lấy Pentagon, phá vỡ giới hạn

Đầu 2026, Bộ Quốc phòng Mỹ ký hợp đồng quân sự trị giá 200 triệu USD. Anthropic, đối thủ cạnh tranh, kiên quyết không dính vào “giám sát quy mô lớn” hay “vũ khí tự hành”, bị liệt vào danh sách đen.

Altman nhanh chóng tiếp nhận.

Dù có “ba giới hạn đỏ” trên giấy, nhưng trong hợp đồng toàn là các lỗ hổng pháp lý: chỉ cần phù hợp FISA, không coi là giám sát trái phép; chỉ cần giữ “phê duyệt của con người” trên danh nghĩa, hệ thống vẫn có thể dùng cho mục tiêu quân sự.

Vì đơn hàng này, OpenAI thực chất đã trở thành phụ thuộc của ngành công nghiệp quốc phòng.

  1. Dự án “Cổng sao”, tận dụng địa chính trị

Để có được sức mạnh tính toán, Altman tự biến thành “Kissinger của giới công nghệ”. Năm 2025, Trump trở lại Nhà Trắng, ông lập tức quyên góp 1 triệu USD cho quỹ nhậm chức của Trump. Những việc không thể làm dưới thời Biden, giờ đây không còn là vấn đề nữa.

Đầu tư chính trị mang lại hiệu quả rất nhanh: ngày thứ hai nhậm chức, Trump cùng ông tuyên bố “Dự án Stargate” trị giá 5000 tỷ USD. Sau đó, Nhà Trắng cấp phép cho OpenAI xây dựng trung tâm dữ liệu siêu lớn tại Abu Dhabi, quy mô 1 GW.

CFO bị bỏ rơi, IPO sinh tử

Nhưng chiếc xe tăng này lại rất dễ vỡ nền móng.

Tháng 3 năm 2026, OpenAI huy động được 1220 tỷ USD vốn đầu tư kỷ lục.

Nhưng số tiền này khiến Wall Street đều cảm thấy rùng mình.

OpenAI nhiều lần bị cáo buộc “vòng tròn tài chính” (Circular Financing): Amazon bỏ ra 50 tỷ USD, Nvidia 30 tỷ USD; rồi OpenAI lại dùng tiền đó thuê dịch vụ đám mây AWS, mua chip Nvidia.

Đây là trò chơi vốn “bắt chẹt lẫn nhau”, trong vòng xoáy mong manh này, có bao nhiêu giá trị thực sự được tạo ra?

Quan trọng hơn, thỏa thuận cược của Amazon: trong 500 tỷ USD, có 350 tỷ là vốn sau, yêu cầu bắt buộc OpenAI phải đạt AGI trước cuối 2028 hoặc IPO.

Điều này gây chấn động lớn trong nội bộ cao cấp của OpenAI. CFO Sarah Friar nhìn vào sổ sách, phản đối dữ dội: dự kiến năm 2026, công ty lỗ 14 tỷ USD, đến 2027, tiền mặt tiêu hao sẽ lên tới 57 tỷ USD. Muốn có dòng tiền dương, phải đợi đến 2030, còn phải tiêu hơn 20 tỷ USD nữa. Bà phản đối quyết liệt kế hoạch IPO “quyết đoán” của Altman vào Quý 4 năm 2026.

Cách xử lý của Altman rất đơn giản và thô bạo. Ông không chỉ đuổi CFO ra khỏi các cuộc họp mua sắm phần cứng, mà còn trực tiếp sửa đổi cấu trúc báo cáo. CFO danh chính ngôn thuận không còn báo cáo trực tiếp cho CEO, mà bị hạ cấp xuống báo cáo cho Fidji Simo, người phụ trách ứng dụng. Thật trớ trêu, Fijji Simo hiện đang nghỉ phép dài hạn vì bệnh thần kinh, phải điều trị vài tuần.

Trên chiếc tàu tốc hành lao vun vút, Altman tự tay tháo bỏ chiếc phanh tài chính cuối cùng.

Một cuộc chơi không còn lối thoát, toàn nhân loại bị kéo vào cuộc cá cược này một cách bị động

Nhìn lại, câu “nói dối” trong The New Yorker thực ra chính là cách diễn đạt chính xác nhất về mô hình thương mại biến thái này.

“Không thành thật” đã không còn là khuyết điểm cá nhân của Altman, mà đã trở thành “động cơ” sống còn của OpenAI.

Ông ta bán cho các nhà đầu tư mạo hiểm lợi nhuận vô hạn của AGI, bán cho Washington nỗi sợ tranh giành sức mạnh tính toán của các cường quốc, để giữ vững bong bóng định giá 8520 tỷ USD và tốc độ tiêu tiền hàng năm hàng trăm tỷ USD.

Khi vốn đổ vào cược vài trăm tỷ USD để ép buộc AGI phải ra đời đúng hạn, thì công nghệ liên quan đến số phận nhân loại này đã trở thành vật thế chấp của đòn bẩy tài chính.

Nếu cuộc chơi này thực sự mở được cánh cửa mang tên AGI, thì thứ thoát ra sẽ là “kỹ thuật thần kỳ mang lại lợi ích cho toàn nhân loại” hay là một con Leviathan của vốn, thừa hưởng sự tàn nhẫn và tham lam của người sáng tạo?

Đây mới chính là cuộc chơi thực sự mà toàn nhân loại đang bị động bị cuốn vào.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim