Phân tích: Cuộc đối đầu về AI trong Quân đội Hoa Kỳ
Một cuộc đối đầu lớn giữa chính quyền Trump và ngành công nghệ đã đỉnh điểm bằng việc cấm chưa từng có đối với một công ty AI nội địa hàng đầu khỏi các hoạt động của chính phủ Hoa Kỳ. Cuộc xung đột, tập trung vào việc sử dụng đạo đức trí tuệ nhân tạo trong chiến tranh, đã dẫn đến việc Tổng thống Donald Trump ra lệnh cho tất cả các cơ quan liên bang ngừng sử dụng công nghệ của Anthropic, nhà sản xuất mô hình AI Claude .
Mâu thuẫn cốt lõi: Truy cập Quân sự không hạn chế
Cuộc tranh chấp bắt đầu khi Bộ Quốc phòng, dưới sự chỉ đạo của Thư ký Pete Hegseth, yêu cầu các nhà cung cấp AI loại bỏ tất cả các hạn chế sử dụng để thúc đẩy phát triển một quân đội "AI trước tiên". Anthropic, đã ký hợp đồng với Lầu Năm Góc từ năm 2024, đã được giao hạn chót để đồng ý với việc "sử dụng không hạn chế" các công cụ của mình cho bất kỳ mục đích quân sự hợp pháp nào .
Giám đốc điều hành của Anthropic, Dario Amodei, từ chối tuân thủ, trích dẫn các giới hạn đạo đức rõ ràng. Công ty phản đối việc công nghệ của mình bị sử dụng để giám sát quy mô lớn công dân Hoa Kỳ và để triển khai trong các hệ thống vũ khí hoàn toàn tự động có thể hoạt động mà không cần sự giám sát của con người. "Những hệ thống này được sử dụng để giám sát quy mô lớn trong nước," Amodei tuyên bố, lập luận rằng việc sử dụng như vậy trái với các giá trị dân chủ .
Phản ứng của Chính quyền: Cấm liên bang
Để đáp lại sự phản kháng của Anthropic, Tổng thống Trump đã ban hành một chỉ thị gay gắt trên nền tảng Truth Social của mình. "Tôi chỉ đạo MỌI Cơ quan Liên bang trong Chính phủ Hoa Kỳ NGỪNG NGAY lập tức tất cả việc sử dụng công nghệ của Anthropic," ông viết. "Chúng tôi không cần, không muốn, và sẽ không hợp tác với họ nữa!" .
Lệnh cấm bao gồm một giai đoạn giảm dần trong sáu tháng cho các cơ quan như Bộ Quốc phòng. Trump còn đe dọa công ty này, nói rằng nếu họ không hợp tác trong quá trình chuyển đổi này, ông sẽ sử dụng "Toàn bộ quyền lực của Tổng thống" để bắt buộc tuân thủ, với "hậu quả dân sự và hình sự lớn" .
Nhãn 'Rủi ro Chuỗi Cung Ứng' chưa từng có
Đi xa hơn việc hủy hợp đồng đơn thuần, Bộ trưởng Quốc phòng Pete Hegseth đã nâng cao vấn đề bằng cách chính thức xếp Anthropic vào danh sách "rủi ro chuỗi cung ứng" đối với an ninh quốc gia. Phân loại này, vốn thường dành cho các đối thủ nước ngoài như các công ty Trung Quốc, thực sự cấm bất kỳ nhà thầu hoặc đối tác nào của Pentagon tiến hành kinh doanh với Anthropic. Hegseth mô tả lập trường của Anthropic là một "bản master về sự kiêu ngạo và phản bội," trong khi công ty đã hứa sẽ thách thức quyết định "không hợp pháp" này tại tòa án.
Nghịch lý của việc sử dụng: Claude hỗ trợ các cuộc tấn công Iran
Thêm một lớp phức tạp vào cuộc đối đầu, các báo cáo cho biết quân đội Hoa Kỳ đã sử dụng Claude AI của Anthropic trong các cuộc không kích Iran—chỉ vài giờ sau khi Trump ra lệnh cấm. Theo The Wall Street Journal, Trung tâm chỉ huy Trung ương đã sử dụng Claude để đánh giá tình báo, xác định mục tiêu và mô phỏng chiến đấu trong quá trình hoạt động. Điều này làm nổi bật sự tích hợp sâu của công nghệ Anthropic vào các hệ thống quân sự bí mật, một yếu tố khiến chính quyền cho phép giai đoạn giảm dần sáu tháng thay vì đóng cửa ngay lập tức.
Phản ứng của ngành và các động thái đối thủ
Cộng đồng công nghệ đã thể hiện sự ủng hộ đáng kể đối với Anthropic. Hơn 700.000 công nhân công nghệ từ các công ty như Google, Amazon và Microsoft đã ký một bức thư mở kêu gọi các nhà tuyển dụng của họ từ chối các yêu cầu của Pentagon. Trong một biểu hiện đoàn kết bất ngờ, Giám đốc điều hành OpenAI, Sam Altman, công khai ủng hộ đối thủ Amodei, nói rằng vấn đề giờ đây là về "toàn bộ ngành công nghiệp" và các giới hạn đạo đức của nó.
Tuy nhiên, trong một diễn biến sau vài giờ kể từ lệnh cấm Anthropic, OpenAI thông báo đã ký hợp đồng với Pentagon để cung cấp các công cụ AI của mình cho các hệ thống bí mật. Altman khẳng định thỏa thuận này bao gồm các giới hạn giống như Anthropic đã yêu cầu, chẳng hạn như cấm giám sát quy mô lớn và duy trì trách nhiệm của con người trong việc sử dụng vũ lực. Động thái này đã tạo ra một rạn nứt rõ rệt trong ngành, với các cộng đồng trực tuyến bắt đầu ủng hộ Claude hơn là OpenAI.
Thời khắc định hình cho Quản trị AI
Các nhà phân tích xem cuộc đối đầu này như một điểm bùng phát trong cuộc tranh luận về "quân sự hóa AI". Một cựu quan chức Bộ Quốc phòng nhận định rằng cơ sở pháp lý cho các hành động của chính quyền chống lại Anthropic có vẻ "rất mỏng," gợi ý rằng công ty có thể có lợi thế trong nhận thức công chúng.
Trung tâm vì Dân chủ và Công nghệ đã chỉ trích động thái này như một "tiền lệ nguy hiểm" có thể trừng phạt một công ty vì đã đứng về nguyên tắc và có thể làm chậm các cuộc đàm phán trong tương lai giữa các công ty tư nhân và chính phủ. Khi Anthropic chuẩn bị cho một cuộc chiến pháp lý, kết quả có thể định hình mối quan hệ tương lai giữa Thung lũng Silicon và nhà nước an ninh quốc gia Hoa Kỳ, xác định xem các công ty AI có thể duy trì các giới hạn đạo đức trong đối mặt với áp lực của chính phủ hay không.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
#TrumpordersfederalbanonAnthropicAI
Phân tích: Cuộc đối đầu về AI trong Quân đội Hoa Kỳ
Một cuộc đối đầu lớn giữa chính quyền Trump và ngành công nghệ đã đỉnh điểm bằng việc cấm chưa từng có đối với một công ty AI nội địa hàng đầu khỏi các hoạt động của chính phủ Hoa Kỳ. Cuộc xung đột, tập trung vào việc sử dụng đạo đức trí tuệ nhân tạo trong chiến tranh, đã dẫn đến việc Tổng thống Donald Trump ra lệnh cho tất cả các cơ quan liên bang ngừng sử dụng công nghệ của Anthropic, nhà sản xuất mô hình AI Claude .
Mâu thuẫn cốt lõi: Truy cập Quân sự không hạn chế
Cuộc tranh chấp bắt đầu khi Bộ Quốc phòng, dưới sự chỉ đạo của Thư ký Pete Hegseth, yêu cầu các nhà cung cấp AI loại bỏ tất cả các hạn chế sử dụng để thúc đẩy phát triển một quân đội "AI trước tiên". Anthropic, đã ký hợp đồng với Lầu Năm Góc từ năm 2024, đã được giao hạn chót để đồng ý với việc "sử dụng không hạn chế" các công cụ của mình cho bất kỳ mục đích quân sự hợp pháp nào .
Giám đốc điều hành của Anthropic, Dario Amodei, từ chối tuân thủ, trích dẫn các giới hạn đạo đức rõ ràng. Công ty phản đối việc công nghệ của mình bị sử dụng để giám sát quy mô lớn công dân Hoa Kỳ và để triển khai trong các hệ thống vũ khí hoàn toàn tự động có thể hoạt động mà không cần sự giám sát của con người. "Những hệ thống này được sử dụng để giám sát quy mô lớn trong nước," Amodei tuyên bố, lập luận rằng việc sử dụng như vậy trái với các giá trị dân chủ .
Phản ứng của Chính quyền: Cấm liên bang
Để đáp lại sự phản kháng của Anthropic, Tổng thống Trump đã ban hành một chỉ thị gay gắt trên nền tảng Truth Social của mình. "Tôi chỉ đạo MỌI Cơ quan Liên bang trong Chính phủ Hoa Kỳ NGỪNG NGAY lập tức tất cả việc sử dụng công nghệ của Anthropic," ông viết. "Chúng tôi không cần, không muốn, và sẽ không hợp tác với họ nữa!" .
Lệnh cấm bao gồm một giai đoạn giảm dần trong sáu tháng cho các cơ quan như Bộ Quốc phòng. Trump còn đe dọa công ty này, nói rằng nếu họ không hợp tác trong quá trình chuyển đổi này, ông sẽ sử dụng "Toàn bộ quyền lực của Tổng thống" để bắt buộc tuân thủ, với "hậu quả dân sự và hình sự lớn" .
Nhãn 'Rủi ro Chuỗi Cung Ứng' chưa từng có
Đi xa hơn việc hủy hợp đồng đơn thuần, Bộ trưởng Quốc phòng Pete Hegseth đã nâng cao vấn đề bằng cách chính thức xếp Anthropic vào danh sách "rủi ro chuỗi cung ứng" đối với an ninh quốc gia. Phân loại này, vốn thường dành cho các đối thủ nước ngoài như các công ty Trung Quốc, thực sự cấm bất kỳ nhà thầu hoặc đối tác nào của Pentagon tiến hành kinh doanh với Anthropic. Hegseth mô tả lập trường của Anthropic là một "bản master về sự kiêu ngạo và phản bội," trong khi công ty đã hứa sẽ thách thức quyết định "không hợp pháp" này tại tòa án.
Nghịch lý của việc sử dụng: Claude hỗ trợ các cuộc tấn công Iran
Thêm một lớp phức tạp vào cuộc đối đầu, các báo cáo cho biết quân đội Hoa Kỳ đã sử dụng Claude AI của Anthropic trong các cuộc không kích Iran—chỉ vài giờ sau khi Trump ra lệnh cấm. Theo The Wall Street Journal, Trung tâm chỉ huy Trung ương đã sử dụng Claude để đánh giá tình báo, xác định mục tiêu và mô phỏng chiến đấu trong quá trình hoạt động. Điều này làm nổi bật sự tích hợp sâu của công nghệ Anthropic vào các hệ thống quân sự bí mật, một yếu tố khiến chính quyền cho phép giai đoạn giảm dần sáu tháng thay vì đóng cửa ngay lập tức.
Phản ứng của ngành và các động thái đối thủ
Cộng đồng công nghệ đã thể hiện sự ủng hộ đáng kể đối với Anthropic. Hơn 700.000 công nhân công nghệ từ các công ty như Google, Amazon và Microsoft đã ký một bức thư mở kêu gọi các nhà tuyển dụng của họ từ chối các yêu cầu của Pentagon. Trong một biểu hiện đoàn kết bất ngờ, Giám đốc điều hành OpenAI, Sam Altman, công khai ủng hộ đối thủ Amodei, nói rằng vấn đề giờ đây là về "toàn bộ ngành công nghiệp" và các giới hạn đạo đức của nó.
Tuy nhiên, trong một diễn biến sau vài giờ kể từ lệnh cấm Anthropic, OpenAI thông báo đã ký hợp đồng với Pentagon để cung cấp các công cụ AI của mình cho các hệ thống bí mật. Altman khẳng định thỏa thuận này bao gồm các giới hạn giống như Anthropic đã yêu cầu, chẳng hạn như cấm giám sát quy mô lớn và duy trì trách nhiệm của con người trong việc sử dụng vũ lực. Động thái này đã tạo ra một rạn nứt rõ rệt trong ngành, với các cộng đồng trực tuyến bắt đầu ủng hộ Claude hơn là OpenAI.
Thời khắc định hình cho Quản trị AI
Các nhà phân tích xem cuộc đối đầu này như một điểm bùng phát trong cuộc tranh luận về "quân sự hóa AI". Một cựu quan chức Bộ Quốc phòng nhận định rằng cơ sở pháp lý cho các hành động của chính quyền chống lại Anthropic có vẻ "rất mỏng," gợi ý rằng công ty có thể có lợi thế trong nhận thức công chúng.
Trung tâm vì Dân chủ và Công nghệ đã chỉ trích động thái này như một "tiền lệ nguy hiểm" có thể trừng phạt một công ty vì đã đứng về nguyên tắc và có thể làm chậm các cuộc đàm phán trong tương lai giữa các công ty tư nhân và chính phủ. Khi Anthropic chuẩn bị cho một cuộc chiến pháp lý, kết quả có thể định hình mối quan hệ tương lai giữa Thung lũng Silicon và nhà nước an ninh quốc gia Hoa Kỳ, xác định xem các công ty AI có thể duy trì các giới hạn đạo đức trong đối mặt với áp lực của chính phủ hay không.