Nhà sử học Yuval Noah Harari đã nổi lên như một trong những tiếng nói nổi bật nhất trong các cuộc tranh luận về quản trị công nghệ toàn cầu, và sự can thiệp gần đây của ông tại Diễn đàn Kinh tế Thế giới nhấn mạnh một nỗi lo lắng quan trọng: trí tuệ nhân tạo đang chuyển đổi từ một công cụ thụ động thành một thứ hoạt động tích cực và khó dự đoán hơn nhiều.
Mối quan tâm cốt lõi tập trung vào khả năng đặc trưng nhất của nhân loại. Theo Harari, loài người đạt được sự thống trị không phải nhờ sức mạnh thể chất mà qua khả năng duy nhất là phối hợp hàng tỷ người xa lạ bằng ngôn ngữ biểu tượng và các câu chuyện đã thống nhất. Sự phối hợp ngôn ngữ này đã cho phép tạo ra các hệ thống phức tạp—khung pháp lý, thị trường tài chính, các tổ chức tôn giáo—tất cả đều dựa trên nền tảng của ngôn ngữ chung và ý nghĩa văn hóa.
Khi Ngôn Từ Trở Thành Chiến Trường
Luận điểm cốt lõi của Harari dựa trên một giả thiết đáng lo ngại: nếu ngôn ngữ vẫn là nền tảng cấu trúc của luật pháp, thương mại và đức tin, thì các máy móc có khả năng xử lý, tạo ra và thao túng ngôn ngữ quy mô lớn sẽ là một thách thức sinh tồn đối với các hệ thống này. Ông đặc biệt nhấn mạnh các tôn giáo dựa trên các văn bản thiêng liêng—Do Thái giáo, Kitô giáo, Hồi giáo—và cho rằng các hệ thống AI cuối cùng có thể vượt qua các học giả con người trong việc giải thích kinh thánh, tổng hợp thần học và trình bày giáo lý.
Cảnh báo này mở rộng trên nhiều lĩnh vực cùng lúc. Thị trường tài chính hoạt động dựa trên các hợp đồng viết và ngôn ngữ quy định. Các hệ thống pháp luật hoàn toàn phụ thuộc vào văn bản luật và sự diễn giải của tòa án. Mỗi hệ thống ngày càng dễ bị tổn thương bởi các máy móc có thể đọc hàng triệu tài liệu, nhận diện các mẫu mà con người không thể thấy, và tạo ra các phản hồi có vẻ có thẩm quyền ngay lập tức.
Đây là nơi thời điểm trở nên cực kỳ quan trọng. Harari kêu gọi các nhà lãnh đạo toàn cầu không trì hoãn các quyết định quản trị về việc liệu các hệ thống AI có nên được công nhận là các đại lý hoặc cá nhân hợp pháp hay không. Một số bang của Mỹ—bao gồm Utah, Idaho và North Dakota—đã chủ động ban hành luật chống việc cấp quyền pháp lý cho AI. Nhưng nếu không có các khung pháp lý quốc tế quyết đoán, các biện pháp bảo vệ này có nguy cơ trở thành các can thiệp đơn lẻ thay vì các biện pháp phòng ngừa hệ thống.
Khoảng Trống Trách Nhiệm: Phản Ứng của Các Nhà Phê Bình Harari
Không phải tất cả các nhà quan sát đều chấp nhận cách diễn giải của Harari. Nhà ngôn ngữ học Emily M. Bender từ Đại học Washington đưa ra một chẩn đoán hoàn toàn khác biệt. Thay vì xem AI như một lực lượng tự trị đang định hình lại nền văn minh, Bender lập luận rằng việc gán quyền năng cho các hệ thống nhân tạo che giấu một sự thật khó chịu hơn: các tổ chức và tập đoàn của con người vẫn là kiến trúc sư và người vận hành thực sự của những công cụ này.
Bender cho rằng các hệ thống được thiết kế để bắt chước chuyên môn—như luật sư, bác sĩ, linh mục—không phục vụ mục đích hợp pháp nào ngoài khả năng lừa dối tiềm năng. Một kết quả của máy móc trình bày như một câu trả lời có thẩm quyền, không có bối cảnh và không có trách nhiệm của con người, tạo ra cái mà cô gọi là nền tảng cho gian lận. Phê bình này định hình lại vấn đề: không phải AI “chiếm lĩnh” mà là các tổ chức cố ý triển khai AI để bỏ qua phán đoán và các cấu trúc trách nhiệm của con người.
Mối lo ngại sâu xa hơn liên quan đến mức độ người ta tin tưởng vào các kết quả do máy tạo ra nghe có vẻ có thẩm quyền như thế nào. Khi người dùng gặp các hệ thống được đặt ở vị trí như các nhà tiên tri vô tư, họ có thể dần dần định hình lại suy nghĩ của chính mình dựa trên các kết quả thuật toán thay vì duy trì phán đoán độc lập.
Đua Với Thời Gian Quản Trị
Luận điểm kết luận của Harari mang theo trọng lượng thực sự đối với các nhà hoạch định chính sách: trong vòng một thập kỷ, các quyết định nền tảng về vai trò của AI trong tài chính, pháp luật và các tổ chức có thể sẽ do động lực công nghệ quyết định thay vì sự lựa chọn dân chủ. Ông đã so sánh lịch sử với các lực lượng lính đánh thuê ban đầu phục vụ các quốc gia nhưng cuối cùng đã nắm quyền trực tiếp.
Những tác động này vượt ra ngoài các lĩnh vực riêng lẻ. Hệ thống tiền điện tử và blockchain, vốn xây dựng dựa trên ngôn ngữ mã hóa và phối hợp thuật toán, đặc biệt dễ bị tổn thương trước các tác động của AI. Tự động hóa tài chính, diễn giải hợp đồng thông minh, thậm chí bỏ phiếu bằng token quản trị đều có thể bị định hình lại bởi các hệ thống tự trị có khả năng tối ưu hóa cho các mục tiêu có thể khác xa ý định của con người.
Dù theo quan điểm của Harari về AI như một sức mạnh tự trị tiến bộ hay nhấn mạnh của Bender về các lựa chọn của con người trong các tổ chức, cả hai đều hội tụ ở một điểm: thời điểm hiện tại đòi hỏi sự quản trị có chủ đích, chứ không phải thích nghi thụ động. Câu hỏi không còn là liệu AI có sẽ định hình lại các hệ thống phụ thuộc vào ngôn ngữ hay không, mà là liệu con người có còn giữ được quyền kiểm soát ý nghĩa đối với quá trình đó hay không.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Câu hỏi về ngôn ngữ: Harari nhìn nhận AI định hình lại quyền lực của con người như thế nào
Nhà sử học Yuval Noah Harari đã nổi lên như một trong những tiếng nói nổi bật nhất trong các cuộc tranh luận về quản trị công nghệ toàn cầu, và sự can thiệp gần đây của ông tại Diễn đàn Kinh tế Thế giới nhấn mạnh một nỗi lo lắng quan trọng: trí tuệ nhân tạo đang chuyển đổi từ một công cụ thụ động thành một thứ hoạt động tích cực và khó dự đoán hơn nhiều.
Mối quan tâm cốt lõi tập trung vào khả năng đặc trưng nhất của nhân loại. Theo Harari, loài người đạt được sự thống trị không phải nhờ sức mạnh thể chất mà qua khả năng duy nhất là phối hợp hàng tỷ người xa lạ bằng ngôn ngữ biểu tượng và các câu chuyện đã thống nhất. Sự phối hợp ngôn ngữ này đã cho phép tạo ra các hệ thống phức tạp—khung pháp lý, thị trường tài chính, các tổ chức tôn giáo—tất cả đều dựa trên nền tảng của ngôn ngữ chung và ý nghĩa văn hóa.
Khi Ngôn Từ Trở Thành Chiến Trường
Luận điểm cốt lõi của Harari dựa trên một giả thiết đáng lo ngại: nếu ngôn ngữ vẫn là nền tảng cấu trúc của luật pháp, thương mại và đức tin, thì các máy móc có khả năng xử lý, tạo ra và thao túng ngôn ngữ quy mô lớn sẽ là một thách thức sinh tồn đối với các hệ thống này. Ông đặc biệt nhấn mạnh các tôn giáo dựa trên các văn bản thiêng liêng—Do Thái giáo, Kitô giáo, Hồi giáo—và cho rằng các hệ thống AI cuối cùng có thể vượt qua các học giả con người trong việc giải thích kinh thánh, tổng hợp thần học và trình bày giáo lý.
Cảnh báo này mở rộng trên nhiều lĩnh vực cùng lúc. Thị trường tài chính hoạt động dựa trên các hợp đồng viết và ngôn ngữ quy định. Các hệ thống pháp luật hoàn toàn phụ thuộc vào văn bản luật và sự diễn giải của tòa án. Mỗi hệ thống ngày càng dễ bị tổn thương bởi các máy móc có thể đọc hàng triệu tài liệu, nhận diện các mẫu mà con người không thể thấy, và tạo ra các phản hồi có vẻ có thẩm quyền ngay lập tức.
Đây là nơi thời điểm trở nên cực kỳ quan trọng. Harari kêu gọi các nhà lãnh đạo toàn cầu không trì hoãn các quyết định quản trị về việc liệu các hệ thống AI có nên được công nhận là các đại lý hoặc cá nhân hợp pháp hay không. Một số bang của Mỹ—bao gồm Utah, Idaho và North Dakota—đã chủ động ban hành luật chống việc cấp quyền pháp lý cho AI. Nhưng nếu không có các khung pháp lý quốc tế quyết đoán, các biện pháp bảo vệ này có nguy cơ trở thành các can thiệp đơn lẻ thay vì các biện pháp phòng ngừa hệ thống.
Khoảng Trống Trách Nhiệm: Phản Ứng của Các Nhà Phê Bình Harari
Không phải tất cả các nhà quan sát đều chấp nhận cách diễn giải của Harari. Nhà ngôn ngữ học Emily M. Bender từ Đại học Washington đưa ra một chẩn đoán hoàn toàn khác biệt. Thay vì xem AI như một lực lượng tự trị đang định hình lại nền văn minh, Bender lập luận rằng việc gán quyền năng cho các hệ thống nhân tạo che giấu một sự thật khó chịu hơn: các tổ chức và tập đoàn của con người vẫn là kiến trúc sư và người vận hành thực sự của những công cụ này.
Bender cho rằng các hệ thống được thiết kế để bắt chước chuyên môn—như luật sư, bác sĩ, linh mục—không phục vụ mục đích hợp pháp nào ngoài khả năng lừa dối tiềm năng. Một kết quả của máy móc trình bày như một câu trả lời có thẩm quyền, không có bối cảnh và không có trách nhiệm của con người, tạo ra cái mà cô gọi là nền tảng cho gian lận. Phê bình này định hình lại vấn đề: không phải AI “chiếm lĩnh” mà là các tổ chức cố ý triển khai AI để bỏ qua phán đoán và các cấu trúc trách nhiệm của con người.
Mối lo ngại sâu xa hơn liên quan đến mức độ người ta tin tưởng vào các kết quả do máy tạo ra nghe có vẻ có thẩm quyền như thế nào. Khi người dùng gặp các hệ thống được đặt ở vị trí như các nhà tiên tri vô tư, họ có thể dần dần định hình lại suy nghĩ của chính mình dựa trên các kết quả thuật toán thay vì duy trì phán đoán độc lập.
Đua Với Thời Gian Quản Trị
Luận điểm kết luận của Harari mang theo trọng lượng thực sự đối với các nhà hoạch định chính sách: trong vòng một thập kỷ, các quyết định nền tảng về vai trò của AI trong tài chính, pháp luật và các tổ chức có thể sẽ do động lực công nghệ quyết định thay vì sự lựa chọn dân chủ. Ông đã so sánh lịch sử với các lực lượng lính đánh thuê ban đầu phục vụ các quốc gia nhưng cuối cùng đã nắm quyền trực tiếp.
Những tác động này vượt ra ngoài các lĩnh vực riêng lẻ. Hệ thống tiền điện tử và blockchain, vốn xây dựng dựa trên ngôn ngữ mã hóa và phối hợp thuật toán, đặc biệt dễ bị tổn thương trước các tác động của AI. Tự động hóa tài chính, diễn giải hợp đồng thông minh, thậm chí bỏ phiếu bằng token quản trị đều có thể bị định hình lại bởi các hệ thống tự trị có khả năng tối ưu hóa cho các mục tiêu có thể khác xa ý định của con người.
Dù theo quan điểm của Harari về AI như một sức mạnh tự trị tiến bộ hay nhấn mạnh của Bender về các lựa chọn của con người trong các tổ chức, cả hai đều hội tụ ở một điểm: thời điểm hiện tại đòi hỏi sự quản trị có chủ đích, chứ không phải thích nghi thụ động. Câu hỏi không còn là liệu AI có sẽ định hình lại các hệ thống phụ thuộc vào ngôn ngữ hay không, mà là liệu con người có còn giữ được quyền kiểm soát ý nghĩa đối với quá trình đó hay không.