Hôm qua có một bài báo trên The New Yorker mà tôi không thể ngừng nghĩ về. Cơ bản, các nhà điều tra ở đó đã phỏng vấn hơn 100 người liên quan đến OpenAI và truy cập được các tài liệu nội bộ chưa từng công khai. Kết quả là gì? Một câu chuyện phức tạp hơn nhiều so với drama năm 2023 đó.



Mọi chuyện bắt đầu với một tài liệu dài 70 trang mà Ilya Sutskever, nhà khoa học trưởng của OpenAI, đã tổng hợp vào năm 2023. Ông đã gom các tin nhắn Slack, liên lạc với bộ phận nhân sự, biên bản các cuộc họp nội bộ... tất cả để trả lời một câu hỏi: Sam Altman, người có thể kiểm soát công nghệ nguy hiểm nhất trong lịch sử, có đáng tin cậy không? Kết luận của ông trên trang đầu tiên? "Sam thể hiện một mẫu hành vi nhất quán của việc nói dối."

Điều khiến tôi chú ý là một ví dụ rất cụ thể. Vào tháng 12 năm 2022, trong một cuộc họp hội đồng, Altman khẳng định rằng nhiều chức năng của GPT-4 đã qua kiểm tra an toàn. Khi họ yêu cầu xem các tài liệu, họ phát hiện ra rằng hai trong số các chức năng gây tranh cãi nhất chưa từng qua kiểm tra an toàn. Đơn giản vậy thôi.

Nhưng còn nhiều hơn thế. Dario Amodei, người sau này thành lập Anthropic, đã để lại hơn 200 trang ghi chú cá nhân khi còn làm việc tại OpenAI. Ông ghi lại cách công ty từng bước rút lui dưới áp lực thương mại. Một điều khiến ông đặc biệt lo lắng là khi Microsoft đầu tư vào năm 2019, có một điều khoản nói rằng nếu đối thủ nào tìm ra con đường an toàn hơn để đạt AGI, OpenAI sẽ phải dừng cạnh tranh và hỗ trợ. Nhưng Microsoft có quyền phủ quyết điều đó. Cơ bản, cam kết an toàn đó trở thành giấy lộn.

Có một chi tiết khá đáng sợ. Vào giữa năm 2023, Altman công khai tuyên bố rằng OpenAI sẽ dành 20% khả năng tính toán của mình cho một "đội ngũ siêu phù hợp" - tiềm năng hơn 1 tỷ đô la. Nhưng bốn người từng làm việc ở đó nói rằng công suất thực tế phân bổ chỉ khoảng 1% đến 2%, vẫn dùng phần cứng cũ hơn. Đội ngũ đó sau đó bị giải thể. Khi các nhà báo yêu cầu phỏng vấn các người phụ trách nghiên cứu an toàn tồn tại, phản hồi từ phía OpenAI là: "Điều đó thực sự không tồn tại."

Mới nhất đây: Sarah Friar, Giám đốc tài chính của OpenAI, đã có những bất đồng nghiêm trọng với Altman về việc phát hành cổ phiếu lần đầu ra công chúng (IPO). Cô ấy cho rằng công ty chưa sẵn sàng, xét đến rủi ro tài chính từ lời hứa của Altman sẽ chi 600 tỷ đô la cho khả năng tính toán. Nhưng phần kỳ lạ là - cô ấy không còn báo cáo trực tiếp cho Altman nữa. Hiện tại, cô ấy báo cáo cho Fidji Simo, người vừa nghỉ phép tuần trước. Một công ty đang trong quá trình IPO, CEO và CFO bất đồng cơ bản, CFO không báo cáo trực tiếp cho CEO, và người cấp trên của CFO đang nghỉ phép. Thậm chí các giám đốc của Microsoft cũng không còn kiên nhẫn nữa, nói rằng Altman "bịa đặt, phá vỡ lời hứa."

Một cựu thành viên hội đồng mô tả Altman khá thú vị: ông ta có mong muốn cực kỳ mãnh liệt là làm hài lòng trong từng cuộc gặp mặt trực tiếp, nhưng đồng thời thể hiện một sự thờ ơ gần như xã hội bệnh lý về hậu quả của việc lừa dối người khác. Đó là một sự kết hợp hiếm có - và hoàn hảo cho một người bán hàng.

Vấn đề là: nếu Altman là CEO của bất kỳ công ty công nghệ nào bình thường, đó chỉ là một tin đồn doanh nghiệp tốt. Nhưng OpenAI đang phát triển công nghệ có thể tái cấu trúc nền kinh tế toàn cầu, dùng để tạo vũ khí sinh học hoặc tấn công mạng. Cựu nhà khoa học trưởng và người từng phụ trách an toàn cho rằng ông ta không đáng tin cậy. Các đối tác so sánh ông ta với SBF. Và dù vậy, ông vẫn muốn đưa công ty này lên sàn với định giá trên 850 tỷ đô la.

Giáo sư AI tại New York, Gary Marcus, đã đặt câu hỏi rất trực tiếp sau khi đọc xong: bạn có thực sự cảm thấy an toàn khi để Altman quyết định một mình có nên phát hành một mô hình có thể thay đổi số phận nhân loại không?

Phản hồi của OpenAI chủ yếu là đặt câu hỏi về động cơ của các nguồn tin, mà không phủ nhận điều gì cụ thể. Altman không trả lời các cáo buộc trực tiếp.

Đây là câu chuyện về một nhóm những người lý tưởng lo lắng về rủi ro của AI đã tạo ra một tổ chức phi lợi nhuận với một sứ mệnh rõ ràng. Sau đó, công nghệ tiến bộ, vốn lớn đổ vào, vốn đòi hỏi lợi nhuận, và sứ mệnh bắt đầu nhường chỗ. Đội ngũ an toàn bị giải thể, những người chất vấn bị đuổi, tổ chức phi lợi nhuận biến thành tổ chức có lợi nhuận, và hội đồng có thể chấm dứt hoạt động giờ đây đầy những đồng minh của CEO. Hơn trăm nhân chứng đều mô tả giống nhau: "không bị giới hạn bởi sự thật."
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim