Nguy cơ chính của AI không phải là điều gì đó có thể xảy ra sai lệch, mà là tốc độ xảy ra của nó. Trong lịch sử, con người trong chuỗi quyết định đã là một loại cầu chì — thứ làm chậm quá trình đủ để đưa ra phán đoán đúng lúc. AI dựa trên tác nhân hoàn toàn loại bỏ cầu chì này. Chỉ riêng hậu quả của các cuộc tấn công mạng tấn công phải khiến bất kỳ hội đồng quản trị nào cũng phải cảnh giác. Trước đây, kinh tế đã kiềm chế các kẻ xấu khỏi tự động hóa các cuộc tấn công một cách toàn diện: đơn giản là điều đó không có lợi. Học máy loại bỏ giới hạn này. Khi các hệ thống AI tương tác với nhau ngoài môi trường kiểm soát và điều gì đó xảy ra không đúng tốc độ của máy — việc dừng lại có thể trở nên không thể. Những hậu quả không lường trước của công nghệ này, mà chúng ta còn chưa bắt đầu nghĩ đến, sẽ không phát triển chậm chạp.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim