Chi phí tạo tin giả bằng AI chỉ 13 won, 4 giây: Hội nghị An ninh Hàn Quốc

CryptoFrontier

Vào ngày 16 tháng 4 năm 2026, Ko Woo-young, một nhà nghiên cứu cấp cao tại Viện Công nghệ An ninh Quốc gia của Hàn Quốc (NSTI), đã trình bày các phát hiện tại Hội nghị Bảo mật Mạng Thông tin và Truyền thông lần thứ 32 (NetSec-KR 2026) ở Seoul, qua đó tiết lộ rằng tin tức giả do AI tạo ra có thể được tạo ra với chi phí và tốc độ cực kỳ thấp. Theo phần trình bày của Ko, việc tạo tin tức giả bằng AI tạo sinh tốn trung bình 13 won và mất 4 giây, trong khi 12 mục tin tức giả cần 155 won và 46 giây trung bình. Ko nhấn mạnh rằng sự lan rộng của thông tin sai lệch do AI tạo ra và các bình luận độc hại được thiết kế để thao túng dư luận đã trở thành một mối đe dọa nghiêm trọng đối với xã hội.

Thông tin sai lệch do AI tạo ra và tác động xã hội

Ko nêu bật rằng khi năng lực của AI tạo sinh ngày càng bị lạm dụng sai mục đích, chiến thuật lạm dụng chính liên quan đến thao túng quan điểm và thông tin. Ông nhấn mạnh rằng khi chi phí và số lượng tin tức giả cùng các bình luận giả trở nên quá thấp và dồi dào, xã hội đã đạt đến mức mà việc phân biệt sự thật với điều sai sự thật trở nên cực kỳ khó khăn.

Theo phân tích của Ko, khi thông tin giả trở nên phổ biến rộng rãi, các thành viên trong xã hội sẽ cảm thấy mệt mỏi vì thông tin sai lệch và bắt đầu mất hứng thú với thực tế. Hiện tượng này khiến mọi người nghi ngờ cả những thông tin đích thực. Ko cho biết: “Việc trừng phạt tin tức giả về mặt pháp lý rất khó thực thi trừ khi nó mang lại lợi ích tài chính,” và nhấn mạnh rằng “công nghệ AI tạo sinh đang phát triển quá nhanh, và cần có cải thiện ở cấp độ thể chế.”

Ko Woo-young trình bày về rủi ro của tin tức giả do AI tạo ra tại NetSec-KR 2026

Phân tích và phát hiện phần mềm độc hại dựa trên AI

Choi Seok-woo, Giám đốc của NSTI, đã trình bày về “Công nghệ phân tích phần mềm độc hại dựa trên AI” trong cùng phiên. Theo các phát hiện của Choi, khi AI bắt đầu được sử dụng để tạo mã độc, khoảng 450.000 mẫu phần mềm độc hại mới được tạo ra mỗi ngày. Tổng số tích lũy của phần mềm độc hại đã vượt quá 1 tỷ phiên bản.

Trước sự gia tăng ngày càng mạnh mối đe dọa này, Choi đề xuất phát triển các giải pháp do AI dẫn dắt, bao gồm hệ thống hỗ trợ phân tích dựa trên AI, các tác nhân phân tích tự chủ dựa trên mô hình ngôn ngữ lớn (LLM), và các công cụ tự động để làm rõ (deobfuscation).

Choi Seok-woo trình bày về sự cần thiết của công nghệ phân tích phần mềm độc hại dựa trên AI

Phát hiện lỗ hổng dựa trên LLM: Các hạn chế hiện tại

Ji Hyun-seok, Nhà nghiên cứu cấp cao tại NSTI, đã trình bày về “Kỷ nguyên phát hiện lỗ hổng bảo mật phần mềm dựa trên LLM.” Nghiên cứu của Ji đã xem xét cách các LLM phát hiện lỗ hổng bảo mật và phát hiện ra những hạn chế đáng kể trong năng lực hiện tại.

Ji nói: “Trong các trường hợp gần đây, mặc dù AI đã xác định được nhiều lỗ hổng, kết quả phân tích cho thấy điều đó thực sự không đúng. Việc phát hiện hiệu quả lỗ hổng chỉ có thể thực hiện được khi LLM và các mô hình AI được cung cấp các công cụ chuyên dụng để phát hiện lỗ hổng.” Theo Ji, hiện tại các LLM phải đối mặt với một số ràng buộc, bao gồm hạn chế trong việc xử lý các cơ sở mã lớn, các vấn đề phụ thuộc dữ liệu và lập luận không đáng tin cậy.

Ji dự đoán rằng sự cộng hưởng sẽ được tối đa hóa khi các chuyên gia phân tích bảo mật lành nghề, có khả năng trực tiếp xác định lỗ hổng, có thể tận dụng các công cụ LLM. Tuy nhiên, Ji nhấn mạnh rằng “phát hiện lỗ hổng bằng LLM vẫn chưa hoàn chỉnh. Cần phải khám phá các phương pháp tốt hơn để tìm lỗ hổng.” Bài trình bày nhấn mạnh rằng việc phát hiện lỗ hổng dựa trên LLM hiện vẫn chưa thể được thực hiện hiệu quả chỉ bằng AI, và chuyên môn của con người vẫn là yếu tố thiết yếu cho phân tích bảo mật đáng tin cậy.

Ji Hyun-seok trình bày về nghiên cứu phát hiện lỗ hổng dựa trên LLM

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận