Cũng theo nhóm nghiên cứu, hacker có thể dùng LLM để nâng cấp mã độc theo thời gian, làm giảm hiệu suất của các công cụ phân loại phần mềm độc hại, khiến hệ thống "tin" một đoạn mã độc là vô hại.
Nhiều công ty đứng sau các mô hình LLM đang tăng cường các biện pháp bảo mật nhằm ngăn chặn công cụ của họ bị sử dụng sai mục đích. Chẳng hạn, vào tháng 10, OpenAI cho biết đã chặn hơn 20 hoạt động và mạng lưới lừa đảo cố gắng sử dụng nền tảng để do thám, nghiên cứu lỗ hổng, hỗ trợ viết tập lệnh và gỡ lỗi.
Dù vậy, theo Hacker News, kẻ xấu vẫn có thể sử dụng giao diện lập trình ứng dụng (API) của các công cụ này, bẻ khóa chúng và khai thác cho mục đích riêng, như khả năng nhân bản, tăng cường khả năng "ẩn nấp" cho mã độc như WormGPT, FraudGPT.
Unit42 cho biết đã thử tạo phần mềm khai thác sức mạnh của LLM. Công cụ này viết lại các mã độc theo từng đợt nhằm mục đích tránh bị phát hiện bởi các mô hình máy học như Innocent Until Proven Guilty (IUPG ) hoặc PhishingJS, bằng cách đổi tên biến, tách chuỗi, chèn mã rác, loại bỏ khoảng trắng không cần thiết và triển khai lại hoàn toàn mã. Kết quả, công cụ có thể tạo 10.000 biến thể java script mới mà không làm thay đổi chức năng.
"Đầu ra là các biến thể của mã java script độc hại. Nó vẫn duy trì chức năng của tập lệnh gốc nhưng 'điểm độc hại' được IUPG và PhishingJS chấm thấp hơn", đại diện Unit42 cho biết. "Thuật toán đã đảo ngược khả năng phân tích của các công cụ phân loại phần mềm độc hại với tỷ lệ 88%".
Cũng theo nhóm nghiên cứu, mã độc sau khi được viết lại thậm chí có thể "né tránh" các phần mềm độc hại khác. Chúng cũng "trông tự nhiên" và dễ qua mặt các công cụ diệt virus.
"Quy mô của biến thể mã độc có thể tăng lên thời gian tới với sự trợ giúp của AI tạo sinh", Unit42 đánh giá. "Tất nhiên, chúng ta cũng có thể sử dụng chiến thuật tương tự để viết lại mã độc, biến nó thành dữ liệu đào tạo cho các mô hình máy học".
Trước đó, giới chuyên gia cũng cảnh báo AI tạo sinh có thể tiếp tay cho kẻ xấu trong việc lừa đảo, phát tán virus một cách đơn giản, ít tốn kém. Nghiên cứu của Check Point Research (CPR) công bố năm 2023 cho thấy ChatGPT có thể thực hiện thành công một quy trình lây nhiễm hoàn chỉnh, từ việc tạo email lừa đảo đến chạy một trình cài cắm, đánh cắp thông tin. Vào tháng 4, Ryuki Hayashi, ở thành phố Kawasaki, tỉnh Kanagawa, là trường hợp đầu tiên ở Nhật Bản bị bắt vì nghi ngờ tạo hồ sơ điện tử có chứa các lệnh trái phép bằng AI.
Theo dự báo của công ty bảo mật Fortinet (Mỹ), năm tới, tấn công mạng sẽ táo bạo hơn với AI. Ngoài ra, các nhóm tội phạm ngày càng trở nên chuyên biệt hóa, kết hợp giữa mối đe dọa vật lý và kỹ thuật số để nhắm mục tiêu hiệu quả, gây tác động mạnh mẽ hơn.
Ý kiến ()