Theo Forbes, tội phạm mạng bắt đầu sử dụng ChatGPT của OpenAI cho mục đích xấu. Chúng được dùng để tạo công cụ hack, xây dựng các chatbot đóng giả phụ nữ cho mục đích lừa đảo, tạo phần mềm độc hại có khả năng theo dõi thao tác gõ bàn phím của người dùng hoặc tạo ra mã độc tống tiền.
Alex Holden, người sáng lập công ty tình báo mạng Hold Security, cho biết ông đã thấy những kẻ lừa đảo trên dịch vụ hẹn hò trực tuyến đã sử dụng ChatGPT. "Chúng lên kế hoạch tạo ra các chatbot đóng giả các cô gái nhằm tìm kiếm và dụ dỗ mục tiêu, tự động hóa các cuộc lừa đảo. Điều này giúp kẻ gian săn được nhiều con mồi hơn", Holden nói.
Theo công ty an ninh Check Point của Israel, các diễn đàn tội phạm ngầm ngày càng xuất hiện nhiều mã độc tạo bởi AI. Chẳng hạn, cuối tuần qua, hacker ẩn danh trên một diễn đàn mua bán dữ liệu đã chia sẻ một phần mềm độc hại nhắm đến thiết bị Android được viết bởi ChatGPT. Một bài đăng khác giới thiệu backdoor cho máy tính, có thể tải thêm phần mềm độc hại lên máy bị nhiễm, sau đó lan truyền ra toàn hệ thống.
Trong một diễn đàn hacker khác, một người dùng đã chia sẻ mã nguồn Python của một ứng dụng có thể mã hóa tệp và cho biết nó do phần mềm của OpenAI tạo ra dựa trên một kịch bản có sẵn. Theo đánh giá của Check Point, phần mềm này hướng mục đích tốt, nhưng nó cũng có thể "dễ dàng bị sửa đổi để mã hóa hoàn toàn máy của ai đó mà không cần bất kỳ tương tác nào của người dùng" - điều tương tự cách thức hoạt động của ransomware.
Đến nay, các tính năng hỗ trợ mã hóa mà ChatGPT tạo ra vẫn được đánh giá là khá cơ bản. Dù vậy, chuyên gia của Check Point cho rằng hacker sẽ sớm tìm ra cách thức tinh vi hơn trong việc biến AI thành lợi thế của chúng.
Rik Ferguson, Phó chủ tịch bộ phận Bảo mật tình báo tại công ty an ninh mạng Forescout (Mỹ), đánh giá ChatGPT hiện chưa có khả năng mã hóa thứ gì đó phức tạp, chưa thể tạo ra phần mềm có khả năng tương tự các chủng ransomware từng thấy trong các sự cố tấn công mạng những năm qua. "Tuy nhiên, công cụ của OpenAI sẽ giúp người mới rút ngắn quá trình học hỏi để tham gia vào thị trường bất hợp pháp đó, bằng cách xây dựng phần mềm độc hại cơ bản hơn nhưng hiệu quả tương tự", Ferguson giải thích.
Cũng theo Ferguson, bên cạnh việc xây dựng phần mềm để đánh cắp dữ liệu của nạn nhân, ChatGPT cũng có thể bị lợi dụng để xây dựng website và bot lừa đảo người dùng chia sẻ thông tin cá nhân. Ông cho rằng việc "công nghiệp hóa lừa đảo và đánh cắp dữ liệu" có thể xảy ra trong tương lai gần.
Sergey Shykevich, nhà nghiên cứu mảng tình báo mạng của Check Point, dự đoán ChatGPT sẽ là một "công cụ tuyệt vời" cho các hacker không thông thạo tiếng Anh có thể tạo ra các email lừa đảo bằng ngôn ngữ này. Theo ông, cần có hành lang pháp lý sớm nhằm tránh việc ChatGPT bị lợi dụng.
Đến nay, OpenAI đã triển khai một số biện pháp kiểm soát, ngăn chặn các yêu cầu "nhạy cảm" mà người dùng đưa ra cho ChatGPT, trong đó có xây dựng phần mềm gián điệp. Dù vậy, kẻ xấu vẫn được cho là đang tìm cách lách luật để tạo ra các sản phẩm phục vụ cho mục đích của chúng.
Ý kiến ()