Năm 2013, khi mới 18 tuổi, Martin phát hiện những bức ảnh đăng trên tài khoản mạng xã hội của mình bị ai đó tải về và ghép vào cơ thể của các ngôi sao phim người lớn. Hoảng sợ, cô liên hệ với các website đăng ảnh giả để gỡ chúng. Một số thực hiện, số còn lại không phản hồi và những bức ảnh vẫn tiếp tục tồn tại trên Internet.
Tuy nhiên, thay vì chỉ trích kẻ tạo ra nó, nhiều người trên mạng xã hội lại nói vì Martin đã tự chia sẻ ảnh lên mạng nên mới bị lợi dụng. Cuối cùng, cô phải nhờ cậy đến luật pháp. Tại Australia, nếu không tuân thủ việc xóa nội dung gây hại cho cá nhân, một công ty có thể bị phạt 370.000 USD.
Theo Fortune, sau 10 năm, ảnh của Martin đã được xóa trên hầu hết nền tảng, nhưng không thể loại bỏ triệt để. Với tư cách là luật sư và nhà nghiên cứu pháp lý tại Đại học Tây Australia, Martin hiện vận động các quốc gia thực hiện quản lý deepfake thông qua một giải pháp mang tính toàn cầu. Cô tin còn rất nhiều người trên khắp thế giới đang gặp rắc rối vì vấn nạn ghép ảnh hoặc video.
Năm 2020, Kate Issacs, nhà hoạt động 30 tuổi người Anh, cũng sợ hãi khi thấy video với nội dung giống như cô đang quan hệ tình dục lan truyền trên Twitter. "Cơn hoảng loạn như cuốn trôi tôi đi. Tôi không thể suy nghĩ rõ ràng, chỉ cảm thấy video này sẽ bị phát tán khắp nơi", cô nói với Metro về cảm giác khi biết mình trở thành nạn nhân của deepfake.
Deepfake là sự kết hợp giữa deep learning (học sâu) và fake (giả). Công nghệ này sử dụng AI phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video trông như thật. Xuất hiện cách đây nhiều năm nhưng deepfake bắt đầu gây chú ý từ 2017 sau hàng loạt video khiêu dâm mạo danh người nổi tiếng, như diễn viên Gal Gadot, Emma Watson, Scarlett Johansson hay Daisy Ridley.
Danh mục nạn nhân của deepfake đang tiếp tục được mở rộng nhanh chóng. Bất cứ ai đăng ảnh chân dung trên mạng cũng có nguy cơ trở thành nạn nhân của kẻ xấu. Từ giữa 2022, hàng loạt công cụ AI thế hệ mới như Replika, Character AI, Midjourney, Stable Diffusion xuất hiện càng khiến việc đưa khuôn mặt ai đó vào nội dung khiêu dâm trở nên dễ dàng và khó phân biệt thật giả.
Theo Washington Post, trên một số diễn đàn, các thành viên thậm chí thảo luận về cách sử dụng Stable Diffusion tạo ảnh khỏa thân của những phụ nữ ngoài đời thực mà không có sự đồng ý của họ. Trong đó, một số người hướng dẫn cách sử dụng AI để xóa bỏ quần áo của các cô gái cho mục đích độc hại.
Theo thống kê của Sensity, công ty chuyên về AI, gần 96% nội dung deepfake là khiêu dâm và hầu hết trong số đó sử dụng khuôn mặt phụ nữ trái phép. Còn theo NBC News, người dùng hiện nay có thể mua hình ảnh khiêu dâm deepfake của "những cô gái cá tính" với giá 5 USD.
Adam Dodge, người sáng lập công ty chống lạm dụng công nghệ EndTAB, cho rằng chừng nào việc tạo ảnh deepfake còn dễ dàng, mối nguy hại từ bạo lực tình dục trực tuyến, nội dung khiêu dâm deepfake và hình ảnh khỏa thân giả mạo sẽ còn tồn tại.
Chủ các nền tảng AI làm gì?
Hầu hết công ty đang cung cấp các công cụ AI phổ biến khẳng định đã hạn chế quyền tạo nội dung khiêu dâm. Ví dụ, OpenAI cho biết đã xóa nội dung khiêu dâm ngay trong kho dữ liệu được sử dụng để đào tạo Dall-E. Họ cũng chặn các câu lệnh tạo ảnh liên quan đến người nổi tiếng và chính trị gia. Midjourney cũng nói đã lọc một số từ khóa khiêu dâm, đồng thời khuyến khích người dùng gắn cờ các hình ảnh có vấn đề để thông báo cho người kiểm duyệt.
TikTok và Meta cho biết tất cả nội dung deepfake hoặc tương tự phải được gắn nhãn để người xem biết chúng là giả. App Store và Google Play cũng đã xóa các ứng dụng chạy video deepfake gợi dục của nữ diễn viên để tiếp thị sản phẩm.
Một số cơ quan quản lý đang để mắt đến nội dung AI "người lớn". Đầu tháng 2, Cơ quan bảo vệ dữ liệu Italy đã cấm Replika sau khi ứng dụng cho phép trẻ vị thành niên và người yếu đuối về mặt cảm xúc "truy cập nội dung khiêu dâm không phù hợp".
"Khi mọi người hỏi những tảng đá đang đổ xuống đầu chúng ta trên môi trường trực tuyến hiện nay là gì, có hai thứ cần quan tâm: bảo vệ trẻ em và AI, cụ thể ở đây là deepfake", Gavin Portnoy, phát ngôn viên của Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột Mỹ (NCMEC), nói. "Nhưng chúng ta chưa phản ứng được gì".
Ý kiến ()