Tháng 12/2017, từ ngữ deepfake lần đầu được đề cập khi một người dùng có tên "deepfakes" công bố một loạt video 18+ trên diễn đàn Reddit. Tài khoản này đã sử dụng AI để ghép mặt các diễn viên, ca sĩ nổi tiếng như Scarlett Johansson, Gal Gadot, Katy Perry,... vào cơ thể của những diễn viên 18+.
Cũng từ đây những hình ảnh video sử dụng công nghệ deepfake đã gây ra mối lo ngại về đạo đức và người bị hại, đặc biệt là khi thông tin khó kiểm chứng xuất hiện tràn lan trên mạng xã hội. Bất chấp những tranh cãi và phản đối từ cộng đồng, deepfake vẫn sinh sôi nảy nở và được cải tiến dần theo thời gian.
Và khi một loạt ảnh "nhạy cảm" của sao Việt như Sơn Tùng M-TP, MoNo,... bị làm giả và chia sẻ tràn lan trên các trang web, người ta lại càng thấy sợ hãi khi công nghệ deepfake ngày càng bị biến tướng, sử dụng cho mục đích không lành mạnh.
Sơn Tùng M-TP là một trong những nạn nhân bị chế ảnh 18+, rao bán công khai trên tài khoản "Fake_***"
Trên tài khoản có tên "Fake_***" với 10.000 người theo dõi, hình ảnh nhạy cảm của các nam nghệ sĩ Việt được đăng tải hàng loạt, kèm rao bán với nhiều loại giá khác nhau. Tài khoản này cũng nhận chế ảnh deepfake có thu phí theo nhu cầu của người dùng mạng. Điều đáng nói, chủ nhân của tài khoản khẳng định việc cắt ghép chỉ mang tính chất giải trí, không xúc phạm ai.
Ở thời điểm hiện tại, tài khoản này đã "không tồn tại" trên Twitter. Điều này có nghĩa tài khoản đã bị chính chủ tự xóa, hoặc bị tạm ngưng sử dụng do vi phạm tiêu chuẩn cộng đồng của nền tảng của Twitter.
Hình ảnh deepfake của ngọc nữ của làng điện ảnh Hàn Quốc - Song Hye Kyo cũng được chia sẻ tràn lan trên các web đen
Tháng 3/2021, diễn viên Ninh Dương Lan Ngọc từng trở thành nạn nhân của công nghệ deepfake. Thời điểm đó, mạng xã hội lan truyền thông tin ngọc nữ làng điện ảnh Việt bị rò rỉ clip "nóng" trên các trang web "đen". Ngay sau đó, Ninh Dương Lan Ngọc đã lên tiếng đính chính thông tin, khẳng định đó không phải clip của mình.
Về bản chất, deepfake được phát triển theo kiểu máy học machine learning, tức là những bức ảnh của người nổi tiếng sẽ được đưa vào hệ thống thuật toán để dạy nó nhận biết được gương mặt theo những góc độ khác nhau.
Từ đó, nó sẽ suy luận ra và "đánh tráo" gương mặt của người nổi tiếng, hay thậm chí là bất cứ ai, với gương mặt có sẵn của diễn viên 'người lớn' trong phim. Kết quả cuối cùng cho ra là một bộ phim người lớn với gương mặt của những người nổi tiếng, như nạn nhân gần nhất là Sơn Tùng M-TP, HIEUTHUHAI,...
Không chỉ tại Việt Nam, vấn nạn deepfake đã gây nhức nhối và bị lên án suốt nhiều năm qua ở các thị trường giải trí khác, đặc biệt Hàn Quốc và Hoa ngữ. Vấn nạn Deepfake tràn lan đang làm ảnh hưởng rất lớn đến danh dự của các nạn nhân. Hậu quả mà một hình ảnh video như vậy có thể mang lại vô cùng nghiêm trọng.
Các chuyên gia đều khẳng định đây là hành vi vi phạm nghiêm trọng nhân quyền và có thể bị coi là hành vi quấy rối tình dục. Về mặt pháp lý, những video trên thực sự là một dạng bạo lực tình dục kỹ thuật số và cần phải trừng trị thích đáng.