Bóng ma Deepfake đang bao trùm Hàn Quốc khi một mạng lưới phòng chat Telegram gây hoang mang dư luận vừa bị phanh phui. Hàng trăm video khiêu dâm Deepfake giả mạo được tạo ra từ những hình ảnh phụ nữ bình thường gây phẫn nộ lớn trong cộng đồng.
Nỗi lo sợ bao trùm cả Hàn Quốc khi nhiều phụ nữ, nữ sinh tại nước này đang hoang mang bởi họ rất có thể là nạn nhân của hàng loạt video deepfake khiêu dâm.
Với hai công cụ trí tuệ nhân tạo là ChatGPT và ứng dụng tạo giọng nói, tội phạm có thể kết hợp thành dữ liệu giọng nói trò chuyện qua điện thoại để đánh lừa người dùng.
Đã xảy ra nhiều vụ lừa đảo bằng cách cắt ghép hình ảnh, giọng nói y như thật để lừa đảo. Ngô Minh Hiếu (Hiếu PC) - người sáng lập Dự án Chống Lừa Đảo, đã vạch rõ chiêu trò mới này.
Đầu dây bên kia là giọng nói quen thuộc của mẹ bạn, người nhờ bạn gửi tiền vào một tài khoản lạ. Tin tưởng vào thanh âm gần gũi kia, bạn chuyển tiền mà không biết rằng mình đã bị lừa bởi công nghệ deepfake - giả mạo giọng nói như thật.
Deepfake - công nghệ trí tuệ nhân tạo giả mạo hình ảnh, giọng nói nhằm mục đích xấu, chiếm đoạt tài sản. Thủ đoạn tinh vi này đang là mối lo ngại với rất nhiều người dùng Internet trong thời gian vừa qua.