Gọi video deepfake với hình ảnh và khuôn mặt giả mạo là một trong những thủ đoạn tinh vi của tội phạm công nghệ cao. Hình thức này khiến nhiều người trở thành nạn nhân, bị lừa đảo, chiếm đoạt tài sản, thông tin...
Công an TP Đà Nẵng gần đây nhận được phản ánh của các tập đoàn, doanh nghiệp lớn như Hòa Phát, CMC, Cen Group, THACO, Sun Group… về việc các tập đoàn này bị mạo danh để lừa đảo, thu lợi bất chính bằng thủ đoạn mời chào tuyển dụng.
Tội phạm lừa đảo trên không gian mạng diễn biến phức tạp và ngày càng tinh vi hơn khi chúng sử dụng Deepfake – công nghệ ứng dụng trí tuệ nhân tạo (AI) làm giả cuộc gọi video vào mục đích lấy dữ liệu khuôn mặt.
VTV.vn - Theo Bộ Thông tin và Truyền thông, có nhiều dấu hiệu giúp nhận biết cuộc gọi lừa đảo Deepfake như khuôn mặt người gọi thiếu cảm xúc, hướng đầu và cơ thể không nhất quán...
Sau khi xác định được các nạn nhân là người thân của nhau, đối tượng gọi để ghi âm giọng nói, sau đó sử dụng công nghệ ghép mặt, giả giọng để liên hệ mượn tiền.
Dù đã được cảnh báo bởi các thông tin lừa đảo chuyển tiền qua mạng xã hội, nhưng ít ai ngờ đến việc gọi video call xác thực người nhà là cách an toàn nhất mà giờ cũng bị làm giả.
Deepfake là công nghệ tái tạo khuôn mặt, giọng nói bằng trí tuệ nhân tạo. Ban đầu công nghệ này được tạo nên với mục đích giải trí, nhưng hiện nay đang bị các đối tượng lừa đảo qua mạng sử dụng nhằm chiếm đoạt tài sản.