Kịch bản lừa đảo mới chưa từng xuất hiện, mất 15 tỷ trong 10 phút dù "mắt thấy, tai nghe"

Trần Hà, Theo Đời sống Pháp luật 22:00 11/11/2025
Chia sẻ

Những người càng lớn tuổi càng trở thành đối tượng mà những kẻ lừa đảo này nhắm đến.

Công nghệ AI đang khiến những chiêu trò lừa đảo trở nên tinh vi hơn bao giờ hết. 

Theo tờ QQ đưa tin, nạn nhân họ Quách - giám đốc của một công ty công nghệ tại Phúc Châu (Trung Quốc). Lúc này, vào khoảng 11h trưa, ông Quách bất ngờ nhận được cuộc gọi video qua WeChat (MXH phổ biến ở Trung Quốc) từ một người bạn thân.

Kịch bản lừa đảo mới chưa từng xuất hiện, mất 15 tỷ trong 10 phút dù "mắt thấy, tai nghe"- Ảnh 1.

Ông Quách (bên phải) tại cơ quan cảnh sát. 

Trong cuộc trò chuyện kéo dài khoảng 10 phút, người bạn này cho biết đang tham gia đấu thầu dự án ở xa, cần gấp 4,3 triệu NDT (khoảng 15 tỉ đồng) để làm tiền bảo đảm dự thầu. Người này nói rằng theo quy định, khoản tiền đó phải được chuyển từ tài khoản công ty sang tài khoản công ty, nên muốn nhờ ông Quách cho mượn tạm tài khoản doanh nghiệp của mình để “làm thủ tục cho đúng quy trình”.

Kết thúc cuộc gọi, người bạn này liền gửi ảnh chụp chứng từ chuyển khoản ngân hàng và nhắn qua WeChat rằng đã chuyển tiền vào tài khoản của ông Quách. Tin tưởng vì vừa trò chuyện trực tiếp qua video và thấy mặt cùng giọng nói y hệt bạn mình, ông Quách không kiểm tra lại số dư mà ngay lập tức chuyển tổng cộng 4,3 triệu NDT, chia làm 2 lần, vào tài khoản mà người bạn này cung cấp.

Chỉ đến khi ông Quách nhắn tin báo "xong rồi" nhưng điều kỳ lạ là người bạn này lại phản hồi bằng 1 dấu chấm hỏi thì mọi chuyện mới vỡ lẽ. Gọi điện kiểm tra thì mới hay người kia hoàn toàn không hề nhờ chuyển tiền, chưa từng nhờ vay tiền hay nhờ chuyển khoản gì cả. 

Lúc đó, ông mới sững sờ nhận ra mình vừa trở thành nạn nhân của một vụ lừa đảo. 

Ông Quách sau đó đã báo cảnh sát thành phố. Cảnh sát sau đó xác nhận: kẻ lừa đảo đã chiếm quyền hoặc giả mạo tài khoản WeChat của người bạn, rồi dùng công nghệ AI đổi mặt và mô phỏng giọng nói để thực hiện cuộc gọi video deepfake. Tức là, dù ông Quách nhìn thấy và nghe thấy “bạn thân” nói chuyện trực tiếp, toàn bộ hình ảnh và âm thanh ấy đều là giả mạo trong thời gian thực.

Phía cơ quan chức năng cho biết thêm rằng nhóm tội phạm đã dùng AI tổng hợp khuôn mặt, biểu cảm và giọng nói của người thật chỉ trong vài phút, khiến việc phân biệt thật - giả gần như bất khả thi. Đây là một dạng deepfake video call, chiêu thức mới đang lan rộng trên WeChat và các nền tảng nhắn tin phổ biến ở Trung Quốc. Đồng thời, phía cảnh sát cũng đã phối hợp với ngân hàng để kích hoạt cơ chế khẩn cấp “ngăn chặn giao dịch”. Nhờ phản ứng nhanh, họ đã thu hồi được khoảng 3,36 triệu nhân dân tệ (tương đương hơn 11 tỷ đồng), nhưng hơn 930.000 tệ (khoảng 4 tỷ đồng) vẫn bị chuyển đi và đang tiếp tục truy vết.

Ngay sau đó, các trang tin truyền thông đồng loạt cảnh báo về “làn sóng lừa đảo bằng AI”, đồng thời ghi nhận thêm nhiều vụ tương tự. 

Kịch bản lừa đảo mới chưa từng xuất hiện, mất 15 tỷ trong 10 phút dù "mắt thấy, tai nghe"- Ảnh 2.
Kịch bản lừa đảo mới chưa từng xuất hiện, mất 15 tỷ trong 10 phút dù "mắt thấy, tai nghe"- Ảnh 3.

Những vụ lừa đảo trực tuyến đang ngày càng gia tăng.

Theo tờ Sohu, tại thành phố Thường Châu (Giang Tô, Trung Quốc) ghi nhận vụ việc một nam thanh niên tên Tiểu Lưu bị kẻ gian giả mạo giọng nói và gọi video WeChat đóng vai bạn học cũ để mượn tiền. Thấy bạn xuất hiện trong cuộc gọi, Tiểu Lưu tin là thật và chuyển ngay 6 nghìn nhân dân tệ (khoảng 22 triệu đồng) cho kẻ lừa đảo.

Cũng theo trang tin này thì đây không phải vụ việc cá biệt. Chỉ trong vài tháng gần đây, nhiều nạn nhân ở Nội Mông Cổ, Tứ Xuyên, Chiết Giang… cũng bị lừa theo chiêu tương tự. AI giả giọng, đổi mặt, gọi video để tạo lòng tin rồi yêu cầu chuyển khoản gấp. Một số vụ việc còn sử dụng công cụ AI sẵn có trên thị trường, chỉ mất vài chục USD và vài phút là có thể “tạo ra khuôn mặt người khác”.

AI voice cloning (nhái giọng nói) và AI face-swapping (đổi mặt) đang được tội phạm mạng khai thác triệt để. Chúng thu thập giọng nói từ các cuộc gọi, clip mạng xã hội, rồi dùng phần mềm tổng hợp để dựng lại giọng nói và biểu cảm như thật, sau đó gọi video qua WeChat hoặc các ứng dụng nhắn tin khác để đánh lừa nạn nhân.

Theo Hiệp hội Internet Trung Quốc, tội phạm đã lợi dụng AI deepfake để giả mạo người thân hoặc bạn bè, tự động tạo video "nói chuyện" nhằm lừa đảo. Các chuyên gia an ninh mạng cũng nhấn mạnh: “Trong kỷ nguyên AI, ‘mắt thấy tai nghe’ chưa chắc là thật. Xã hội cần học cách nghi ngờ có chọn lọc và xác thực thông tin qua kênh chính thức trước khi tin hoặc chuyển tiền.”

Lúc này, nhiều người có kinh nghiệm hay từ phía các cơ quan chức năng cũng đã đưa ra những lời khuyên, cảnh báo để người dân tránh "sập bẫy" kẻ gian. 

"Không chia sẻ hình ảnh, video, clip cá nhân lên mạng một cách công khai, vì có thể trở thành nguyên liệu cho công nghệ deepfake.

Không chuyển tiền chỉ dựa trên cuộc gọi video, dù người xuất hiện có là người thân hay bạn bè, mà nên gọi xác minh qua nhiều kênh khác nhau (ví dụ gọi lại bằng số điện thoại, hỏi thêm chi tiết mà chỉ người thật biết).

Khi phát hiện dấu hiệu bất thường, cần báo ngay cho cơ quan công an hoặc ngân hàng để kịp thời chặn giao dịch", tờ Sohu bình luận thêm trong bài viết cảnh báo dùng AI, lừa đảo qua mạng xã hội, chủ yếu ở đây là Wechat. 

Nguồn: Sohu, QQ

TIN CÙNG CHUYÊN MỤC
Xem theo ngày