(Ảnh: Maryland Smith Research)
Lời kêu gọi được đưa ra trong bối cảnh số lượng báo cáo về sự xuất hiện các hình ảnh khỏa thân của người dưới 18 tuổi do Deepfake tạo ra đã tăng gấp hơn 2 lần trong 18 tháng qua tại Australia.
Cơ quan này đã phát hành một bộ công cụ hướng dẫn các trường học cách xử lý những sự cố liên quan đến Deepfake, đồng thời đưa ra cảnh báo an toàn trực tuyến để thông báo cho phụ huynh và nhà trường về sự gia tăng của các ứng dụng AI "nudify" ("tạo ảnh khỏa thân") mã nguồn mở.
Cơ quan quản lý an toàn mạng trực tuyến của Australia nhấn mạnh việc tạo ra hình ảnh nhạy cảm của người dưới 18 tuổi là bất hợp pháp, kể cả việc sử dụng các công cụ AI. Các bậc phụ huynh và người giám hộ có thể giáo dục con em mình rằng hành vi này có thể đối diện các cáo buộc hình sự.
Tại Australia, số lượng báo cáo liên quan đến hình ảnh được chỉnh sửa kỹ thuật số của người dưới 18 tuổi đã tăng hơn 2 lần trong 18 tháng qua. Trong đó, 80% báo cáo liên quan đến việc nhắm mục tiêu vào nữ giới.
(Ảnh: Shutterstock)
Bên cạnh những tác động tích cực, sự phát triển của trí tuệ nhân tạo đang tạo ra những tác động tiêu cực đến xã hội, trong đó có việc tạo ra những sản phẩm giả mạo. Theo đó, cơ quan chức năng của Australia đã cảnh báo việc trí tuệ nhân tạo đang được sử dụng để tạo ra những hình ảnh khỏa thân giả mạo rồi được dùng để tống tiền các nạn nhân.
Theo Người phát ngôn của Ủy viên an ninh mạng Australia Julie Inman Grant, trí tuệ nhân tạo đang được các đối tượng tội phạm sử dụng để tạo ra các hình ảnh khỏa thân giả mạo, sau đó dùng các hình ảnh này để tống tiền nạn nhân. Tình trạng này đặc biệt nghiêm trọng khi ngày càng nhiều trẻ vị thành niên trở thành nạn nhân của những hành động phạm pháp này.
Kết quả một nghiên cứu do cơ quan chức năng Australia thực hiện cho thấy hơn 10% trẻ vị thành niên ở nước này đã bị tống tiền liên quan đến các hoạt động tình dục. Một nửa trong số này xảy ra với các em dưới 16 tuổi và 2/3 mới chỉ tiếp xúc với thủ phạm trên các nền tảng xã hội trực tuyến. Nghiên cứu cũng cho thấy hơn 40% số người bị ảnh hưởng đã bị tống tiền bằng các tài liệu đã được chỉnh sửa bằng công nghệ số như các hình ảnh Deepfake.
Không chỉ vậy, hoạt động tống tiền tình dục cũng đang gia tăng tại Australia. Theo thống kê của cơ quan chức năng, hơn 3.000 tài khoản ngân hàng đã bị đóng vì liên quan đến các hoạt động tống tiền tình dục trẻ em và các tổ chức bóc lột tình dục.
Mặc dù phần lớn các vụ tống tiền tình dục có động cơ chính là tài chính nhưng cảnh sát Australia cho biết có những vụ bóc lột tàn bạo khi nạn nhân mới chỉ 12 tuổi.
Trong thời gian vừa qua, chính quyền Australia đã có nhiều nỗ lực để gia tăng trách nhiệm của các nền tảng xã hội trong việc bảo vệ trẻ em trên không gian mạng bằng việc yêu cầu báo cáo về các biện pháp đang áp dụng để đạt được mục tiêu này.