Ngày 15/6, VietNamnet đưa tin, Phòng An ninh mạng và phòng chống tội phạm sử dụng công nghệ cao (PA05), Công an TP.HCM vẫn đang phối hợp cùng Công an quận 10 để điều tra vụ 1 người trình báo bị các đối tượng trên mạng sử dụng AI deepfake (sản phẩm công nghệ giả dưới dạng âm thanh, hình ảnh, video clip bằng trí tuệ nhân tạo) để tạo ra người mẫu nổi tiếng, dụ dỗ chat sex rồi lừa đảo.
Theo trình báo của ông T. (ngụ quận 1, TP.HCM), giai đoạn tháng 5 vừa qua, 1 người sử dụng tài khoản facebook cá nhân có hình ảnh của nữ người mẫu nổi tiếng đã chủ động kết bạn, làm quen với ông trên mạng.
Cảnh giác sập bẫy lừa đảo với chiêu trò dụ chat sexvới AI. Ảnh: VietNamnet.
Sau thời gian chat qua lại, nữ người mẫu nổi tiếng chủ động gọi video call (cuộc gọi có hình ảnh) để trò chuyện thân mật với ông T. Vì thấy rõ hình ảnh, nơi sinh sống, sinh hoạt của nữ người mẫu nổi tiếng mà ông T. dần tin tưởng. Và trong 1 lần ông T. say xỉn, nữ người mẫu gạ gẫm ông T. chat sex. Sau lần đó, ông T. không ngờ rằng mình dính vào bẫy lừa đảo, tống tiền hết sức tinh vi.
Có được clip, hình ảnh ông T. chat sex, người giả mạo là nữ người mẫu nổi tiếng đã sử dụng làm công cụ tống tiền nạn nhân. Cụ thể, người này sử dụng để khống chế, uy hiếp, yêu cầu ông T. phải chuyển tiền, nếu không sẽ gửi hình ảnh, clip “nhạy cảm” cho người thân, bạn bè của ông.
Bị uy hiếp, lo sợ ảnh hưởng đến uy tín, danh dự, ông T. đã nhiều lần chuyển tiền vào tài khoản do nữ người mẫu nổi tiếng chỉ định, tổng cộng hơn 450 triệu đồng. Do bị uy hiếp, tống tiền liên tục nên ông T. đã trình báo cơ quan công an.
Được biết, thủ đoạn lừa đảo, tống tiền như trường hợp ông T. gần đây nở rộ; công an các địa phương liên tục tiếp nhận trình báo, tố giác của nạn nhân...
Thời gian qua, Phòng PA05 - Công an TP.HCM chỉ rõ, đây là loại tội phạm sử dụng trí tuệ nhân tạo (AI) cắt ghép hình ảnh, giả giọng nói, tạo các video clip, đặc biệt dùng kỹ thuật “deepfake” tạo ra những hình ảnh, video có độ chân thực cao, giả người khác dùng vào mục đích lừa đảo, tống tiền như trên. Hoặc có thể chúng tạo ra các hình ảnh, video clip video "nhạy cảm" của nạn nhân để thao túng tâm lý, đe doạ họ.
Mục đích của các đối tượng là nhằm mục đích bôi nhọ danh dự, xúc phạm nhân phẩm và tống tiền người khác, buộc phải chuyển tiền theo yêu cầu. “Tội phạm lừa đảo trực tuyến ngày càng phổ biến trên các mạng xã hội Facebook, ứng dụng Telegram, WhatsApp, Instagram, Linkedln và email. Những video và hình ảnh khiêu dâm được tạo ra bằng "deepfake" có thể hủy hoại uy tín và cuộc sống của nạn nhân. Vì vậy, mọi người nên lưu ý không để bị sập bẫy”, Phòng PA05, Công an TP.HCM phát đi thông báo khuyến cáo.
Mới đây, công an Hà Nội cũng cảnh báo hành vi tương tự. Cụ thể, theo Công an TP Hà Nội, thủ đoạn của các đối tượng là nhắn tin tán tỉnh và gửi cho bị hại những hình ảnh hở hang, clip nhạy cảm rồi dụ dỗ bị hại “chat sex”. Quá trình “chat sex”, các đối tượng sẽ bí mật quay lại màn hình. Sau khi có được những hình ảnh, video này, các đối tượng sẽ yêu cầu bị hại phải chuyển tiền và đe dọa sẽ phát tán những nội dung này cho bạn bè, người thân, đồng nghiệp của bị hại hoặc phát tán lên mạng xã hội.
Nếu bị hại chuyển tiền theo hướng dẫn của các đối tượng, chúng lại tiếp tục yêu cầu bị hại chuyển thêm tiền với số tiền càng ngày càng tăng cho đến khi bị hại không còn khả năng tài chính. Vì lo sợ ảnh hưởng đến uy tín, danh dự nên hầu hết các nạn nhân đều ngại, không dám trình báo Cơ quan Công an.
Công an TP Hà Nội đề nghị người dân cảnh giác khi nhận được lời mời, tin nhắn kết bạn từ người lạ trên mạng xã hội. Đặc biệt là các tài khoản dụ dỗ “chat sex”. Trường hợp bị đe dọa yêu cầu chuyển tiền qua hình thức nêu trên, đề nghị người dân đến ngay Cơ quan Công an nơi gần nhất để được hướng dẫn, giải quyết theo quy định của pháp luật.