Thủ đoạn lừa đảo tinh vi
Trước đây, thủ đoạn lừa đảo được sử dụng chủ yếu là nhắn tin hỏi mượn tiền. Cùng với đó là tình trạng lừa đảo qua các ứng dụng mạng xã hội như Zalo, Facebook, Skype, Telegram... Trong thời gian gần đây, các chiêu trò lừa đảo đã trở nên tinh vi hơn khi các đối tượng kết hợp giữa chiếm đoạt tài khoản cá nhân và sử dụng Deepfake để thực hiện cuộc gọi hình ảnh. Nhìn thấy người thân, bạn bè đang nói chuyện với mình, nhiều người không nghĩ rằng đây chỉ là video, ảnh giả do công nghệ tạo ra, dẫn đến bị lừa đảo.
Chiêu trò sử dụng công nghệ Deepfake để lừa đảo lại tái diễn.
Mới đây, chị Ngô Thị H (quận Cầu Giấy, Hà Nội) nhận được tin nhắn của người bạn thân qua Facebook, hỏi mượn số tiền 100 triệu đồng. Ngay sau khi nhận tin nhắn, chị H đã gọi video lại cho bạn. Phía bên kia bắt máy, trên màn hình hiện lên khuôn mặt của bạn nhưng chất lượng cuộc gọi hơi thấp, âm thanh khó nghe, hình ảnh nhòe mờ.
“Trước đó, tôi và bạn có nói chuyện về mở cửa hàng kinh doanh nên khi gọi video thấy khuôn mặt thật, tôi đã chuyển cho bạn 100 triệu đồng. Các đối tượng đã đọc kỹ những tin nhắn cũ của tôi và bạn để có kịch bản lừa đảo hợp lý”, chị H chia sẻ.
Còn chị Nguyễn Hải Q (huyện Đông Anh, Hà Nội) bị đối tượng xưng là cán bộ điện lực gọi nhắc đóng tiền điện, sau đó đề nghị kết bạn qua zalo để hướng dẫn cài app Epoint giả mạo và đề nghị đồng bộ hoá với tài khoản ngân hàng để tự động trả tiền.
“Để làm được việc này, đối tượng yêu cầu tôi phải quét hình ảnh căn cước công dân. Không ngờ đó là quét hình ảnh sinh trắc học để chuyển tiền. Khi thấy điện thoại báo chuyển hơn 95 triệu đồng, tôi giật mình biết là bị lừa. Tôi cũng luôn cảnh giác về các hình thức lừa đảo qua mạng, nhưng lúc đó đối tượng đọc đúng tên, đúng mã số dùng điện của gia đình nên lại tin. Chỉ một lúc mất cảnh giác đã bị đối tượng lừa”, chị Q chia sẻ.
Theo đại diện Cục An toàn thông tin, những vụ lừa đảo qua mạng gần đây cho thấy, đối tượng nghiên cứu kỹ về nhân thân của bị hại và lên kế hoạch chi tiết. Do đó, người dân không nên đưa thông tin cá nhân lên mạng xã hội.
Các chuyên gia an ninh mạng nhận định, đối tượng lừa đảo tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video được đăng tải công khai trên những nền tảng mạng xã hội, rồi sử dụng Deepfake để tạo ra giọng nói, khuôn mặt, video giả. Điều đáng nói, video sẽ càng chân thực, hoàn thiện hơn khi các đối tượng thu thập được càng nhiều dữ liệu về hình dạng, giọng nói và đưa cho AI hoàn chỉnh dần. Đặc điểm chung của các cuộc gọi video lừa đảo là thường có âm thanh, hình ảnh không được tốt, giống như trong khu vực sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Khi người nhận điện thoại gọi lại để kiểm tra, các đối tượng không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, giọng nói nhằm tiếp tục đánh lừa.
Tái diễn nhiều chiêu trò lừa đảo sử dụng công nghệ mới
Tình trạng tội phạm mạng lợi dụng hình ảnh, video công khai của người dân để chỉnh sửa, cắt ghép, đe dọa tống tiền bằng các video giả mạo, vừa được Bộ Công an nhắn tin cảnh báo rộng rãi tới đông đảo người dân.
Theo đó, sử dụng công nghệ Deepfake cho phép tái tạo âm thanh và hình ảnh của một người với độ chính xác cao, kẻ gian có thể giả mạo các nhà lãnh đạo trong các cuộc họp trực tuyến, hoặc dựng các video, cuộc gọi nhằm lừa đảo tài chính. Các chiêu trò lừa đảo này thường khai thác yếu tố tâm lý như sự khẩn cấp, sợ hãi hoặc quyền lực, khiến nạn nhân hành động vội vàng mà không kiểm tra kỹ tính xác thực.
Ứng dụng tủ đồ AI giúp người dùng thử nhiều trang phục khác nhau gây sốt trong thời gian gần đây.
Nhiều chuyên gia cũng cảnh báo về nguy cơ lọt dữ liệu cá nhân khi người dung sử dụng tính năng "Tủ đồ AI" của BeautyCam đang gây sốt trên các nền tảng mạng xã hội tại Việt Nam trong thời gian gần đây.
Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính mà còn chuyển sang lừa đảo tình cảm. Trong đó, Deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân qua các cuộc gọi video; sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.
Bên cạnh đó, trong thời gian gần đây, nhiều người dùng điện thoại phản ánh họ nhận được cuộc gọi từ số lạ nhưng khi bắt máy thì không ai trả lời. Nguyên nhân có thể do lỗi kỹ thuật hoặc kẻ gian cố tình thực hiện cuộc gọi không lời nhằm khơi gợi sự tò mò, khiến khách hàng gọi lại. Khi đó, người dân có thể bị tính phí viễn thông cao bất thường. Tình trạng trên thường được gọi là "cuộc gọi mồi", những cuộc gọi trong tích tắc rồi tắt máy, để người dùng thấy cuộc gọi nhỡ mà gọi lại, kết quả sẽ tốn rất nhiều tiền trong vài giây ngắn ngủi mà không nghe đối phương nói gì.
Trước tình hình trên, Cục An toàn thông tin khuyến cáo, người dân cảnh giác với những lời khuyên đầu tư từ người nổi tiếng trên mạng xã hội; cảnh giác với những tin nhắn, email hoặc cuộc gọi không xác định; cần quan sát kỹ những biểu cảm khuôn mặt không tự nhiên trong các video. Người dân cũng cần hạn chế đăng tải nội dung liên quan đến thông tin cá nhân lên mạng xã hội để tránh trường hợp bị các đối tượng xấu đánh cắp thông tin như hình ảnh, video hoặc giọng nói; đồng thời, cài đặt tài khoản ở chế độ riêng tư để bảo vệ thông tin cá nhân.
Theo các chuyên gia, hình thức lừa đảo này từng rất phổ biến tại Mỹ và các nước châu Âu từ thập kỷ trước và hiện đang quay trở lại, gây hoang mang cho khách hàng của các nhà mạng. Vì thế, nếu nhận được cuộc gọi từ số điện thoại không phải là thuê bao cố định hay di động thông thường hoặc không liên quan đến một tổ chức hay đơn vị nào, người dân cần cảnh giác, không nghe và thực hiện theo hướng dẫn của đối tượng lạ.
Người dân cũng không nên cung cấp thông tin cá nhân nhạy cảm dưới mọi hình thức hoặc truy cập vào những đường dẫn do đối tượng không rõ danh tính gửi đến. Trường hợp trở thành nạn nhân bị lừa đảo, người dân cần báo cáo ngay với cơ quan công an để được hỗ trợ kịp thời.
Trao đổi với PV Đời sống và Pháp luật, ông Vũ Ngọc Sơn, Trưởng Ban Công nghệ (Hiệp hội An ninh mạng quốc gia) cho biết: “AI là xu hướng không thể ngăn cản. AI tốt hay xấu là do người sử dụng. Do đó, con người cần thích nghi với AI. Trong kế hoạch sắp tới của Hiệp hội, Deepfake dùng AI tạo sinh là nội dung chúng tôi sẽ nghiên cứu kỹ và có những cảnh báo đến cộng đồng. Đặc biệt là các ảnh, clip được tạo bằng Deepfake bị sử dụng với mục đích tống tiền”.
Bộ Công an cũng gửi tin nhắn đến người dân đề cập đến vấn đề này và khuyến cáo người dân cảnh giác khi nhận được các tin nhắn, cuộc gọi có nội dung như trên. Người dân không chuyển tiền khi bị đe dọa; khi phát hiện dấu hiệu bị lừa đảo, cưỡng đoạt tài sản cần nhanh chóng trình báo Cơ quan Công an nơi gần nhất và phản ánh qua ứng dụng VNeID.