VTC News dẫn nguồn tin từ Truyền thông Trung Quốc cho biết, ngày 28/4, bà Lưu (ở Hoàng Thạch, Hồ Bắc, Trung Quốc) nhận được cuộc gọi từ một thanh niên tự xưng là cháu trai mình. Người này kể rằng anh ta vừa gây gổ trong siêu thị, khiến một người bị thương ở đầu và hiện đang bị cảnh sát tạm giữ. Để dàn xếp, "cháu trai" yêu cầu bà Lưu gấp 20.000 nhân dân tệ (khoảng hơn 70 triệu đồng) để bồi thường.
Tưởng cháu trai cầu cứu mình, bà lão sập bẫy lừa đảo. Ảnh minh họa.
Vì quá lo lắng và tin tưởng vào giọng nói quen thuộc, bà Lưu cùng chồng đã vội vã đi vay mượn khắp nơi. Sau đó, theo hướng dẫn của kẻ lừa đảo, bà đã chuyển tiền mặt cho một người tự xưng là phụ huynh của bạn học tại một địa điểm đã hẹn. Bà Lưu không hề nghi ngờ bởi giọng nói trong điện thoại hoàn toàn giống với giọng của cháu trai bà.
Mãi đến khi cháu trai về đến nhà, bà Lưu mới bàng hoàng nhận ra mình đã bị lừa, và giọng nói bà nghe trong cuộc gọi là do AI tổng hợp.
Qua điều tra, cảnh sát phát hiện kẻ lừa đảo đã sử dụng điện thoại cố định làm phương tiện liên lạc chính. Chúng lợi dụng sự thiếu hiểu biết về công nghệ của người lớn tuổi và niềm tin tuyệt đối của họ vào người thân, dùng giọng nói được làm giả bằng AI để đánh lừa. Cuộc điều tra cũng hé lộ rằng những kẻ này đã thu thập mẫu giọng nói của nạn nhân thông qua các cuộc gọi thông thường, sau đó dùng AI để tạo ra giọng nói giả giống hệt.
Không dừng lại ở việc làm giả giọng nói, nhóm lừa đảo này còn tuyển dụng nhân sự trực tuyến thông qua các quảng cáo việc làm bán thời gian lương cao. Những người nhẹ dạ, cả tin đã bị lôi kéo vào việc thu tiền tại nhà, vô tình trở thành một phần của chuỗi tội phạm có tổ chức.
Ngoài ra, tội phạm còn lợi dụng công nghệ thay đổi khuôn mặt bằng AI để kích hoạt các thẻ điện thoại bất hợp pháp. Điển hình, cảnh sát Tương Dương (Hồ Bắc) gần đây đã triệt phá một băng nhóm lừa đảo. Chúng sử dụng thông tin cá nhân và ảnh chụp bất hợp pháp để tổng hợp các video khuôn mặt động, qua đó vượt qua hệ thống nhận dạng khuôn mặt của các nhà mạng viễn thông. Bằng cách này, chúng đã kích hoạt thành công hơn 200 thẻ điện thoại. Những chiếc thẻ này sau đó được tuồn cho các nhóm lừa đảo khác, với tổng số tiền giao dịch lên tới hơn 5 triệu nhân dân tệ (khoảng 18 tỷ đồng).
Các chuyên gia cảnh báo rằng các cơ chế xác thực trực tuyến chỉ dựa vào thẻ căn cước và nhận dạng khuôn mặt hiện tại có thể không đủ sức chống lại các cuộc tấn công AI cao cấp. Họ kêu gọi cần tăng cường các biện pháp phòng thủ kỹ thuật, bao gồm việc sử dụng chính AI để chống lại các hành vi làm giả AI. Đồng thời, cần triển khai các cơ chế xác minh mới như nhận dạng bản đồ nhiệt và thuật toán học sâu, vốn là những công nghệ có thể nâng cao độ chính xác nhận dạng lên hơn 95%.
Những chiêu trò lừa đảo sử dụng trí tuệ nhân tạo (AI) ngày càng được các đối tượng thực hiện dưới nhiều hình thức khác nhau, do đó người dân cần nâng cao cảnh giác.
Sao chép giọng nói để giả dạng người thân
Theo báo Lao Động, với những tiến bộ về công nghệ trong những năm gần đây, AI có thể tạo ra một giọng nói mới chỉ bằng vài giây âm thanh được cung cấp.
Với những tiến bộ về công nghệ trong những năm gần đây, AI có thể tạo ra một giọng nói mới chỉ bằng vài giây âm thanh được cung cấp. Ảnh minh họa.
Điều đó có nghĩa, nó có thể sao chép giọng nói của bất cứ người nào đã từng đăng tải công khai những video, đoạn âm thanh trong đó có chứa giọng nói của họ.
Kẻ xấu sẽ sử dụng công nghệ này để sao chép giọng nói người thân của các nạn nhân và kết nối với họ bằng những cuộc gọi có nội dung chủ yếu là yêu cầu sự trợ giúp. Vì vậy ai cũng có thể là nạn nhân của hình thức lừa đảo này.
Hãy luôn cảnh giác với những số điện thoại lạ vì đây là thứ mà các đối tượng sử dụng để kết nối với bạn.
Đối với những số máy không xác định, thông thường chúng ta sẽ bỏ qua hoặc nhấc mấy rồi kết thúc cuộc gọi ngay lập tức khi biết đầu dây bên kia không phải người mình biết.
Tuy nhiên khi nhận thấy một vài dấu hiệu giống với người thân, ta sẽ bắt đầu dành thời gian cho cuộc gọi và đây chính là lúc bị sập bẫy.
Khi gặp phải tình huống như vậy, để tránh bị lừa, điều đầu tiên cần làm là giữ bình tĩnh và giao tiếp với đối tượng như cách thường làm với người thân của mình để xác minh. Nếu có những dấu hiệu bất thường thì đấy chính là lừa đảo.
Gửi email và tin nhắn được cá nhân hóa
Những kẻ lừa đảo đã tận dụng những lỗ hổng bảo mật từ các tổ chức để lấy được thông tin cá nhân của người dùng.
Từ đó chúng sử dụng AI để tạo ra hàng loạt văn bản với nội dung giống nhau và được điều chỉnh thông tin khớp với từng cá nhân.
Những văn bản ấy thường tồn tại dưới dạng email hoặc tin nhắn với nội dung quảng cáo hoặc thông báo đóng tiền. Nạn nhân sẽ bị sập bẫy khi ấn vào những đường link hoặc tệp đính kèm.
Để đối phó với điều này, điều duy nhất có thể làm là nâng cao cảnh giác. Trước khi quyết định ấn vào bất cứ thứ gì trong email hoặc tin nhắn đang đọc, hãy tự xác thực danh tính của người gửi hoặc có thể hỏi ý kiến của những người xung quanh để đảm bảo độ uy tín của địa chỉ đó.
Giả dạng khuôn mặt
Hình thức lừa đảo này có cách thức vận hành gần giống với giả dạng giọng nói qua các cuộc gọi, tuy nhiên nó tinh vi hơn rất nhiều.
Công nghệ có tên là Deepfake được quản lý bằng AI có khả năng mô phỏng hình ảnh khuôn mặt con người. Nó có thể thay thế một cách nhanh chóng khuôn mặt của một hay nhiều người trong một bức ảnh hay đoạn video thành những khuôn mặt khác được cung cấp theo yêu cầu của người sử dụng.
Kể cả những video có nhiều hành động phức tạp, Deepfake vẫn có khả năng ghép mặt một cách trơn tru.
Những kẻ lừa đảo sử dụng hình thức này sẽ tống tiền nạn nhân không chỉ bằng những cuộc gọi mà chúng còn có nhiều thủ đoạn phức tạp hơn.
Chúng sẽ sử dụng hình ảnh của đối tượng theo dõi vào những hình ảnh hay video có nội dung phản cảm rồi gửi cho nạn nhân qua bất cứ đâu; email, số điện thoại, những nền tảng mạng xã hội. Sau đó chúng đe dọa phát tán nếu nạn nhân không giao nộp một số tiền nhất định theo yêu cầu.
Khi gặp phải trường hợp này, hãy báo cảnh sát vì đó không chỉ là lừa đảo mà còn bị xếp vào tội quấy rối.