Thông qua các ứng dụng OTT (cung cấp nội dung hình ảnh, tin nhắn, gọi điện như Viber, Zalo, Messenger...), kẻ xấu có thể thực hiện cuộc gọi thoại, thậm chí cả video với giọng nói, hình ảnh là của người thân, người quen, sếp... khiến người nhận rất khó phân biệt thật giả và sập bẫy lừa đảo cuộc gọi Deepfake.
Nhiều người bị lừa cuộc gọi Deepfake
Ngay sau bài viết của báo Tuổi Trẻ về "Cuộc gọi video giờ thấy mặt cũng chưa chắc chính chủ" (Tuổi Trẻ 27-3), nhiều người dùng cho biết đã từng là nạn nhân của chiêu trò lừa đảo từ cuộc gọi video Deepfake như trong bài viết. Chị Mỹ Tâm (TP.HCM) cho biết đã bị lừa mất 30 triệu đồng bởi chiêu trò gọi điện video Deepfake.
Cụ thể, tài khoản người thân chị Tâm bên Mỹ nhắn tin mượn tiền vì có việc gấp. Liền sau đó chị Tâm nhận được cuộc gọi video qua ứng dụng Messenger của Facebook.
"Cuộc gọi chỉ diễn ra được vài giây nhưng đủ để tôi thấy được khuôn mặt người thân của mình cùng với cách xưng hô quen thuộc nhưng chập chờn. Sau đó tôi nhận được tin nhắn vì sóng yếu nên không gọi video tiếp được, chuyển sang nhắn tin cho tiện. Tôi tin tưởng và chuyển tiền theo hướng dẫn không chút nghi ngờ", chị Tâm kể lại.
Tương tự, chị Thu Hòa (TP.HCM) cũng bị lừa 20 triệu đồng với cùng chiêu lừa như trên. "Sáng tôi đã chuyển tiền cho bạn mình sau cuộc gọi video qua Facebook từ bạn. Đến chiều tôi mới nhận được tin nhắn cảnh báo tài khoản Facebook của bạn tôi đã bị hack. Tôi liền gọi điện thoại cho bạn thì mới biết kẻ xấu đã dùng chiêu gọi video mạo danh để lừa tôi", chị Hòa bộc bạch.
Trao đổi với Tuổi Trẻ, ông Vũ Thanh Thắng - giám đốc cấp cao về AI Công ty an ninh mạng thông minh SCS - cho biết Deepfake là một công nghệ AI có khả năng làm giả video với hình ảnh và giọng nói của một người khác.
Kịch bản lừa đảo diễn ra như: kẻ lừa đảo tìm cách chiếm đoạt tài khoản Zalo, Facebook của người dùng, tiếp đó thu thập hình ảnh (có thể cả giọng nói của nạn nhân từ các video) và dùng Deepfake tạo ra đoạn video mạo danh.
Sau đó kẻ lừa đảo tiến hành nhắn tin mượn tiền những người dùng trong danh sách bạn bè Facebook của nạn nhân, đồng thời thực hiện cuộc gọi video mạo danh, phát video giả mạo để tăng độ tin cậy nhằm lừa đảo thành công hơn.
"Thường những cuộc gọi video giả mạo này sẽ rất ngắn với mục đích cho bạn bè hay người thân của nạn nhân nhìn thoáng qua, sau đó tắt đi với lý do sóng điện thoại kém. Mấu chốt của việc lừa đảo này là để nạn nhân tin rằng bạn bè, người thân của mình đang gặp vấn đề và cần giúp đỡ, gửi tiền gấp. Với cách thức này, những người không để ý hoặc trung niên... chỉ nhìn thoáng qua có thể sập bẫy kẻ gian", ông Thắng phân tích.
Từ ghép hình đến video Deepfake
Vài năm trở lại đây, một trong những chiêu trò đòi nợ kiểu khủng bố xuất hiện nhiều tại Việt Nam là gán ghép hình ảnh "con nợ" hoặc người thân, sếp của "con nợ" rồi bêu xấu trên mạng. Các chuyên gia công nghệ cho rằng sắp tới rất có khả năng kẻ lừa đảo dùng Deepfake để tạo ra những video giả, gán ghép hình ảnh nhằm đạt được các mục đích xấu.
Trao đổi với Tuổi Trẻ chiều 29-3, ông Vũ Ngọc Sơn - giám đốc công nghệ Công ty an ninh mạng NCS - cho biết các chiêu trò, hình thức lừa đảo gần đây đều không phải mới nhưng các đối tượng lừa đảo đã biết ứng dụng công nghệ, đặc biệt công nghệ AI. Từ đó khả năng thành công của các chiêu lừa đảo sẽ cao hơn và ngày càng khó lường với người dùng Internet.
Theo ông Sơn, với sự phát triển của AI, các ứng dụng kiểu như Deepfake sẽ giúp một người bình thường, không cần biết về công nghệ hay xử lý đồ họa cũng có thể dễ dàng thực hiện được việc ghép ảnh, ghép video, thậm chí là cả giọng nói.
Chính vì vậy, ông Sơn cảnh báo: "Tình trạng lừa đảo bằng Deepfake có thể sẽ bùng phát trong thời gian tới, bởi số tiền các đối tượng chiếm được qua mỗi vụ việc là khá lớn trong khi công sức chúng bỏ ra không nhiều".
Còn theo Hãng bảo mật Kaspersky, hiện nay video Deepfake vẫn ở trong giai đoạn có thể nhận biết được nếu người xem chú ý vào các đặc điểm như: chuyển động bị giật, thay đổi ánh sáng từ khung hình này sang khung hình khác, thay đổi tông màu da, chớp mắt một cách khác thường hoặc hoàn toàn không chớp mắt, khẩu hình và âm thanh không khớp...
"Tuy nhiên Deepfake đang trở thành mối đe dọa thật sự. Các video Deepfake được tạo nên ngày càng thật hơn, thậm chí đã được dùng cho mục đích chính trị cũng như trả thù cá nhân. Thông dụng nhất, gần đây video Deepfake được sử dụng thường xuyên cho mục đích tống tiền và lừa đảo", đại diện Kaspersky cảnh báo.