Deepfake ngày càng tinh vi, nguy cơ lừa đảo người dùng tăng cao

Thứ hai, 13/11/2023 11:53

"Trước đây có thể nhận biết các video deepfake qua ngữ điệu, cử động môi và sự trùng khớp giữa nhân vật, bối cảnh, âm thanh. Hiện đã có những công cụ giúp tạo video giống thật đến 70-80%, dễ nhầm lẫn khi nhìn bằng mắt thường." - Đó là chia sẻ của ông Nguyễn Phú Lương - Phó Giám đốc Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC), Cục An toàn thông tin thuộc Bộ TT&TT - tại họp báo thường kỳ ngày 6/11.

Deepfake ngày càng tinh vi, nguy cơ lừa đảo người dùng tăng cao- Ảnh 1.

Ông Nguyễn Phú Lương - Phó Giám đốc Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC), Cục An toàn thông tin thuộc Bộ TT&TT

Khi thật – giả ngày càng khó phân biệt, ai cũng có thể trở thành mục tiêu tấn công của tội phạm. Phó Giám đốc NCSC khuyến cáo người dân luôn kiểm chứng và kiểm tra lại mọi thông tin trực tuyến. Mỗi người cần hình thành thói quen thận trọng, cảnh giác và tư duy “fact check” (kiểm chứng sự thực) trên không gian mạng. Lấy thông tin từ các nguồn chính thức và đáng tin cậy như các cơ quan, đơn vị và nền tảng tin tức đáng tin cậy. Ngoài ra, không chia sẻ nếu chưa chắc chắn 100% về tính xác thực của nó.

Ông Nguyễn Phú Lương điểm tên một số công cụ của những hãng công nghệ lớn như Intel Fake Catcher hay Microsoft Video Authenticator, có thể kiểm chứng video sử dụng deepfake hay không. Các công cụ này sử dụng thuật toán AI tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh.

Việc tạo ra video deepfake dễ dàng, trong khi đó gần như chưa có giải pháp nào để chặn lọc.

"Bối cảnh chung trên thế giới là gặp khó khăn trong việc chặn lọc những video deepfake khỏi không gian mạng. Giải pháp hiện tại là cố gắng tuyên truyền, khuyến cáo người dân thận trọng với mọi thông tin tiếp cận được, luôn tuân thủ các nguyên tắc về an toàn thông tin", ông Lương cho biết.

Đầu tiên, người dùng mạng cần tìm cách kiểm chứng mọi thông tin nhận được bằng cách kiểm tra chéo giữa các nguồn khác nhau. Trong trường hợp nhận được video từ người thân với tình huống hoặc yêu cầu bất ngờ, hãy cố gắng kéo dài cuộc gọi video call để biết chắc đang nói chuyện với người thật chứ không phải đoạn video dựng sẵn.

Sau đó, người dùng cần xác minh lại qua các kênh khác, ưu tiên các kênh trực tiếp hoặc gọi điện thoại qua mạng viễn thông.

Trong hầu hết các trường hợp, hình thức lừa đảo trực tuyến này nhằm lừa đảo tài chính. Do đó, khi người dân nhận được các cuộc gọi video liên quan đến yêu cầu chuyển tiền, vay mượn thì cần xác nhận kỹ và trong mọi trường hợp không chuyển tiền cho các số tài khoản lạ, kể cả tài khoản có tên giống với tên người thân, bạn bè.

"Có một số công cụ kiểm chứng video có phải deepfake hay không, ví dụ như Intel Fake Catcher hay Microsoft Video Authenticator", ông Lương cho biết.

Ngoài ra, khi nhìn bằng mắt thường có thể thấy khuôn mặt nhân vật trong video deepfake ít biểu cảm, ánh sáng kỳ lạ và bóng đổ không đúng vị trí, nhân vật không có các hành động đưa tay lên gãi mặt hoặc dụi mắt, vì các hành động này sẽ gây lỗi cho AI.

Thảo Anh
banner
icon

Cổng dịch vụ công
Quốc Gia

Những thông tin thủ tục hành chính
khai báo online tại đây

Xem chi tiết icon
icon

Chính sách
pháp luật Việt Nam

Cập nhật thông tin, chính sách
pháp luật Việt Nam

Xem chi tiết icon

Cổng thông tin điện tử của các đơn vị thuộc Bộ

Doanh nghiệp

Top