Deepfake và những mối nguy hại
Deepfake là thuật ngữ được tạo nên với sự kết hợp giữa "Deep Learning" và "Fake" (giả mạo), là một kỹ thuật tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo (AI). Về bản chất, công nghệ deepfake được xây dựng trên nền tảng công nghệ học máy mã nguồn mở của hãng Google. Sau khi quét các video và hình ảnh chân dung của một người cụ thể, deepfake sẽ hợp nhất hình ảnh với video riêng biệt nhờ công nghệ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói giống như thật. Càng có nhiều video và hình ảnh gốc, thì AI hoạt động càng chính xác và video giả mạo có độ chân thực càng cao.
Kết hợp giữa video hiện có và video nguồn, công nghệ deepfake có thể tạo ra một video giả mạo hiển thị một người hoặc nhiều người đang thực hiện một hành động tại một sự kiện chưa bao giờ thực sự xảy ra.
Điển hình như, một trang web deepfake được phát triển gần đây đã thu hút được hơn 38 triệu lượt truy cập kể từ đầu năm 2021 và trở thành một trong những công cụ deepfake phổ biến nhất từng được tạo ra. Với trang web này, người dùng có thể dễ dàng tải bất kỳ hình ảnh của một người phụ nữ mặc đầy đủ quần áo mà họ chọn và chỉ trong vài giây, trang web có thể tạo ra những hình ảnh chỉnh sửa theo ý muốn của người dùng.
Ảnh và liên kết từ trang web này không bị giới hạn trong dark web, cũng như không bị xóa khỏi mục công cụ tìm kiếm của Google. Nó hoạt động hoàn toàn miễn phí và không bị bất kỳ ràng buộc nào, do đó nó đã dễ dàng lan rộng trên các nền tảng mạng xã hội lớn như Twitter, Facebook và Reddit...
Mặc dù trang web này đã tuyên bố sẽ không lưu trữ bất kỳ hình ảnh nào, nhưng nó tạo ra các liên kết có thể chia sẻ mọi bức ảnh đã chỉnh sửa, giúp người dùng dễ dàng phát tán những bức ảnh này trên Internet cũng như sử dụng chúng một cách riêng tư.
Sẽ ra sao khi các phần mềm deepfake phát triển và được phát tán rộng rãi trên mạng, bất kể ai đó cũng có thể tạo ra hình ảnh/video khiêu dâm về bạn rồi đăng lên các trang mạng xã hội? Một khi đã xuất hiện trên mạng, rất khó để có thể kiểm soát sự phát tán và những hệ lụy sau đó.
Theo Diễn đàn kinh tế thế giới (WEF), trên thực tế, phụ nữ đã phải chịu đựng những tổn thương lớn bởi những bức ảnh deepfake trong nhiều năm, trong số 85.000 bức ảnh deepfake được lưu hành trực tuyến, hơn 99% là những bức ảnh deepfake về phụ nữ.
Như trường hợp năm 2018 của Rana Ayyub, một nhà báo điều tra đã bị nhắm mục tiêu bởi một video deepfake khiêu dâm nhằm mục đích xấu. Video này sau đó đã xuất hiện trên hàng triệu điện thoại di động ở Ấn Độ, Ayyub đã phải nhập viện vì lo lắng và ảnh hưởng lớn về mặt tinh thần.
Trong nhiều trường hợp, mục đích sử dụng deepfake không còn là trò đùa nữa, mà nhằm mục đích làm mất uy tín, sỉ nhục, quấy rối hoặc chơi xấu và tống tiền. Thậm chí, deepfake cũng được sử dụng vào mục đích chính trị với nguy cơ tạo ra tác động lớn ngoài đời thực.
Năm 2018, trên mạng xuất hiện đoạn video cho thấy một người giống với cựu Tổng thống Mỹ Barack Obama sử dụng những lời lẽ không hay để chỉ trích đương kim Tổng thống Mỹ lúc đó là ông Donald Trump. Mặc dù công chúng sau đó đã phát hiện video này là giả, nhưng đoạn video đã được lan truyền một cách nhanh chóng và gây ra những ảnh hưởng không nhỏ.
Cùng năm đó, một video giả mạo khác được tung lên mạng, tuyên truyền về sức khỏe không tốt của Tổng thống Gabon Ali Bongo. Vụ việc được cho là đã châm ngòi nổ cho cuộc đảo chính quân sự bất thành tại quốc gia châu Phi này.
Hay một trường hợp khác về deepfake, một nhóm lừa đảo đã dùng công nghệ "deep voice" giả là lãnh đạo doanh nghiệp, lừa một ngân hàng ở Các tiểu vương quốc Arab Thống nhất (UAE) chuyển 35 triệu USD vào tài khoản riêng. Đây là vụ lừa đảo bằng deepfake giả giọng nói thứ hai được công khai, và thành công gấp nhiều lần so với phi vụ đầu tiên. Năm 2019, một nhóm tội phạm cũng giả giọng CEO một công ty năng lượng ở Anh để đánh cắp 243.000 USD.
Rõ ràng, deepfake đã trở thành một vấn nạn trên thế giới, khiến nhiều người bị lâm vào tình cảnh khó khăn sau khi bị phát tán những những đoạn video, hình ảnh giả mạo và lợi dụng lừa đảo bằng giọng nói. Những hiệu ứng hoán đổi khuôn mặt trước đây chỉ nằm trong tay các chuyên gia phim ảnh thì nay có thể được thực hiện dễ dàng ngay trên máy tính cá nhân. Bất kỳ ai cũng có thể biến bức ảnh, bản ghi âm, video thành những đoạn phim giả mạo như công cụ để truyền bá những thông tin sai lệch và sử dụng vào những mục đích nguy hiểm khác và bất kỳ ai cũng có thể trở thành nạn nhân của công nghệ này.
Blockchain có thể giúp ngăn chặn deepfake như thế nào?
Hệ thống blockchain sử dụng một sổ cái phi tập trung, bất biến để ghi lại thông tin theo cách liên tục được xác minh và xác minh lại bởi mọi thực thể sử dụng nó, khiến cho việc thay đổi thông tin sau khi được tạo gần như là không thể.
Một trong những ứng dụng nổi tiếng nhất của blockchain là quản lý việc chuyển các loại tiền điện tử như bitcoin. Nhưng khả năng của blockchain trong việc cung cấp xác thực phi tập trung và một chuỗi hành trình rõ ràng khiến nó có tiềm năng trở thành một công cụ để theo dõi và xác minh không chỉ các nguồn tài chính mà còn tất cả các loại nội dung số.
Các tính năng cụ thể của blockchain như thuật toán mật mã, hàm băm (hàm chuyển đổi một giá trị sang giá trị khác), chữ ký mật mã (phương tiện thay đổi dữ liệu từ dạng có thể đọc được sang dạng được bảo vệ (mã hóa) và quay lại dạng có thể đọc được) và dấu thời gian (một cách an toàn để theo dõi thời gian tạo và sửa đổi tài liệu), cùng bản chất bất biến của blockchain sẽ trở thành một công cụ mạnh mẽ trong việc ngăn chặn và hạn chế nội dung deepfake.
Hàm băm mật mã là sự kết hợp giữa hàm băm và mật mã; dùng để tạo giá trị băm có tác dụng như một dấu vân tay kỹ thuật số duy nhất. Chỉ cần một thay đổi nhỏ trong dữ liệu đầu vào sẽ tạo ra một giá trị băm hoàn toàn mới. Nhờ vậy, hàm băm mật mã được sử dụng phổ biến trong việc xác thực tính chính xác của các dữ liệu số của blockchain. Điều này rất hữu ích trong việc chứng minh rằng một đoạn văn bản, tệp hoặc nội dung không bị thay đổi theo thời gian.
Thêm vào đó là với tính năng bất biến, blockchain có thể giúp một bản ghi trên blockchain tồn tại vĩnh viễn, không thể thay đổi - hàm băm hoặc "dấu vân tay" không thể sửa đổi và trở thành một tham chiếu chống giả mạo của nội dung số tại một thời điểm cụ thể.
Trong khi đó, dấu thời gian trên blockchain có thể dùng để xác nhận chính xác ngày, giờ xuất bản của một hình ảnh, hoặc video.
Những tính năng này có thể chứng minh một hình ảnh, video hoặc nội dung nói chung không bị thay đổi theo thời gian, từ đó có thể nhận dạng được những nội dung deepfake. Công nghệ blockchain, bằng cách cho phép truy xuất nguồn gốc của nội dung số, có thể giúp tạo ra một dấu vết kiểm tra cho nội dung số.
Đặc biệt, blockchain kết hợp với các công nghệ mới nổi khác như AI - thực sự có thể tăng cường khả năng trong việc xác định các nội dung deepfake. Tuy nhiên, các vấn đề công nghệ không thể được giải quyết chỉ bằng các giải pháp công nghệ.
Để blockchain có thể hỗ trợ hiệu quả trong việc xác định các sản phẩm được tạo ra từ công nghệ deepfake, quan hệ hợp tác trong cộng đồng quốc tế gồm các quốc gia, tổ chức và doanh nghiệp công nghệ cùng cam kết định hình việc quản lý tạo và tiêu thụ nội dung số là điều rất quan trọng.
Bên cạnh sự hợp tác từ nhiều phía, nhiều chuyên gia cũng đã khuyến cáo mỗi cá nhân cần phải tự bảo vệ mình để tránh trở thành nạn nhân của công nghệ này. Trên thực tế càng nhiều hình ảnh, video cá nhân được đăng lên Internet thì khả năng bị làm giả danh tính bằng deepfake càng cao. Do đó, mỗi cá nhân hãy tự nhận thức và hạn chế đăng những hình ảnh, video rõ quá rõ mặt và hạn chế số lượng người có thể xem video/hình ảnh của chính mìn