Các ứng dụng như Avatatify, Reface... sử dụng kỹ thuật deepfake để tạo video giả hành động của con người, đang được dùng nhiều ở Việt Nam.
Những video như Elon Musk nói chuyện bằng tiếng Việt, hay hình ảnh một người nào đó cất giọng hát như ca sỹ nước ngoài, nam nói giọng nữ... xuất hiện nhiều trên mạng xã hội gần đây. Đây là video giả dạng bằng cách ghép mặt, được tạo bởi các ứng dụng như Avatarify, Reface... trên smartphone.
Nhiều video được đánh giá là "chân thực không thua kém video gốc". "Phải xem đến lần thứ hai và thấy logo của ứng dụng, tôi mới nhận ra đây là video giả", Tuấn Anh (Hà Nội) bình luận về một video với hình ảnh Elon Musk nói "chúc mừng sinh nhật" bằng tiếng Việt.
Ứng dụng Avatarify cho phép "trộn" biểu cảm của người này vào khuôn mặt của người khác. Ảnh: Lưu Quý.
Tuần qua, các nội dung "giả" này xuất hiện nhiều. Song song đó, các ứng dụng như Avatarify, Reface cũng lọt top những "app" được tải nhiều nhất trên iOS và Android tại Việt Nam. Hai ứng dụng này nhận được hàng nghìn đánh giá 5* từ người dùng Việt, với những lời khen về khả năng ghép mặt chính xác, biến ảnh tĩnh thành video, hay tạo ra những nội dung hài hước, độc đáo mà trước đây các ứng dụng khác không làm được.
Nhìn chung, Avatarity và Reface có cơ chế hoạt động và cách sử dụng tương tự nhau. Với Avatarify, người dùng chọn một bức ảnh có khuôn mặt của mình, bạn bè hoặc người nổi tiếng nào đó, đưa vào app. Sau đó, chọn một video chứa biểu cảm mong muốn, thường là video về các ca sĩ đang hát, Avatarify sẽ "hòa trộn" biểu cảm này với khuôn mặt trong bức ảnh gốc, lồng ghép thêm âm thanh, tạo nên video giống đang biểu diễn. Nhờ khả năng "hòa trộn" theo thời gian thực, người dùng còn có thể lồng tiếng nói và biểu cảm của chính mình, vào khuôn mặt của người khác.
Ngược lại, Reface có khả năng ghép mặt mình vào video của người khác. Ứng dụng này thường được người Việt sử dụng để đưa mặt mình vào các video ca nhạc, phim hành động...
Chỉ mất chưa đến một phút là có thể tạo được một video deepfake từ ứng dụng trên điện thoại.
Điểm chung của các ứng dụng này, theo các chuyên gia, là sử dụng kỹ thuật deepfake để "trộn" khuôn mặt của người này với biểu cảm và giọng nói của người khác.
Sự nguy hiểm của công nghệ phía sau
Về mặt bảo mật, các ứng dụng trên đều khẳng định người dùng không cần cung cấp thông tin cá nhân. Ứng dụng cũng không tải ảnh của người dùng lên máy chủ để lưu trữ hoặc truy cập. Nền tảng kỹ thuật của Reface còn được ứng dụng trong ngành giải trí, hứa hẹn tạo nên cuộc cách mạng về làm phim.
Tuy nhiên, kỹ thuật phía sau ứng dụng này là deepfake - từng được cảnh báo có thể gây ra những hậu quả nghiệm trọng, như mạo danh, ghép mặt người vào video khiêu dâm.
Ở phiên bản miễn phí của Reface, người dùng chỉ có thể ghép hình trong các video, ảnh động, có sẵn trong thư viện ứng dụng. Với bản trả phí (giá 579 nghìn đồng/năm), người dùng có thể thêm bất kỳ video nào vào thư viện để ghép mặt. Dù là ứng dụng được sử dụng với mục đích giải trí, các chuyên gia bảo mật lo ngại công nghệ này có thể bị lợi dụng cho mục đích xấu.
Hồi đầu năm 2020, nhà sáng lập Ali Aliev của Avatarify đã sử dụng công nghệ mã nguồn mở, sau đó "tinh chỉnh trong vài giờ" để tạo nên ứng dụng này. Ali cho biết anh đã thử công cụ này với hai người bạn của mình - vốn là các nhà nghiên cứu về AI và chính họ cũng "bối rối" khi thấy mình đang họp cùng "Elon Musk". Từ kết quả này, nhóm của Ali đã tiến tới phát triển các ứng dụng deepfake, có khả năng tích hợp vào cuộc họp trong Zoom và Skype.
Mã nguồn của Avatarify được công khai trên Github. Các chuyên gia bảo mật cho biết họ không lo ngại về việc các ứng dụng này lấy dữ liệu hình ảnh của người dùng nữa, mà lo là deepfake đang được sử dụng quá dễ dàng.
Trước đây, việc tạo các video deepfake yêu cầu phần cứng máy tính mạnh mẽ, hoặc chi phí hàng chục USD cho mỗi video, nhưng nay có thể thực hiện miễn phí trên điện thoại, chỉ với vài thao tác đơn giản. Nhiều chính trị gia, ngôi sao nổi tiếng từng trở thành nạn nhân của deepfake khi bị ghép mặt vào các video khiêu dâm.
Trong bối cảnh ngày càng nhiều ngân hàng, sàn giao dịch điện tử ứng dụng phương thức xác thực danh tính bằng eKYC (electronic Know Your Customer), sự phát triển của deepfake có thể trở thành mối đe dọa.
Một trong những bước quan trọng của eKYC là đối chiếu hình ảnh "sống" của người dùng với ảnh từ giấy tờ tùy thân. Các chuyên gia bảo mật cho biết, họ nhận thấy nhu cầu tạo hình ảnh deepfake đang ngày càng cao. Trên môi trường darkweb, giới tin tặc liên tục khoe những lần hình ảnh deepfake của chúng vượt qua được giải pháp eKYC.
Theo trang Gemini, các phần mềm phát hiện deepfake đang tụt hậu so với sự phát triển của công nghệ này. Độ chính xác của các công cụ này hiện chỉ ở mức 65,18%, tức là có đến 1/3 số hình là giả mà không thể phát hiện được. Trong khi đó, các giải pháp deepfake như Avatarify lại sử dụng AI và có mã nguồn mở, nên kết quả chúng tạo ra sẽ ngày càng "thật", kéo theo việc phát hiện ra deepfake khó khăn hơn.