Deepfake dần bị giới tội phạm mạng khai thác, trở thành công cụ lừa đảo dù mục đích ban đầu của công nghệ này là phục vụ giải trí.
Hiện Deepfake trở thành mối quan ngại lớn khi số lượng những vụ lừa đảo bằng công nghệ ngày càng gia tăng.
Sau khi nghiên cứu trên diễn đàn Darknet, nơi các tội phạm công nghệ thường xuyên hoạt động, chuyên gia bảo mật nhận thấy có nhiều tội phạm sử dụng Deepfake để lừa đảo đến mức nhu cầu vượt xa nguồn cung các phần mềm Deepfake hiện có trên thị trường.
Khi cầu vượt cung, các chuyên gia của Kaspersky dự đoán số vụ lừa đảo bằng Deepfake sẽ tăng cao, với nhiều h́nh thức đa dạng và tinh vi hơn: từ cung cấp một video mạo danh chất lượng cao đến việc sử dụng h́nh ảnh người nổi tiếng trong luồng phát trực tuyến giả mạo (fake livestream) trên mạng xă hội, hứa hẹn sẽ thanh toán gấp đôi số tiền nạn nhân đă gửi họ.
Theo hệ thống tham chiếu thông tin Regula, 37% doanh nghiệp trên thế giới từng gặp lừa đảo Deepfake bằng giọng nói và 29% trở thành nạn nhân của video Deepfake.
Công nghệ này trở thành mối đe dọa đối với an ninh mạng Việt Nam, nơi tội phạm mạng thường sử dụng các cuộc gọi video giả để mạo danh cá nhân ḥng vay mượn người thân, bạn bè của họ.
Một cuộc gọi video Deepfake có thể thực hiện chỉ trong một phút nên nạn nhân rất khó phân biệt giữa thật và giả.
Deepfake dần trở thành "nỗi ác mộng" trong các vụ lừa đảo tinh vi trên mạng
“Deepfake trở thành cơn ác mộng với phụ nữ và xă hội. Tội phạm mạng đang khai thác trí tuệ nhân tạo (AI) để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm, cũng như trong chiến dịch tuyên truyền.
Những h́nh thức này nhằm mục đích thao túng dư luận bằng cách phát tán thông tin sai lệch, thậm chí gây tổn hại đến danh tiếng của tổ chức hoặc cá nhân,” bà Vơ Dương Tú Diễm, Giám đốc khu vực Việt Nam của Kaspersky chia sẻ.
Mặc dù AI đang bị tội phạm lạm dụng cho những mục đích xấu, các cá nhân và doanh nghiệp vẫn có thể sử dụng chính trí tuệ nhân tạo để nhận diện Deepfake, giảm xác suất thành công của các vụ lừa đảo.
Theo đó, người dùng sẽ có một số giải pháp hữu dụng nhằm bảo vệ ḿnh khỏi tṛ lừa đảo như sử dụng các phần mềm phát hiện nội dung do AI tạo ra (sử dụng thuật toán tiên tiến để phân tích, xác định mức độ bị chỉnh sửa của h́nh ảnh/video/âm thanh).
Đối với video Deepfake, hiện có những công cụ giúp nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại. Một số chương tŕnh c̣n "mạnh" đến mức phát hiện lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video v́ khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu.
Bên cạnh đó c̣n có h́nh mờ (watermark) đóng vai tṛ là dấu hiệu nhận biết trong h́nh ảnh, video… giúp tác giả bảo vệ bản quyền cho sản phẩm AI. Tính năng này có thể trở thành vũ khí chống lại Deepfake v́ giúp truy t́m nguồn gốc của nền tảng tạo ra trí tuệ nhân tạo. Người dùng có mức độ am hiểu về công nghệ có thể t́m cách truy xuất nguồn gốc nội dung để so sánh dữ liệu gốc đă bị chỉnh sửa ra sao qua "bàn tay" của AI.
Hiện nay, một số công nghệ mới nổi sử dụng thuật toán mă hoá để chèn giá trị băm (hash) theo khoảng cách thời gian đặt trong video. Nếu video đă qua chỉnh sửa, giá trị băm sẽ thay đổi và từ đó người dùng có thể xác thực được nội dung có bị can thiệp hay không.
Trước đây có một số hướng dẫn về việc t́m kiếm điểm khác thường trong video, ví dụ sai lệch màu sắc, chuyển động thiếu tự nhiên của nhóm cơ, ánh mắt... Tuy nhiên AI ngày càng thông minh khiến những giá trị này không phải lúc nào cũng mang lại kết quả đúng.
Quá tŕnh xác thực độ tin cậy của video không c̣n dựa trên mắt thường mà phải cần đến các công cụ công nghệ được sinh ra với mục đích pḥng ngừa, phát giác nội dung giả mạo.
VietBF@sưu tập