Cựu tổng thống Mỹ Donald Trump bị sử dụng hình ảnh nhiều nhất để tạo deepfake bằng Midjourney, trong khi Elon Musk xếp thứ ba.
Danh sách được NetVoucherCodes, website chuyên thống kê giao dịch và mã phiếu thưởng có trụ sở tại Anh, thực hiện trong hai năm và công bố ngày 30/4. Dữ liệu tổng hợp từ các mạng xã hội như Instagram, X và máy chủ Discord của Midjourney. Tất cả hình ảnh do Midjourney tạo, không tính đến các công cụ AI tạo ảnh khác.
Cụ thể, có 241.975 ảnh deepfake về ông Trump xuất hiện trên các mạng xã hội, tiếp đến là diễn viên Ana de Armas (127.081), Elon Musk (115.707), Tổng thống Mỹ Joe Biden (98.953) và diễn viên Sydney Sweeney (73.116).
Theo Petapixel, số deepfake có thể còn cao hơn nếu người dùng Midjourney không bị cấm sử dụng công cụ để tạo hình ảnh sai lệch liên quan đến bầu cử.
Phần còn lại trong danh sách cũng phản ánh xu hướng đáng lo ngại. Có 10 trong số 15 người nổi tiếng bị tạo deepfake nhiều nhất là phụ nữ. Theo thống kê, trong các từ khóa được sử dụng khi tạo ảnh AI, "phụ nữ" được dùng 10.372.251 lần, nhiều hơn 26% so với "đàn ông". Tương tự, từ "cô gái" được sử dụng 7.111.394 lần, nhiều hơn 268% so với từ "cậu bé".
Theo NetVoucherCodes, danh sách chưa đầy đủ về những người bị lợi dụng để tạo deepfake do hiện có nhiều các mô hình tạo ảnh tương tự Midjourney. Tuy nhiên, nó vẫn cho thấy những người có ảnh hưởng lớn đến chính trị, các nghệ sĩ, tỷ phú đang là đích nhắm của deepfake.
Trước đó, tại Hàn Quốc, kẻ gian cũng sử dụng deepfake mạo danh Elon Musk để lừa một phụ nữ chuyển tổng cộng 70 triệu won (gần 51.000 USD) vào tài khoản trước khi biến mất.
|