Người đàn ông Mỹ 42 tuổi đã bị bắt vì tội tạo ra những hình ảnh khiêu dâm của trẻ vị thành niên và gửi các nội dung khiêu dâm tương tự cho một đứa trẻ 15 tuổi.
Theo thông cáo báo chí từ Bộ Tư Pháp Mỹ hôm 21/5, Steven Anderegg đã bị bắt vào tuần trước sau khi hội đồng bồi thẩm đoàn liên bang đưa ra bản cáo trạng buộc tội hắn ta đã sản xuất, phân phối và nắm sở hữu những hình ảnh khiêu dâm do AI tạo ra về trẻ vị thành niên. Đây là một trong những trường hợp đầu tiên thuộc thể loại phạm pháp này được ghi nhận tại Mỹ.
Steven Anderegg (cư dân ở Wisconsin, Mỹ) bị cáo buộc đã sử dụng
Stable Diffusion, dạng mô hình AI chuyển văn bản thành hình ảnh của công ty khởi nghiệp
Stability AI (Anh), để tạo ra hàng ngàn hình ảnh siêu thực về trẻ vị thành niên khỏa thân hoặc mặc quần áo hở hang. Nhiều hình ảnh trong số đó cho thấy các em tham gia vào các hành vi tình dục với đàn ông hoặc chạm vào bộ phận sinh dục của mình.
Theo tài liệu của tòa án, Steven Anderegg bị cáo buộc đã gửi hình ảnh khiêu dâm của trẻ vị thành niên do AI tạo trong tin nhắn trên Instagram cho đứa trẻ 15 tuổi và mô tả cách mà hắn ta sử dụng
Stable Diffusion để tạo ra những ảnh đồi trụy như vậy.
Bộ Tư Pháp Mỹ cho biết Steven Anderegg đã lưu trữ các hình ảnh trên máy tính của mình và bằng chứng đó được tìm thấy từ các thiết bị điện tử của hắn. Ngoài ra, Bộ này còn tuyên bố, Steven Anderegg đã tạo ra những hình ảnh bằng cách sử dụng những lời nhắc bằng văn bản khiêu dâm liên quan đến trẻ vị thành niên.
Steven Anderegg đang bị cảnh sát liên bang giam giữ và chờ phiên điều trần diễn ra hôm 22/5. Theo Bộ Tư Pháp Mỹ, Steven Anderegg phải đối mặt với án tù lên đến 70 năm vì 4 tội danh bị cáo buộc trong bản cáo trạng này.
Steven Anderegg phải đối mặt với án tù lên đến 70 năm vì dùng Stable Diffusion để tạo và gửi hình ảnh khiêu dâm về trẻ vị thành niên (Ảnh: Internet)
Nếu Steven Anderegg bị kết án, đây không phải là lần đầu tiên một người bị bỏ tù vì sử dụng AI để tạo ra hình ảnh khiêu dâm về trẻ vị thành niên.
Vào tháng 11/2023, một bác sĩ tâm lý học trẻ em ở tiểu bang Bắc Carolina (Mỹ) đã bị kết án 40 năm tù, với 30 năm bị quản chế. Gã đàn ông này đã sử dụng công cụ AI để tạo ra hình ảnh khiêu dâm về trẻ vị thành niên và khai thác tình dục trẻ vị thành niên.
Tháng 12/2023, các chuyên gia nghiên cứu của Đại học Stanford (Mỹ) cho biết hơn 1,000 hình ảnh lạm dụng tình dục trẻ em đã được tìm thấy trong cơ sở dữ liệu nổi bật sử dụng để đào tạo các công cụ AI. Điều này nhấn mạnh đến nguy cơ nội dung này có thể đã giúp huấn luyện các chương trình tạo ảnh của AI tạo ra những hình ảnh giả mạo mới và thực tế về sự lạm dụng tình dục ở trẻ em.
Trong một báo cáo do bộ phận quan sát Internet của Đại học Stanford cho công bố, các chuyên gia nghiên cứu cho biết đã tìm thấy ít nhất 1,008 ảnh lạm dụng trẻ em ở một cơ sở dữ liệu hình ảnh mã nguồn mở phổ biến có tên
LAION-5B, mà các mô hình tạo ảnh AI như
Stable Diffusion 1.5 trước đó của
Stability AI dựa vào để tạo ra những bức ảnh siêu thực này.
Theo các cuộc nghiên cứu về sự an toàn của trẻ em, sự phát hiện này được đưa ra khi các ứng dụng AI ngày càng được quảng cáo trên các diễn đàn ấu dâm. Các chuyên gia cho biết chương trình tạo ảnh AI thường chỉ cần huấn luyện trên một số ít ảnh để tái tạo ra chúng thật chính xác. Vì thế, sự hiện diện của hơn 1,000 ảnh lạm dụng tình dục trẻ em trong dữ liệu huấn luyện có thể khiến cho các chương trình tạo hình ảnh AI có khả năng cao rất đáng lo ngại.
David Thiel, tác giả báo cáo và chuyên gia kỹ thuật tại bộ phận quan sátInternet của Đại học Stanford, nói rằng, những bức ảnh về nguyên tắc sẽ mang lại lợi thế cho mô hình AI trong việc có thể
"tạo ra nội dung lạm dụng tình dục trẻ em theo cách giống như thực hiện việc này ở thực tế ngoài đời".
Đại diện của LAION cho biết họ "đã tạm thời gỡ xuống bộ số liệu LAION-5B xuống để bảo đảm sự an toàn cần thiết trước khi cho tái xuất bản lại".
Người phát ngôn viên của
Stability AI trước đây nói với trang
Business Insider rằng, ho đã giới thiệu các bộ lọc để ngăn ngừa người sử dụng tạo ra các nội dung bất hợp pháp với Stable Diffusion và các mô hình AI của công ty này chỉ được đào tạo trên một tập hợp con đã lọc của
LAION-5B.
Stability AI nêu rõ trong điều khoản sử dụng được cập nhật lần gần nhất vào tháng 3 rằng,
"người sử dùng sẽ không được tự ý sử dụng hoặc cho phép người khác sử dụng mô hình của họ để thực hiện hành vi mờ ám hoặc gây hại cho trẻ em, gồm cả việc gạ gẫm, tạo ra, thu thập hoặc phát tán nội dung lạm dụng tình dục ở trẻ em".
"Stability AI cam kết ngăn chặn việc lạm dụng AI và cấm sử dụng các mô hình và dịch vụ hình ảnh của chúng tôi cho các hoạt động bất hợp pháp, gồm cả nỗ lực chỉnh sửa hoặc tạo nội dung lạm dụng tình dục trẻ em", công ty đưa ra tuyên bố này với
Business Insider.