Quân đội Israel đă sử dụng hệ thống nhắm mục tiêu AI có tên là "Lavender" để xác định hàng chục ngh́n người Palestine ở Gaza là mục tiêu tiềm năng, v́ thế gây nên cuộc tàn sát khủng khiếp.
Bài viết gần đây xuất bản trên tạp chí +972 của người Palestine ở Israel và cơ quan truyền thông tiếng Do Thái Local Call, đă tiết lộ rằng quân đội Israel đă sử dụng hệ thống nhắm mục tiêu AI có tên là "Lavender" để xác định hàng chục ngh́n người Palestine ở Gaza là mục tiêu tiềm năng.
Hăng truyền thông Arab Al Jazeera trích lời Marc Owen Jones, trợ lư giáo sư về Nghiên cứu Trung Đông và nhân văn kỹ thuật số tại Đại học Hamid bin Khalifa cho biết: "Ngày càng rơ ràng rằng Israel đang triển khai các hệ thống AI chưa được thử nghiệm và chưa trải qua quá tŕnh đánh giá minh bạch để giúp đưa ra quyết định về sự sống chết của dân thường".
"Việc những người vận hành có thể điều chỉnh các thuật toán dựa trên áp lực từ các quan chức cấp cao để t́m ra nhiều mục tiêu hơn cho thấy họ thực sự đang giao trách nhiệm giải tŕnh và lựa chọn cho AI, đồng thời sử dụng hệ thống máy tính để trốn tránh trách nhiệm giải tŕnh về mặt đạo đức".
Ông nói: "Bản thân những người điều hành đă chỉ ra rằng AI chỉ đơn giản là một cỗ máy giết người hiệu quả và nó rơ ràng không được sử dụng để giảm thương vong cho dân thường mà để t́m thêm mục tiêu".
"Điều này giúp giải thích tại sao hơn 32.000 người đă thiệt mạng. Hăy nói rơ: Đây là một cuộc diệt chủng được hỗ trợ bởi AI và trong tương lai, cần phải có lời kêu gọi tạm dừng sử dụng AI trong chiến tranh".
Ông nói thêm: "Nếu không có áp lực từ các đồng minh của Israel, việc chấm dứt sử dụng (AI) sẽ khó xảy ra".
Ben Saul, báo cáo viên đặc biệt của Liên Hợp Quốc về nhân quyền và chống khủng bố, nói rằng các thông tin cho thấy quân đội Israel quyết định được phép giết 15 hoặc 20 người Palestine để t́m diệt mỗi thành viên cấp dưới của Hamas có thể cấu thành tội ác chiến tranh.
Saul cho biết trong một bài đăng trên mạng xă hội: "Nếu đúng, nhiều cuộc tấn công của Israel vào Gaza sẽ cấu thành tội ác chiến tranh khi tiến hành các cuộc tấn công không cân xứng".
Giáo sư Toby Walsh, chuyên gia AI tại Đại học New South Wales ở Sydney, Australia, nói với Al Jazeera rằng hệ thống Lavender này "giúp giải thích tỷ lệ tử vong khủng khiếp" ở Gaza, một phần do nó không chính xác 100% và cũng v́ giới lănh đạo quân sự Israel "sẵn sàng giết 20 người vô tội cho mỗi chiến binh (và thậm chí lên tới 100 đối với một nhân vật cấp cao ở Hamas)".
Các học giả pháp lư có thể sẽ lập luận rằng điều này vi phạm luật nhân đạo quốc tế, Walsh nói.
Ông nói: "Nguyên tắc phân biệt yêu cầu bạn không nhắm mục tiêu vào dân thường", đồng thời cho biết thêm rằng khi sử dụng hệ thống này, lực lượng Israel nhận thức được rằng họ đang cố t́nh sử dụng một hệ thống mà họ biết là đă vi phạm nguyên tắc trên.
"Và nguyên tắc tương xứng đ̣i hỏi số thương vong đi kèm phải tỷ lệ thuận với mối đe dọa. Hai mươi (thường dân) phải chết đổi một chiến binh Hamas là không tỷ lệ thuận", ông giải thích.
VietBF@ sưu tập
|