Một người đàn ông tên Roberto Mata vừa đâm đơn kiện hăng hàng không Avianca do bị xe đẩy hàng tại sân bay quốc tế Kennedy, New York tông phải. Khi Avianca yêu cầu thẩm phán liên bang ở Manhattan hủy bỏ vụ kiện, luật sư của ông Mata đă phản đối kịch liệt, sau đó đệ tŕnh một bản tóm tắt dài 10 trang trích dẫn các vụ kiện có liên quan, chẳng hạn như một người đàn ông tên Martinez kiện hăng Delta Air Lines, Zicherman kiện Korean Air Lines và Varghese kiện China Southern Airlines.
Tuy nhiên sau đó, không một ai, kể cả luật sư hăng hàng không và chính thẩm phán, có thể t́m được nguồn trích dẫn cho những thông tin trên. Hóa ra, mọi tài liệu tóm tắt đều được ChatGPT tạo ra.
Vị luật sư tham khảo nguồn chatbot, Steven A. Schwartz của công ty luật Levidow, Levidow & Oberman, đă xin ṭa tha thứ. Ông cho biết ḿnh đă sai khi sử dụng chương tŕnh trí tuệ nhân tạo không đáng tin để dẫn chứng cho vụ kiện.
Theo The New York Times, ông Schwartz đă hành nghề luật sư ở New York trong 30 năm và không hề có ư định lừa dối ṭa. Ông cho biết ḿnh chưa bao giờ sử dụng ChatGPT, “do đó không biết rằng nó có thể sai” và xin hứa sẽ không bao giờ làm như vậy nữa.
Thẩm phán Castel cho biết bản thân ông chưa bao giờ phải đối mặt với bản đệ tŕnh pháp lư chứa đầy “các phán quyết không có thật” như vậy. Ông đă quyết định tổ chức một phiên ṭa vào ngày 8/6 để thảo luận phương án trừng phạt vị luật sư trên.
Khi AI càn quét thế giới trực tuyến, nó đă gợi ra viễn cảnh rằng một ngày nào đó, máy móc sẽ thay thế con người làm việc. Nỗi sợ đặc biệt lớn đối với những lao động tri thức.
Theo Stephen Gillers, giáo sư đạo đức pháp lư tại Trường Luật Đại học New York, vấn đề này đặc biệt gay gắt giữa các luật sư - những người vốn đang tranh luận về giá trị cũng như sự nguy hiểm của AI.
“Bạn không thể dùng ChatGPT, lấy thông tin rồi dán nó vào hồ sơ ṭa án của ḿnh”, ông Stephen Gillers nói.
Trước đó, các luật sư của hăng hàng không Avianca đă viết thư cho Thẩm phán Castel, nói rằng họ không thể t́m thấy các trường hợp được trích dẫn trong bản tóm tắt của luật sư Roberto Mata.
“Không thể t́m thấy câu trích dẫn này, cũng như bất cứ thứ ǵ tương tự như vậy”, luật sư hăng hàng không nói.
Bart Banino, luật sư của Avianca, nói rằng công ty của ông là Condon & Forsyth cũng không thể t́m ra bằng chứng cho thấy các dẫn chứng là thật. Ông nghi ngờ rằng một chatbot có thể đă ‘nhúng tay’.
Được biết ChatGPT đă vướng vào rất nhiều tranh căi, chẳng hạn như phải mất bao lâu, công nghệ này mới có thể hoạt động mà không cần bất kỳ sự can thiệp nào của con người. Chính CEO Sam Altman của Open AI cũng thừa nhận hạn chế của công nghệ này.
“ChatGPT vẫn c̣n nhiều thiếu sót nhưng lại khiến mọi người cho rằng nó hoàn hảo. Chúng ta không nên phụ thuộc vào chatbot này đối với những vấn đề quan trọng”, ông chia sẻ.
Trước đó, đồng sáng lập Apple Steve Wozniak, Elon Musk cùng hơn 1.000 nhà lănh đạo doanh nghiệp vừa kư một bức thư yêu cầu các biện pháp bảo mật và tạm dừng phát triển các mô h́nh AI trong bối cảnh công nghệ trí tuệ nhân tạo bùng nổ. Họ lập luận rằng các mô h́nh AI mạnh mẽ như GPT-4 của OpenAI chỉ nên phát triển nếu dành được sự tin tưởng và kiểm soát được toàn bộ rủi ro.
“Đó là một ư tưởng rất hay để làm chậm quá tŕnh phát triển mô h́nh mới bởi v́ nếu AI thực sự tốt, việc chờ đợi hàng tháng hoặc hàng năm cũng chẳng có hại ǵ, dù sao chúng ta cũng sẽ đi đến đích”, James Grimmelmann, giáo sư về kỹ thuật số cho biết.
VietBF@Sưu tầm