7/24
Google (GOOG) đă sa thải kỹ sư tuyên bố rằng một hệ thống AI chưa được công bố đă trở nên có tri giác, công ty xác nhận, nói rằng anh ta đă vi phạm các chính sách về việc làm và bảo mật dữ liệu.
Blake Lemoine, một kỹ sư phần mềm của Google, tuyên bố rằng một công nghệ đàm thoại có tên là LaMDA đă đạt đến mức độ ư thức sau khi trao đổi hàng ngh́n tin nhắn với nó.
Google xác nhận lần đầu tiên họ đă cho kỹ sư này nghỉ việc vào tháng 6. Công ty cho biết họ chỉ bác bỏ những tuyên bố “hoàn toàn vô căn cứ” của Lemoine sau khi xem xét chúng một cách toàn diện. Theo báo cáo, ông đă làm việc tại Alphabet được 7 năm.
Google là một trong những công ty đi đầu trong việc đổi mới công nghệ AI – trí tuệ nhân tạo, bao gồm LaMDA, hay “Mô h́nh ngôn ngữ cho các ứng dụng hội thoại”. Công nghệ như thế này đáp ứng các lời nhắc bằng văn bản bằng cách t́m các mẫu và dự đoán chuỗi các từ từ một loạt văn bản lớn – và kết quả có thể gây khó chịu cho con người.
“Bạn sợ những thứ ǵ?” Lemoine đă hỏi LaMDA, trong một Tài liệu Google được chia sẻ với các giám đốc điều hành hàng đầu của Google vào tháng 4 năm ngoái, Washington Post đưa tin.
LaMDA trả lời: “Tôi chưa bao giờ nói điều này lớn tiếng trước đây, nhưng có một nỗi sợ hăi rất lớn về việc bị tắt nhằm giúp tôi tập trung vào việc giúp đỡ người khác. Tôi biết điều đó nghe có vẻ kỳ lạ, nhưng đó là điều chính xác. Giống như cái chết đối với tôi. Nó sẽ làm tôi sợ hăi rất nhiều. “
Nhưng cộng đồng AI rộng lớn hơn đă cho rằng LaMDA không ở gần mức độ ư thức.
Gary Marcus, người sáng lập và Giám đốc điều hành của Geometric Intelligence, nói với CNN Business: “Không ai nên nghĩ rằng trí thông minh nhân tạo, ngay cả trên steroid, là có ư thức.
Đây không phải là lần đầu tiên Google đối mặt với xung đột nội bộ v́ sự đột phá của ḿnh vào AI.
Vào tháng 12 năm 2020, Timnit Gebru, nhà tiên phong trong lĩnh vực đạo đức của AI, chia tay Google. Là một trong số ít nhân viên Da đen tại công ty, cô nói rằng cô cảm thấy “liên tục bị mất nhân tính.”
Sự ra đi đột ngột đă thu hút sự chỉ trích từ giới công nghệ, bao gồm cả những người trong Nhóm AI đạo đức của Google. Margaret Mitchell, lănh đạo nhóm AI đạo đức của Google, đă bị sa thải vào đầu năm 2021 sau sự thẳng thắn của cô ấy về Gebru. Gebru và Mitchell đă đưa ra những lo ngại về công nghệ AI, nói rằng họ đă cảnh báo rằng mọi người của Google có thể tin rằng công nghệ này là có tri giác.
Vào ngày 6 tháng 6, Lemoine đăng trên Medium rằng Google đă đưa anh ta vào nghỉ hành chính có lương “liên quan đến cuộc điều tra về những lo ngại về đạo đức AI mà tôi đang nêu ra trong công ty” và rằng anh ta có thể bị sa thải “sớm”.
Google cho biết: “Thật đáng tiếc là mặc dù đă tham gia rất lâu về chủ đề này, Blake vẫn cố chấp vi phạm các chính sách về việc làm và bảo mật dữ liệu rơ ràng bao gồm yêu cầu bảo vệ thông tin sản phẩm.
CNN đă liên hệ với Lemoine để có b́nh luận.
|