Người đứng đầu gă khổng lồ t́m kiếm cho biết. “Tất cả các sản phẩm của mọi công ty” đều sẽ bị ảnh hưởng bởi sự phát triển nhanh chóng của AI. Đồng thời cảnh báo con người cần chuẩn bị thích nghi với những công nghệ đă và đang dần xuất hiện.
Trong chương tŕnh “60 phút” của Đài CBS, người phỏng vấn Scott Pelley đă thử một số dự án AI của Google và “không nói nên lời”, cũng như cảm thấy “thật đáng lo ngại” trước khả năng của những sản phẩm AI tương tự như chatbot Bard.
“Chúng ta với tư cách là một xă hội cần thích nghi với chúng”, Pichai cho hay và ông nói thêm rằng, AI sẽ lấy đi công việc của nhiều tầng lớp, trong đó bao gồm “lao động trí thức” như nhà văn, kế toán, kiến trúc sư và thậm chí cả kỹ sư phần mềm.
Cảnh báo những nguy cơ do AI tạo ra, Pichai nói rằng quy mô vấn đề thông tin sai lệch, tin tức và h́nh ảnh giả mạo sẽ “lớn hơn nhiều”. Tháng trước, theo nguồn tin nội bộ Google, Pichai nhắc nhở các nhân viên rằng, sự thành công của Bard đang phụ thuộc vào thử nghiệm công khai và “mọi thứ có thể đi chệch hướng”.
Tháng trước, gă khổng lồ t́m kiếm phát hành chatbot AI Bard dưới dạng sản phẩm thử nghiệm cho công chúng. Động thái đưa ra sau khi Microsoft thông báo tích hợp công nghệ GPT vào tŕnh duyệt và t́m kiếm của Bing.
Dù vậy, công chúng và giới phê b́nh trong những tuần gần đây bắt đầu lo ngại về hậu quả của những tiến bộ nhanh chóng trong lĩnh vực AI. Vào tháng 3, Elon Musk, Steve Wozniak (đồng sáng lập Apple) cùng hàng chục chuyên gia nghiên cứu đă kêu gọi tạm dừng ngay lập tức các thử nghiệm huấn luyện mô h́nh ngôn ngữ lớn mạnh hơn GPT-4.
Cần sự chung tay:
Hăng công nghệ Mỹ có tài liệu phác thảo “các khuyến nghị để quản lư AI”, nhưng CEO Pichai tin rằng xă hội phải nhanh chóng hoàn thiện quy định, điều luật, cũng như hiệp ước giữa các quốc gia nhằm đảm bảo AI an toàn đối với thế giới và phù hợp với “giá trị con người”.
“Việc này không thể do một công ty quyết định”, CEO người Ấn nói. “Đó là lư do tôi cho rằng, không chỉ các kỹ sư công nghệ, mà cần cả sự tham gia của các nhà khoa học xă hội, đạo đức học, triết gia… vào quá tŕnh phát triển AI”.
Người đứng đầu Google cũng cho biết, ông cảm thấy xă hội chưa sẵn sàng cho những công nghệ AI như Bard, do “tốc độ phát triển công nghệ so với tốc độ thích nghi của mô h́nh tổ chức xă hội dường như đang không khớp nhau”. Dù vậy, ông vẫn cảm thấy lạc quan v́ so với những phát minh trong quá khứ, ngày nay đă có nhiều người sớm lo lắng về các hệ luỵ công nghệ có thể gây ra.
Pichai xác nhận Bard có nhiều ảo giác sau khi người dẫn chương tŕnh Pelley hỏi chatbot về lạm phát và nhận được phản hồi gợi ư về 5 cuốn sách không thực sự tồn tại.
Điều này càng trở nên đáng lo ngại hơn khi chatbot hoạt động với cơ chế “hộp đen”, nơi con người không thể hiểu hết tại sao hoặc làm thế nào mà AI đưa ra một số phản hồi nhất định.
“Ngay cả con người cũng chưa hoàn toàn hiểu hết cách thức tâm trí ḿnh hoạt động như thế nào”, Pichai trả lời thắc mắc về việc tại sao phát hành một sản phẩm công ty c̣n không hiểu hết.