Cuộc đua biến đổi trải nghiệm t́m kiếm trực tuyến của người dùng đă bắt đầu. Microsoft vừa ghi điểm giúp họ dẫn trước Google. Nhưng cùng lúc, có lẽ Microsoft cũng đă tự ghi một bàn phản lưới nhà, khi Sydney, tên mă chatbot tích hợp trong Bing, dựa trên mô h́nh ngôn ngữ Prometheus, đă nhiều lần “hóa điên”.
Nhắc lại lợi ích của chatbot AI trong công cụ t́m kiếm. Giờ người dùng sẽ không cần gơ những cụm từ khóa vô hồn nữa, khi chatbot cho phép tương tác trực tiếp với những câu hỏi vô cùng tự nhiên của người dùng, và có thể trao đổi và tṛ chuyện với họ.
Điều này hứa hẹn đơn giản hóa quy tŕnh t́m kiếm trực tuyến. Không c̣n cái cảnh ṃ mẫm từng trang kết quả t́m kiếm để thấy thứ chúng ta cần, không cần phải xem kỹ kết quả đó là quảng cáo hay là kết quả tự nhiên, quá tŕnh đi t́m câu trả lời cho một câu hỏi của anh em sẽ trở nên dễ dàng hơn nhiều. Và dẫn đầu cuộc đua biến đổi t́m kiếm trực tuyến ấy hiện giờ chính là Microsoft với Sydney. Họ đă đầu tư 10 tỷ USD cho OpenAI để được độc quyền sử dụng chatbot dựa trên mô h́nh ngôn ngữ đơn vị này phát triển.
Vậy tại sao mọi thứ không như ư muốn của Microsoft?
AI của Bing "hóa điên"?
Đầu tháng 2 vừa rồi, Microsoft công bố việc tích hợp chatbot dựa trên mô h́nh ngôn ngữ GPT vào Bing, tạo ra “Sydney”. Chỉ sau 48 giờ, 1 triệu người tham gia waitlist để chờ đến lượt ḿnh tự trải nghiệm chatbot trong Bing. Google ngay lập tức có câu trả lời với sự kiện công bố chatbot tên là “Bard”. Nói công bằng, màn PR của Google là một thảm họa đúng nghĩa đen. Tại sự kiện, Bard đưa ra câu trả lời sai cho một câu hỏi. Hệ quả là giá trị vốn hóa của Alphabet bay 100 tỷ USD chỉ trong 1 ngày.
C̣n ở thời điểm đó, mọi thứ có vẻ đều ổn với Microsoft. Đấy là cho tới khi những người dùng đầu tiên được tṛ chuyện với Sydney kể lại trải nghiệm của họ.
Có những thời điểm, những câu chữ Sydney tạo ra có thể được mô tả bằng tính từ đơn giản, mất trí. Dĩ nhiên vẫn có phần lớn thời gian chatbot này vận hành ổn, nhưng rất dễ để “chạm nọc” AI này, khiến nó trưng ra bộ mặt khác hoàn toàn. Ví dụ, một giáo sư đại học quốc gia Australia bị AI dọa giết. Một nhà báo ở The New York Times th́ bị AI gạ bỏ vợ để cả hai “đến với nhau.” Một người dùng khác th́ nói từ ngữ của chatbot có tính thao túng tâm lư, thuyết phục người này tin rằng giờ vẫn là năm 2022.
Tất cả những sự cố ngoài ư muốn ấy để lộ vấn đề căn bản của chatbot: Chúng là những con vẹt, được huấn luyện nhờ việc đổ vào một lượng dữ liệu khổng lồ thu thập được từ internet vào mô h́nh neural network. Lượng dữ liệu này có thể bao gồm toàn bộ thông tin trên Wikipedia, Reddit hay những mạng xă hội khác, cùng tin tức từ các trang nổi tiếng nữa.
Chúng vận hành hệt như chế độ auto complete trên điện thoại của anh em, cho phép dự đoán từ tiếp theo có thể được viết trong một câu. V́ quy mô của thuật toán, chatbot có thể tạo ra nguyên một câu hoàn chỉnh sau quá tŕnh tự học, thậm chí hàng đoạn văn dài cũng có thể làm được. Nhưng vấn đề cơ bản của chatbot là chúng phản hồi câu hỏi bằng những ǵ “có thể đúng” chứ không phải “thông tin chính xác.”
V́ sao lại như vậy?
Tác giả Toby Walsh của đại học New South Wales tại Sydney đưa ra một giả thuyết để giải thích cho sự mất trí của chatbot Sydney trong một số trường hợp. Xin phép nhắc lại đây chỉ là giả thuyết chưa được chứng minh.
Rất có thể, Sydney được xây dựng không phải nhờ mô h́nh ngôn ngữ GPT-3, thứ đă tạo ra ChatGPT, công cụ tương đối ổn định và ấn tượng về mặt kỹ thuật. Thay vào đó, Sydney được Microsoft ứng dụng luôn phiên bản thử nghiệm của mô h́nh ngôn ngữ GPT-4, phiên bản kế tiếp được OpenAI nghiên cứu.
Theo những nguồn tin không chính thức, GPT-4 có thể vận hành dựa trên 100 ngh́n tỷ tham số, c̣n con số này trên GPT-3 chỉ là khoảng 175 tỷ tham số. V́ thế, ở khía cạnh tích cực, GPT-4 mạnh hơn rất nhiều, hệt như lời quảng cáo nói Prometheus mạnh hơn ChatGPT của Microsoft. C̣n ở khía cạnh tiêu cực, nó thừa đủ khả năng tạo ra những nội dung mới, khiến người đọc nghĩ chatbot này có cảm xúc.
Điều bất ngờ là, Microsoft giờ vẫn chưa có những phản ứng có phần quan ngại về khả năng của Sydney. Họ công bố thông tin nói 71% người dùng thử Bing mới có kèm chatbot phản hồi trải nghiệm tích cực. Có vẻ như Microsoft coi 7 điểm là con số chấp nhận được cho bản thử nghiệm của chatbot.
Ấy vậy mà không như Google, chỉ 1 lỗi sai mà toi 100 tỷ USD giá trị vốn hóa, Microsoft vẫn chưa có dấu hiệu bị ảnh hưởng v́ những sự cố liên quan đến Sydney trong suốt thời gian qua.
Điều này mô tả chính bản thân thị trường. Google đă dẫn đầu ngành AI trong thời gian rất dài, có cả DeepMind tạo ra AI AlphaGo đánh bại kỳ thủ cờ vây. V́ thế người dùng cũng có kỳ vọng rất lớn với Google. C̣n Microsoft th́ kỳ vọng chỉ ở mức trung b́nh, phải rất khó mới có thể khiến thị trường thất vọng.
Thực tế th́, bất chấp vài trường hợp Sydney "hóa điên", Microsoft vẫn đang là tâm điểm của sự chú ư, mọi người vẫn sẵn sàng chờ đợi để đến lượt tự ḿnh trải nghiệm Bing kèm chatbot AI.
Khi trải nghiệm mới qua đi
Một yếu tố quan trọng hơn nhiều, đó là chatbot AI phải làm những ǵ để thuyết phục người dùng rằng thông tin nó đưa ra là chính xác. Nếu, cái nếu này khả năng rất cao sẽ xảy ra, chatbot t́m kiếm trực tuyến trở nên phổ biến, nhưng vẫn vận hành như cái cách hiện giờ Sydney hoạt động, “sự thật” bỗng nhiên sẽ trở thành một khái niệm thậm chí c̣n trừu tượng hơn cả bây giờ.
Giờ là cái thời điểm internet ngập tràn thông tin giả mạo, thuyết âm mưu và thông tin định hướng dư luận. Một cụm từ khóa t́m kiếm trên Google Search chí ít c̣n cho chúng ta tham chiếu và so sánh nguồn tin, c̣n chatbot th́ chưa chắc. Nếu chính công cụ t́m kiếm anh em tin tưởng vận hành không đáng tin cậy, th́ chuyện ǵ sẽ xảy ra?
Những người nhớ chuyện cũ liên tưởng Sydney giống hệt như Tay, một chatbot AI được Microsoft thử nghiệm hồi năm 2016 trên Twitter. Tay biến thành một con quái vật phân biệt chủng tộc đúng một ngày sau khi được ra mắt, và đó cũng là hệ quả của việc tổng hợp rồi huấn luyện thuật toán dựa trên dữ liệu có sẵn trên mạng internet. Như người Việt Nam nói là “cái hay cái ho không học”, Tay chỉ mất đúng một ngày để học hết những thứ đen tối nhất của loài người.
Công nghệ mới, trước tiên và quan trọng nhất là không được phép làm hại con người. Những mô h́nh ngôn ngữ tạo ra những chatbot AI có thể càng lúc càng phát triển, tham số dự đoán dựa trên nguồn dữ liệu khổng lồ. Nhưng điều đó không khiến những chatbot ấy phục vụ con người tốt hơn. Nếu không có những biện pháp và chế tài quản lư, th́ không rơ tương lai của chatbot sẽ ra sao.