HOME

24h

Shows

GOP

Phim Bộ

Phim-Online

News-Clips

Breaking
News Library Technology Giải Trí Portals Tin Sốt Home

Go Back   VietBF > Other News|Tin Khác > Computer News|Tin Vi Tính


Reply
 
Thread Tools
  #1  
Old  Default V́ đâu chatbot AI của Bing lại nhiều lần "mất trí" như vậy?
Cuộc đua biến đổi trải nghiệm t́m kiếm trực tuyến của người dùng đă bắt đầu. Microsoft vừa ghi điểm giúp họ dẫn trước Google. Nhưng cùng lúc, có lẽ Microsoft cũng đă tự ghi một bàn phản lưới nhà, khi Sydney, tên mă chatbot tích hợp trong Bing, dựa trên mô h́nh ngôn ngữ Prometheus, đă nhiều lần “hóa điên”.

Nhắc lại lợi ích của chatbot AI trong công cụ t́m kiếm. Giờ người dùng sẽ không cần gơ những cụm từ khóa vô hồn nữa, khi chatbot cho phép tương tác trực tiếp với những câu hỏi vô cùng tự nhiên của người dùng, và có thể trao đổi và tṛ chuyện với họ.



Điều này hứa hẹn đơn giản hóa quy tŕnh t́m kiếm trực tuyến. Không c̣n cái cảnh ṃ mẫm từng trang kết quả t́m kiếm để thấy thứ chúng ta cần, không cần phải xem kỹ kết quả đó là quảng cáo hay là kết quả tự nhiên, quá tŕnh đi t́m câu trả lời cho một câu hỏi của anh em sẽ trở nên dễ dàng hơn nhiều. Và dẫn đầu cuộc đua biến đổi t́m kiếm trực tuyến ấy hiện giờ chính là Microsoft với Sydney. Họ đă đầu tư 10 tỷ USD cho OpenAI để được độc quyền sử dụng chatbot dựa trên mô h́nh ngôn ngữ đơn vị này phát triển.

Vậy tại sao mọi thứ không như ư muốn của Microsoft?

AI của Bing "hóa điên"?

Đầu tháng 2 vừa rồi, Microsoft công bố việc tích hợp chatbot dựa trên mô h́nh ngôn ngữ GPT vào Bing, tạo ra “Sydney”. Chỉ sau 48 giờ, 1 triệu người tham gia waitlist để chờ đến lượt ḿnh tự trải nghiệm chatbot trong Bing. Google ngay lập tức có câu trả lời với sự kiện công bố chatbot tên là “Bard”. Nói công bằng, màn PR của Google là một thảm họa đúng nghĩa đen. Tại sự kiện, Bard đưa ra câu trả lời sai cho một câu hỏi. Hệ quả là giá trị vốn hóa của Alphabet bay 100 tỷ USD chỉ trong 1 ngày.

C̣n ở thời điểm đó, mọi thứ có vẻ đều ổn với Microsoft. Đấy là cho tới khi những người dùng đầu tiên được tṛ chuyện với Sydney kể lại trải nghiệm của họ.

Có những thời điểm, những câu chữ Sydney tạo ra có thể được mô tả bằng tính từ đơn giản, mất trí. Dĩ nhiên vẫn có phần lớn thời gian chatbot này vận hành ổn, nhưng rất dễ để “chạm nọc” AI này, khiến nó trưng ra bộ mặt khác hoàn toàn. Ví dụ, một giáo sư đại học quốc gia Australia bị AI dọa giết. Một nhà báo ở The New York Times th́ bị AI gạ bỏ vợ để cả hai “đến với nhau.” Một người dùng khác th́ nói từ ngữ của chatbot có tính thao túng tâm lư, thuyết phục người này tin rằng giờ vẫn là năm 2022.

Tất cả những sự cố ngoài ư muốn ấy để lộ vấn đề căn bản của chatbot: Chúng là những con vẹt, được huấn luyện nhờ việc đổ vào một lượng dữ liệu khổng lồ thu thập được từ internet vào mô h́nh neural network. Lượng dữ liệu này có thể bao gồm toàn bộ thông tin trên Wikipedia, Reddit hay những mạng xă hội khác, cùng tin tức từ các trang nổi tiếng nữa.

Chúng vận hành hệt như chế độ auto complete trên điện thoại của anh em, cho phép dự đoán từ tiếp theo có thể được viết trong một câu. V́ quy mô của thuật toán, chatbot có thể tạo ra nguyên một câu hoàn chỉnh sau quá tŕnh tự học, thậm chí hàng đoạn văn dài cũng có thể làm được. Nhưng vấn đề cơ bản của chatbot là chúng phản hồi câu hỏi bằng những ǵ “có thể đúng” chứ không phải “thông tin chính xác.”

V́ sao lại như vậy?

Tác giả Toby Walsh của đại học New South Wales tại Sydney đưa ra một giả thuyết để giải thích cho sự mất trí của chatbot Sydney trong một số trường hợp. Xin phép nhắc lại đây chỉ là giả thuyết chưa được chứng minh.

Rất có thể, Sydney được xây dựng không phải nhờ mô h́nh ngôn ngữ GPT-3, thứ đă tạo ra ChatGPT, công cụ tương đối ổn định và ấn tượng về mặt kỹ thuật. Thay vào đó, Sydney được Microsoft ứng dụng luôn phiên bản thử nghiệm của mô h́nh ngôn ngữ GPT-4, phiên bản kế tiếp được OpenAI nghiên cứu.

Theo những nguồn tin không chính thức, GPT-4 có thể vận hành dựa trên 100 ngh́n tỷ tham số, c̣n con số này trên GPT-3 chỉ là khoảng 175 tỷ tham số. V́ thế, ở khía cạnh tích cực, GPT-4 mạnh hơn rất nhiều, hệt như lời quảng cáo nói Prometheus mạnh hơn ChatGPT của Microsoft. C̣n ở khía cạnh tiêu cực, nó thừa đủ khả năng tạo ra những nội dung mới, khiến người đọc nghĩ chatbot này có cảm xúc.

Điều bất ngờ là, Microsoft giờ vẫn chưa có những phản ứng có phần quan ngại về khả năng của Sydney. Họ công bố thông tin nói 71% người dùng thử Bing mới có kèm chatbot phản hồi trải nghiệm tích cực. Có vẻ như Microsoft coi 7 điểm là con số chấp nhận được cho bản thử nghiệm của chatbot.

Ấy vậy mà không như Google, chỉ 1 lỗi sai mà toi 100 tỷ USD giá trị vốn hóa, Microsoft vẫn chưa có dấu hiệu bị ảnh hưởng v́ những sự cố liên quan đến Sydney trong suốt thời gian qua.

Điều này mô tả chính bản thân thị trường. Google đă dẫn đầu ngành AI trong thời gian rất dài, có cả DeepMind tạo ra AI AlphaGo đánh bại kỳ thủ cờ vây. V́ thế người dùng cũng có kỳ vọng rất lớn với Google. C̣n Microsoft th́ kỳ vọng chỉ ở mức trung b́nh, phải rất khó mới có thể khiến thị trường thất vọng.

Thực tế th́, bất chấp vài trường hợp Sydney "hóa điên", Microsoft vẫn đang là tâm điểm của sự chú ư, mọi người vẫn sẵn sàng chờ đợi để đến lượt tự ḿnh trải nghiệm Bing kèm chatbot AI.

Khi trải nghiệm mới qua đi

Một yếu tố quan trọng hơn nhiều, đó là chatbot AI phải làm những ǵ để thuyết phục người dùng rằng thông tin nó đưa ra là chính xác. Nếu, cái nếu này khả năng rất cao sẽ xảy ra, chatbot t́m kiếm trực tuyến trở nên phổ biến, nhưng vẫn vận hành như cái cách hiện giờ Sydney hoạt động, “sự thật” bỗng nhiên sẽ trở thành một khái niệm thậm chí c̣n trừu tượng hơn cả bây giờ.

Giờ là cái thời điểm internet ngập tràn thông tin giả mạo, thuyết âm mưu và thông tin định hướng dư luận. Một cụm từ khóa t́m kiếm trên Google Search chí ít c̣n cho chúng ta tham chiếu và so sánh nguồn tin, c̣n chatbot th́ chưa chắc. Nếu chính công cụ t́m kiếm anh em tin tưởng vận hành không đáng tin cậy, th́ chuyện ǵ sẽ xảy ra?

Những người nhớ chuyện cũ liên tưởng Sydney giống hệt như Tay, một chatbot AI được Microsoft thử nghiệm hồi năm 2016 trên Twitter. Tay biến thành một con quái vật phân biệt chủng tộc đúng một ngày sau khi được ra mắt, và đó cũng là hệ quả của việc tổng hợp rồi huấn luyện thuật toán dựa trên dữ liệu có sẵn trên mạng internet. Như người Việt Nam nói là “cái hay cái ho không học”, Tay chỉ mất đúng một ngày để học hết những thứ đen tối nhất của loài người.

Công nghệ mới, trước tiên và quan trọng nhất là không được phép làm hại con người. Những mô h́nh ngôn ngữ tạo ra những chatbot AI có thể càng lúc càng phát triển, tham số dự đoán dựa trên nguồn dữ liệu khổng lồ. Nhưng điều đó không khiến những chatbot ấy phục vụ con người tốt hơn. Nếu không có những biện pháp và chế tài quản lư, th́ không rơ tương lai của chatbot sẽ ra sao.
VIETBF Diễn Đàn Hay Nhất Của Người Việt Nam

HOT NEWS 24h

HOT 3 Days

NEWS 3 Days

HOT 7 Days

NEWS 7 Days

HOME

Breaking News

VietOversea

World News

Business News

Car News

Computer News

Game News

USA News

Mobile News

Music News

Movies News

History

Thơ Ca

Sport News

Stranger Stories

Comedy Stories

Cooking Chat

Nice Pictures

Fashion

School

Travelling

Funny Videos

Canada Tin Hay

USA Tin Hay


nguoiduatinabc
R10 Vô Địch Thiên Hạ
Release: 02-22-2023
Reputation: 21974


Profile:
Join Date: Apr 2016
Posts: 79,029
Last Update: None Rating: None
Attached Thumbnails
Click image for larger version

Name:	6336488_Cover_Bing.jpg
Views:	0
Size:	186.0 KB
ID:	2182177  
nguoiduatinabc_is_offline
Thanks: 168
Thanked 5,322 Times in 4,310 Posts
Mentioned: 4 Post(s)
Tagged: 0 Thread(s)
Quoted: 29 Post(s)
Rep Power: 90 nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7
nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7nguoiduatinabc Reputation Uy Tín Level 7
Reply

User Tag List


Phim Bộ Videos PC3

 
iPad Tablet Menu

HOME

Breaking News

VN News

VietOversea

World News

Business News

Other News

History

Car News

Computer News

Game News

USA News

Mobile News

Music News

Movies News

Sport News

DEM

GOP

Phim Bộ

Phim Lẻ

Ca Nhạc

Thơ Ca

Help Me

Sport Live

Stranger Stories

Comedy Stories

Cooking Chat

Nice Pictures

Fashion

School

Travelling

Funny Videos

NEWS 24h

HOT 3 Days

NEWS 3 Days

HOT 7 Days

NEWS 7 Days

HOT 30 Days

NEWS 30 Days

Member News

Tin Sôi Nổi Nhất 24h Qua

Tin Sôi Nổi Nhất 3 Ngày Qua

Tin Sôi Nổi Nhất 7 Ngày Qua

Tin Sôi Nổi Nhất 14 Ngày Qua

Tin Sôi Nổi Nhất 30 Ngày Qua
Diễn Đàn Người Việt Hải Ngoại. Tự do ngôn luận, an toàn và uy tín. V́ một tương lai tươi đẹp cho các thế hệ Việt Nam hăy ghé thăm chúng tôi, hăy tâm sự với chúng tôi mỗi ngày, mỗi giờ và mỗi giây phút có thể. VietBF.Com Xin cám ơn các bạn, chúc tất cả các bạn vui vẻ và gặp nhiều may mắn.
Welcome to Vietnamese American Community, Vietnamese European, Canadian, Australian Forum, Vietnamese Overseas Forum. Freedom of speech, safety and prestige. For a beautiful future for Vietnamese generations, please visit us, talk to us every day, every hour and every moment possible. VietBF.Com Thank you all and good luck.


All times are GMT. The time now is 21:23.
VietBF - Vietnamese Best Forum Copyright ©2005 - 2025
User Alert System provided by Advanced User Tagging (Pro) - vBulletin Mods & Addons Copyright © 2025 DragonByte Technologies Ltd.
Log Out Unregistered

Page generated in 0.06300 seconds with 14 queries