Một người dùng ChatGPT phát hiện lịch sử chat có nhiều đoạn tṛ chuyện kỳ lạ, thậm chí chứa cả thông tin riêng tư.
"Tôi thực hiện một truy vấn về việc chọn tên cho bảng màu mới mà tôi vừa nghĩ ra. Khi tôi mở lại vào sáng hôm sau, ChatGPT hiển thị thêm đoạn chat về một đề xuất nghiên cứu chưa xuất bản và một tập lệnh sử dụng ngôn ngữ lập tŕnh PHP", người dùng Chase Whiteside nói với ArsTechnica.
Logo ChatGPT hiển thị trên màn h́nh điện thoại. Ảnh: AFP
Theo Whiteside, nội dung dường như không liên quan đến nhau. Bên cạnh đó, những thông tin riêng tư, như tên đăng nhập và mật khẩu của ai đó, cũng xuất hiện dù không hiển thị trực tiếp trên nội dung đang trao đổi với chatbot mà nằm ở phần lịch sử truy vấn. Chúng dường như được kết nối với hệ thống chatbot hỗ trợ, được nhân viên tư vấn ở một cửa hàng bán thuốc theo toa sử dụng.
Whiteside cho biết ḿnh đăng kư bản trả phí ChatGPT 4 mới nhất, vẫn sử dụng thường xuyên và chưa bao giờ t́m kiếm những thông tin kể trên. Anh cũng nghi ngờ tài khoản bị xâm phạm, v́ anh sống ở Brooklyn, New York, nhưng tài khoản dường như đă thực hiện một số truy vấn ở nơi khác. "Với những ǵ tôi thấy, tài khoản của tôi đă bị chiếm đoạt, đăng nhập và thực hiện hành động trái phép", Whiteside nói. "Tôi thấy bị sốc. Thật khủng khiếp".
"Từ những ǵ phát hiện được, chúng tôi coi đây là hành vi chiếm đoạt tài khoản. Ai đó đă sử dụng máy chủ proxy để phân phối quyền truy cập miễn phí", đại diện OpenAI giải thích sau đó. "Điều tra ban đầu cho thấy các cuộc tṛ chuyện được tạo ra gần đây từ Sri Lanka, diễn ra trong cùng khung thời gian với các lần đăng nhập thành công từ Sri Lanka".
Trong khi đó, Whiteside khẳng định đă đặt mật khẩu mạnh với 9 kư tự, gồm chữ hoa, chữ thường và kư tự đặc biệt. Người này cũng cho biết không sử dụng nó ở bất kỳ nơi nào khác ngoài tài khoản liên kết với Microsoft.
Lời giải thích của OpenAI bộc lộ nguy cơ khi nền tảng không cung cấp cơ chế bảo vệ tài khoản đủ mạnh cho người dùng, như dùng xác thực hai lớp (2FA) hoặc theo dơi các chi tiết như vị trí IP trong lần đăng nhập gần đây - biện pháp đă trở thành tiêu chuẩn trên hầu hết nền tảng hàng đầu trong nhiều năm.
Theo Business Insider, đây không phải là lần đầu ChatGPT hiển thị nội dung lạ. Tháng 3 năm ngoái, OpenAI từng phải ngừng cung cấp chatbot trong thời gian ngắn sau khi một lỗi khiến website hiển thị lịch sử tṛ chuyện của những người dùng không liên quan.
Vào tháng 11/2023, nhóm nghiên cứu từ Google DeepMind, Đại học Cornell, Đại học Washington, UC Berkeley (Mỹ) và Đại học Zurich (Thụy Sĩ) phát hiện bằng một số phương pháp, người dùng có thể khiến ChatGPT đưa ra email, số điện thoại, số fax, địa chỉ và dữ liệu riêng tư của một người bất kỳ nếu nó có sẵn trong cơ sở dữ liệu của chatbot.
Từ năm ngoái, một số công ty, trong đó có Apple, đă hạn chế nhân viên sử dụng ChatGPT và chatbot tương tự v́ lo ngại chúng có thể gây ṛ rỉ dữ liệu độc quyền hoặc bí mật của doanh nghiệp.
"Nguyên nhân cốt lơi của các sự cố hệ thống dạng này có thể khác nhau, nhưng chúng thường liên quan đến cái gọi là Middlebox - 'chiếc hộp' lưu trữ tạm thời các dữ liệu nhất định để tăng hiệu suất tổng thể của chatbot, gồm thông tin xác thực của người dùng đă đăng nhập gần đây. Nhưng khi xảy ra lỗi không khớp thông tin, dữ liệu xác thực của một tài khoản có thể bị ánh xạ tới một tài khoản khác", một chuyên gia bảo mật giải thích với ArsTechnica.