Chính sách mới của Google khuyên người dùng không nên viết bất kỳ điều ǵ vào Gemini mà bạn cho rằng có thể khiến ai đó gặp rắc rối, hoặc chuyện bạn không muốn người khác biết.
Tài liệu mới của Google tiết lộ các cách mà công ty này thu thập dữ liệu người dùng từ ứng dụng chatbot Gemini, theo TechCrunch ngày 8/2. Theo đó, Google lưu ư rằng những người thật làm công việc chuyển giọng nói thành text sẽ định kỳ đọc, "dán nhăn" và xử lư các hội thoại giữa người dùng với Gemini để nâng cao chất lượng dịch vụ, chỉ trừ những hội thoại "không được kết nối" đến các account Google của người dùng.
TechCrunch lưu ư rằng Google không tiết lộ những người làm công việc trên là nhân viên Google hay được thuê ngoài, việc có thể gây ra nguy cơ an ninh.
Những hội thoại của người dùng được giữ lại đến 3 năm, cùng với "các dữ liệu liên quan" nhưng ngôn ngữ và thiết bị người dùng đă dùng, cùng với địa điểm của họ.
Google vừa cập nhật chính sách quyền riêng tư mới bên cạnh việc đổi tên chatbot AI Bard thành Gemini. Ảnh: Bloomberg.
Người dùng có một số lựa chọn để điều chỉnh các thông tin Gemini giữ lại. Tắt đi chức năng Gemini Apps Activity trên màn h́nh My Activity sẽ ngăn việc hội thoại bị lưu lại với account Google. Các ḍng lệnh và hội thoại với Gemini có thể được xoá khỏi màn h́nh Gemini Apps Activity. Dù vậy, Google nói rằng dù cho tính năng Gemini Apps Activity bị tắt, các cuộc hội thoại vẫn được lưu trong tài khoản Google thêm 72 giờ với lư do an ninh và cải thiện chất lượng.
"Đừng nhập vào bất kỳ thông tin mật nào trong các hội thoại, hoặc dữ liệu bạn không muốn reviewer nh́n thấy hay Google sử dụng để cải thiện sản phẩm, dịch vụ, công nghệ máy học của chúng tôi", Google cảnh báo.
Ngày 8/2, Google đổi tên chatbot Bard thành Gemini, phát hành ứng dụng Gemini cho Android và đưa tính năng trợ lư AI dành cho các ứng dụng văn pḥng của Google về dưới brand Gemini.
Chính sách thu thập dữ liệu của Google AI không khác nhiều với các đối thủ. Ví dụ, OpenAI lưu các đoạn chat 30 ngày, bất kể người dùng có tắt tính năng lịch sử chat hay không, trừ khi người dùng mua gói doanh nghiệp với chính sách dữ liệu riêng.
Dù vậy, chính sách của Google là ví dụ cho các thách thức trong việc cân bằng quyền riêng tư và việc phát triển mô h́nh generative AI dựa trên việc sử dụng thông tin người dùng để tự học. Các công ty công nghệ không ít lần xung đột với giới chức quản lư về việc này.
Hồi năm ngoái, FTC yêu cầu OpenAI cung cấp thông tin chi tiết về việc họ thu thập dữ liệu để dạy cho các mô h́nh AI như thế nào, bao gồm thông tin người dùng, cũng như việc làm sao bảo vệ thông tin đó với bên thứ ba. Tại Italy, Cơ quan Bảo vệ Dữ liệu Italy nó rằng OpenAI thiếu "nền tảng pháp lư" cho việc thu thập và lưu trữ dữ liệu quy mô lớn nhằm huấn luyện AI.
Khi các công cụ AI ngày càng phổ biến, các nhà quản lư lại lo ngại hơn về nguy cơ quyền riêng tư. Một thăm ḍ gần đây từ Cisco cho thấy 63% công ty đă đặt ra giới hạn cho nhân viên về việc thông tin nào có thể nhập vào các công cụ generative AI, trong khi 27% cấm hoàn toàn. Thăm ḍ cũng cho thấy 45% nhân viên từ nhập các thông tin "gây rắc rối" vào các công cụ generative AI, trong đó có thông tin nhân viên và các tài liệu không được công bố về công ty họ.
OpenAI, Microsoft, Amazon và Google đều cung cấp các sản phẩm nhắm đến doanh nghiệp bao gồm việc không giữ lại dữ liệu, dù để huấn luyện mô h́nh hay bất kỳ lư do khác. Những người dùng khác th́ ít được lựa chọn.
VietBF@sưu tập