"Trước khi sử dụng ứng dụng, hãy cẩn thận với bot vì nó có thể chứa rủi ro gây hại đối với quyền riêng tư của bạn", chuyên gia công nghệ Muskaa Saxena cảnh báo trên Tech Radar. Bà giải thích rằng các cuộc trò chuyện ẩn danh có thể được xem xét nhằm cải thiện hệ thống.
Tuy nhiên, ẩn danh không phải sự lựa chọn để đảm bảo quyền riêng tư. "Ẩn danh không phải là biện pháp thích hợp để bảo vệ quyền riêng tư của người dùng vì dữ liệu ẩn danh vẫn có thể được xác định lại bằng cách kết hợp với các nguồn thông tin khác", ông Joey Stanford, Phó Chủ tịch Quyền riêng tư và Bảo mật tại Platform.sh, chia sẻ với TechNewsWorld.
"Tôi thấy rằng việc xóa bỏ ẩn danh thông tin tương đối dễ dàng, đặc biệt nếu thông tin vị trí được sử dụng", bà Jen Caltrider, nhà nghiên cứu chính của dự án Privacy Not Included thuộc Mozilla, giải thích.
"Về mặt công khai, OpenAI tuyên bố không thu thập dữ liệu vị trí nhưng chính sách bảo mật trong ChatGPT cho thấy công ty có thể thu thập dữ liệu đó", vị chuyên gia nói với TechNewsWorld. Tuy nhiên, OpenAI cho rằng thông tin của người dùng sẽ được sử dụng để đào tạo mô hình ngôn ngữ lớn. "Họ rất thành thật về mục đích đó. Họ không che giấu bất cứ điều gì", bà Caltrider nói thêm.
COI TRỌNG QUYỀN RIÊNG TƯ
Ông Caleb Withers, trợ lý nghiên cứu tại Trung tâm An ninh New America - một tổ chức tư vấn an ninh và quốc phòng quốc gia tại Washington, giải thích rằng nếu người dùng nhập tên, nơi làm việc và thông tin cá nhân khác vào truy vấn ChatGPT, dữ liệu đó sẽ không được ẩn danh.
Mặt khác, OpenAI đã tuyên bố rằng công ty rất coi trọng quyền riêng tư và thực hiện nhiều biện pháp để bảo vệ dữ liệu người dùng, ông Mark N. Vena, Chủ tịch kiêm nhà phân tích chính tại SmartTech Research, lưu ý. "Điều quan trọng là phải cẩn thận, xem xét sự cần thiết của việc chia sẻ thông tin nhạy cảm để đảm bảo rằng dữ liệu của bạn an toàn nhất có thể".
"Bảo vệ quyền riêng tư là trách nhiệm chung giữa người dùng và các công ty thu thập - sử dụng dữ liệu, quy định này thường xuất hiện trong các Thỏa thuận đăng ký ban đầu, chúng khá dài và người dùng thường không đọc", ông nói thêm.
BẢO VỆ TÍCH HỢP
Ông James McQuiggan, chuyên gia bảo mật tại Clearwater, lưu ý rằng người dùng ứng dụng AI thường vô tình nhập thông tin cá nhân như ngày sinh, số điện thoại, địa chỉ bưu chính và email vào các truy vấn. "Nếu hệ thống AI không được bảo mật đầy đủ, các thông tin đó có thể bị truy cập bởi bên thứ ba và sử dụng cho mục đích xấu như đánh cắp danh tính hoặc quảng cáo có chủ đích", ông nói.
Ông nhận định các ứng dụng AI cũng có thể tiết lộ thông tin nhạy cảm của người dùng thông qua nội dung học máy. Do đó, người dùng cần phải biết tự bảo vệ quyền riêng tư của chính mình.
Không giống như máy tính để bàn và máy tính xách tay, điện thoại di động có một số tính năng bảo mật tích hợp giúp hạn chế sự xâm phạm quyền riêng tư của các ứng dụng hiện có.
Tuy nhiên như ông McQuiggan chỉ ra, "Mặc dù các biện pháp chẳng hạn như quyền truy cập ứng dụng và cài đặt quyền riêng tư có thể cung cấp một số mức độ bảo vệ, nhưng không thể bảo vệ triệt để thông tin cá nhân của bạn khỏi những mối đe dọa".
Nhà phân tích Vena đồng ý rằng các biện pháp tích hợp như quyền truy cập ứng dụng, cài đặt quyền riêng tư và quy định cửa hàng ứng dụng cung cấp một số mức độ bảo vệ nhất định. "Nhưng chúng không đủ để giảm thiểu tất cả các mối đe dọa về quyền riêng tư", ông nhấn mạnh. "Các nhà phát triển ứng dụng và nhà sản xuất smartphone có cách tiếp cận khác nhau đối với quyền riêng tư và không phải tất cả các ứng dụng đều tuân thủ quy định".
Ngay cả hoạt động của OpenAI cũng trở nên khác nhau giữa hai phiên bản máy tính để bàn và điện thoại di động. "Nếu bạn đang sử dụng ChatGPT trên website, bạn có thể kiểm soát dữ liệu và chọn không sử dụng cuộc trò chuyện để cải thiện ChatGPT. Tuy nhiên, cài đặt đó không tồn tại trên iOS", bà Caltrider lưu ý.
THÔNG TIN VỀ QUYỀN RIÊNG TƯ TRÊN APP STORE
Chuyên gia Caltrider lưu ý thêm: "Trong Cửa hàng Google Play, bạn có thể kiểm tra và xem những quyền nào đang được áp dụng dành cho người dùng. Bạn không thể làm điều đó trên Apple App Store. Tuy nhiên, nghiên cứu mà chúng tôi đã thực hiện cho thấy thông tin an toàn trên Cửa hàng Google Play cũng không thực sự đáng tin cậy", bà tiếp tục, "Người dùng không nên tin tưởng vào thông tin an toàn dữ liệu mà họ tìm thấy trên các trang ứng dụng. Họ nên tự nghiên cứu nhận định nhưng quá trình này rất phức tạp".
"Các công ty cần phải trung thực hơn về những gì họ đang thu thập và chia sẻ", nữ chuyên gia nói thêm. "OpenAI đã trung thực về cách sử dụng dữ liệu thu thập để đào tạo ChatGPT, nhưng sau đó công ty nói rằng khi đã ẩn danh dữ liệu, hệ thống có thể sử dụng thông tin người dùng theo nhiều cách vượt ra ngoài tiêu chuẩn chính sách bảo mật".
Nghiên cứu từ Stanford lưu ý rằng Apple đã đưa ra một vài chính sách có thể giải quyết mối đe dọa về quyền riêng tư do các ứng dụng AI gây ra, bao gồm: yêu cầu sự đồng ý của người dùng khi thu thập và chia sẻ dữ liệu bởi các ứng dụng sử dụng công nghệ AI tổng hợp; cung cấp tính minh bạch và kiểm soát dữ liệu được sử dụng thông qua AppTracking, cho phép người dùng chọn không tham gia theo dõi ứng dụng; thực thi các tiêu chuẩn và quy định về quyền riêng tư cho nhà phát triển ứng dụng thông qua quy trình riêng của App Store và từ chối ứng dụng vi phạm.
Tuy nhiên, những biện pháp này dường như là không đủ để ngăn chặn các ứng dụng AI tạo ra nội dung không phù hợp, có hại hoặc gây hiểu lầm, ảnh hưởng đến quyền riêng tư và bảo mật của người dùng.
KÊU GỌI BỘ LUẬT QUYỀN RIÊNG TƯ AI
"Một số mô hình ngôn ngữ lớn đang được tạo ra và nhiều mô hình tối tân khác có khả năng xuất hiện trong tương lai gần", ông Hodan Omaar, nhà phân tích chính sách AI cao cấp tại Trung tâm Đổi mới Dữ liệu, cho hay. "Chúng ta cần có bộ luật bảo mật dữ liệu liên bang để đảm bảo tất cả các công ty tuân thủ quy định rõ ràng".
Bà Caltrider nói thêm: "Với sự phát triển và mở rộng nhanh chóng của trí tuệ nhân tạo, chắc chắn cần phải có cơ quan giám sát và các quy định chặt chẽ để bảo vệ người tiêu dùng".