Tin công nghệ

5 điều không nên chia sẻ với ChatGPT

Các ứng dụng trò chuyện bằng AI chư ChatGPT có nhiều ưu điểm, nhưng các chuyên gia cho rằng người dùng chỉ nên coi chúng như “người lạ”.

ChatGPT, Google Bard, Bing Chat gây sốt thời gian qua với khả năng tương tác tự nhiên, hỗ trợ tổng hợp thông tin, thực hiện tốt một số tác vụ thường ngày. Tuy nhiên, theo BGR, người dùng không nên cung cấp thông tin cá nhân, dữ liệu nhạy cảm, bí mật công việc với AI vì bất kỳ thứ gì được đưa lên Internet đều có thể bị sử dụng để huấn luyện trí tuệ nhân tạo mà người dùng không hay biết.





Giao diện ChatGPT trên điện thoại iPhone. Ảnh: Kaspars Grinvalds

Giao diện ChatGPT trên điện thoại iPhone. Ảnh: Kaspars Grinvalds

Thông tin cá nhân dùng để định danh

Tất cả thông tin cá nhân liên quan trực tiếp đến mỗi người như họ tên, địa chỉ, sinh nhật, số định danh cá nhân (hay số an sinh xã hội ở một số quốc gia) đều phải được bảo vệ nghiêm ngặt và không nên chia sẻ với ChatGPT hay chatbot khác. OpenAI phát triển ChatGPT nhiều tháng trước khi tích hợp tính năng bảo mật để ngăn các câu lệnh khai thác dữ liệu nhạy cảm. Điều này cho thấy không thể đảm bảo dữ liệu định danh của người dùng sẽ an toàn sau khi cung cấp cho AI.

Những công ty như OpenAI có thể không tận dụng dữ liệu người dùng, nhưng rắc rối nằm ở việc thông tin định danh được dùng cho quá trình huấn luyện một cách tự động. Tin tặc từng tấn công vào OpenAI, gây rò rỉ dữ liệu vào tháng 5. Những sự cố như vậy tiềm ẩn rủi ro thông tin của người dùng lọt vào tay kẻ xấu, và bị sử dụng cho mục đích bất hợp pháp.

Bí mật công việc

Khi ChatGPT mới bùng nổ, một số nhân viên tại Samsung đã tải mã lập trình lên chatbot này. Các thông tin bí mật đó được lưu trữ trên máy chủ của OpenAI. Sự vụ vỡ lở khiến Samsung phải ban hành lệnh cấm toàn bộ nhân viên sử dụng AI tạo sinh trong công việc. Một số công ty khác cũng có động thái tương tự, trong đó có Apple và Google, dù hai hãng đang phát triển sản phẩm tương tự ChatGPT.

Thông tin y tế

Thông tin y tế không thực sự quá quan trọng, nhưng lại phức tạp, do đó người dùng cũng không nên chia sẻ dữ liệu này với các chatbot. Để tham khảo về vấn đề sức khỏe đang gặp phải, hãy bắt đầu câu hỏi bằng “Nếu như”, giống như một người bình thường đang tra cứu triệu chứng bệnh. Hiện ChatGPT chưa đủ sức tự chẩn đoán bệnh tình, nhưng trong tương lai điều này có thể thay đổi.

Ngoài ra, người dùng cũng không nên tin tưởng vào lời khuyên của chatbot và nên gặp những người có chuyên môn. ChatGPT, Bard, Bing Chat hay bất kỳ mô hình ngôn ngữ lớn nào đều có thể đưa ra thông tin sai lệnh, chưa kiểm chứng. Người dùng chỉ nên xem đây là công cụ mang tính chất tham khảo.

Tên tài khoản và mật khẩu

Thứ tin tặc mong muốn nhất trong mỗi vụ rò rỉ dữ liệu là thông tin đăng nhập gồm tên tài khoản, mật khẩu. Nếu người dùng tạo tài khoản giống hệt nhau trên các ứng dụng, dịch vụ khác nhau, hacker sẽ có được thứ chúng muốn để xâm nhập vào dịch vụ như ngân hàng, email, tài khoản doanh nghiệp.

Thông tin tài chính

Không có lý do gì để người dùng nhập thông tin tài khoản ngân hàng vào ChatGPT hay công cụ AI tạo sinh khác. OpenAI không đòi hỏi chi tiết về số thẻ tín dụng, số dư tài khoản của người dùng và ChatGPT cũng không dùng dữ liệu này cho mục đích nào. Mọi thông tin liên quan đến vấn đề tài chính đều là nhạy cảm, tương tự dữ liệu định danh cá nhân.

Trong trường hợp có ứng dụng tự nhận liên quan đến ChatGPT và yêu cầu thông tin tài chính, đây nhiều khả năng là phần mềm giả mạo, lừa đảo. Người dùng cần lập tức xóa phần mềm đó.


Hoài Anh

Cho xem nhiều hơn

Những bài viết liên quan

0 0 đánh giá
Đánh giá bài viết
Theo dõi
Thông báo của
guest

Website này sử dụng Akismet để hạn chế spam. Tìm hiểu bình luận của bạn được duyệt như thế nào.

0 Góp ý
Phản hồi nội tuyến
Xem tất cả bình luận
Back to top button
0
Rất thích suy nghĩ của bạn, hãy bình luận.x

Adblock Detected

Vui lòng vô hiệu hóa chương trình chặn quảng cáo trước khi xem trang web TAMHOANG.NET!

Please disable ad blocking program before viewing TAMHOANG.NET website!