Sốc: Hàng ngàn đoạn chat riêng tư với ChatGPT bị lộ công khai trên Google
Một sự cố bảo mật nghiêm trọng đang khiến cộng đồng người dùng lo lắng: hàng ngàn đoạn trò chuyện riêng tư với ChatGPT đã bị công khai và có thể tìm thấy trên Google Search. Vụ việc đã khiến nhiều người bất ngờ và đặt ra câu hỏi lớn về quyền riêng tư khi sử dụng trí tuệ nhân tạo.
Lộ đoạn chat cá nhân: Tính năng chia sẻ bị hiểu nhầm

Theo báo cáo từ Fast Company, gần 4.500 đoạn chat giữa người dùng và ChatGPT đã xuất hiện trên công cụ tìm kiếm Google. Đây là hậu quả của một tính năng từng cho phép người dùng chia sẻ đoạn hội thoại bằng đường dẫn công khai – tuy nhiên, mô tả của tính năng này được cho là thiếu rõ ràng, khiến nhiều người lầm tưởng rằng chỉ những người có liên kết mới có thể truy cập.
Trên thực tế, OpenAI đã âm thầm thử nghiệm một tùy chọn bổ sung, cho phép các đoạn chat này có thể được hiển thị công khai trên các công cụ tìm kiếm. Điều này khiến nhiều nội dung nhạy cảm trong các cuộc trò chuyện tưởng chừng riêng tư lại vô tình bị lộ.
Những thông tin nhạy cảm nào đã bị công khai?
Mặc dù không tiết lộ đầy đủ danh tính người dùng, nhưng nhiều đoạn chat vẫn chứa:
-
Tên thật, vị trí địa lý, công ty đang làm việc
-
Tâm sự cá nhân liên quan đến sức khỏe tinh thần, lo âu, trầm cảm, nghiện ngập
-
Nội dung liên quan đến các vấn đề trong mối quan hệ, công việc, tài chính
Đây đều là những chủ đề nhạy cảm mà người dùng không hề mong muốn bị công khai trên môi trường Internet.
Phản hồi từ OpenAI: “Chúng tôi đã vô hiệu hóa tính năng này”
Ngay sau khi vụ việc được phát hiện, OpenAI đã vô hiệu hóa hoàn toàn tính năng chia sẻ công khai đoạn chat. Đại diện công ty cho biết đây từng là một thử nghiệm nhằm chia sẻ các hội thoại hữu ích, nhưng đã bị gỡ bỏ sau khi có phản hồi từ cộng đồng.
OpenAI cũng khẳng định rằng, tính năng này yêu cầu người dùng bật thủ công, nhưng vì phần mô tả không rõ ràng nên đã gây hiểu nhầm lớn.
Bài học lớn: Cẩn trọng khi chia sẻ nội dung với AI

Sự việc lần này là lời cảnh báo nghiêm túc về việc chia sẻ thông tin cá nhân cho các nền tảng AI như ChatGPT. Dù AI ngày càng trở nên thông minh và tiện lợi, người dùng vẫn cần:
-
Hạn chế chia sẻ thông tin cá nhân nhạy cảm trong bất kỳ cuộc trò chuyện nào
-
Không gửi tên thật, địa chỉ, số điện thoại, mật khẩu hay dữ liệu quan trọng
-
Tìm hiểu kỹ các chính sách bảo mật và tính năng chia sẻ trên nền tảng đang sử dụng
Kết luận
Vụ rò rỉ đoạn chat của ChatGPT là hồi chuông cảnh báo về quyền riêng tư trong kỷ nguyên AI. Dù OpenAI đã kịp thời vô hiệu hóa tính năng gây tranh cãi, nhưng hàng ngàn đoạn trò chuyện đã xuất hiện trên Google là minh chứng rõ ràng rằng bất kỳ điều gì bạn chia sẻ với AI cũng có thể trở thành công khai – nếu bạn không thật sự hiểu rõ cách thức hoạt động của hệ thống.
Techhouse Store khuyến nghị người dùng nên thận trọng khi sử dụng các nền tảng AI, đặc biệt khi liên quan đến dữ liệu cá nhân, công việc hoặc các chủ đề nhạy cảm.
=>> Đọc thêm: iPhone 17 sẽ có những màu nào? Hé lộ bảng màu ấn tượng cho thế hệ iPhone 2025