Thứ 4, 18/03/2026 | English | Vietnamese
11:07:00 AM GMT+7Thứ 4, 06/08/2025
ChatGPT đang là công cụ AI phổ biến nhất thế giới, hỗ trợ người dùng trong nhiều lĩnh vực từ học tập, công việc cho tới giải trí. Tuy nhiên, đằng sau sự tiện lợi ấy là hàng loạt rủi ro về bảo mật, quyền riêng tư và tính chính xác của thông tin. Mới đây, việc hàng nghìn cuộc trò chuyện riêng tư giữa người dùng và ChatGPT vô tình xuất hiện trên Google đã gióng lên hồi chuông cảnh báo, đồng thời cho thấy có những tình huống tuyệt đối không nên sử dụng công cụ này.
Mới đây, nhiều người dùng Internet đã bất ngờ phát hiện các đoạn trò chuyện riêng tư của mình với ChatGPT bị lập chỉ mục và xuất hiện công khai trên Google chỉ với vài thao tác tìm kiếm.
Nguyên nhân của vụ việc xuất phát từ tính năng tạo liên kết chia sẻ mà ChatGPT cung cấp, cho phép tạo URL riêng để gửi cho người khác.
Theo nguyên tắc được công bố với người dùng, các liên kết sẽ chỉ hiển thị với người có đường dẫn. Tuy nhiên, nếu người dùng đăng tải công khai trên mạng xã hội, website hoặc đánh dấu tùy chọn “Make this chat discoverable” (Cho phép tìm kiếm), Google và các công cụ tìm kiếm khác sẽ dễ dàng thu thập dữ liệu này.
Mặc dù OpenAI đã cảnh báo không đưa thông tin nhạy cảm vào liên kết chia sẻ, song, nhiều người vẫn vô tình để lộ các dữ liệu cá nhân như thông tin liên lạc, địa chỉ nhà, hồ sơ công việc.. tới đáng cảnh báo hơn là những nội dung tâm sự riêng tư.
Một số trường hợp thông tin bị rò rỉ thậm chí cho thấy mức độ nguy hiểm: có người để lộ toàn bộ lý lịch, số điện thoại, email; có người trao đổi về các giao dịch đáng ngờ; thậm chí có nội dung liên quan tới công việc của người làm trong ngành người lớn.
Trước tình trạng trên, các chuyên gia từ Cybernews lên tiếng cảnh báo, thông tin này có thể bị khai thác để quấy rối, bán hoặc công khai thông tin cá nhân trên mạng, trường hợp xấu hơn là tấn công mạng.
ChatGPT được OpenAI ra mắt lần đầu vào 30/11/2022, dựa trên nền tảng mô hình ngôn ngữ GPT. Với sứ mệnh giúp mọi người tương tác với trí tuệ nhân tạo một cách tự nhiên như giao tiếp với con người, từ đó hỗ trợ học tập, sáng tạo nội dung, giải quyết vấn đề và làm việc hiệu quả hơn.
Công cụ này đã nhanh chóng đạt được số lượng người dùng kỷ lục trên toàn thế giới chỉ sau thời gian ra mắt ngắn ngủi. Tuy nhiên, việc ngày càng nhiều người dùng phụ thuộc vào công cụ này cũng đặt ra nhiều nghi vấn về độ tin cậy và chính xác của các thông tin được đưa ra.
Ngoài rủi ro bảo mật như trong sự cố vừa rồi, ChatGPT còn tồn tại những hạn chế cố hữu. Ứng dụng này đôi khi “bịa” thông tin nhưng trình bày như sự thật, dữ liệu có thể lỗi thời, thậm chí là sai hoàn toàn.
Đặc biệt với các vấn đề tài chính, pháp lý hoặc y tế, việc sử dụng AI thiếu kiểm soát có thể dẫn đến hậu quả nghiêm trọng.
Sau sự số, trang tin Cnet và các chuyên gia đã đưa ra cảnh báo về 11 tình huống người dùng nên tránh dùng ChatGPT, Cụ thể:
1. Chẩn đoán bệnh lý thể chất: ChatGPT không thể thực hiện khám lâm sàng, xét nghiệm hay chẩn đoán dựa trên các yếu tố y khoa đầy đủ. Việc chỉ dựa vào mô tả triệu chứng qua văn bản có thể dẫn đến suy diễn sai, khiến người dùng lo lắng thái quá hoặc hiểu nhầm tình trạng bệnh, từ đó bỏ qua cơ hội thăm khám và điều trị kịp thời với bác sĩ.
2. Chăm sóc sức khỏe tinh thần: AI có thể đưa ra những gợi ý chung về thư giãn hoặc tự chăm sóc, nhưng không thể thay thế một nhà trị liệu được đào tạo. ChatGPT thiếu khả năng đồng cảm thực sự, không đọc được ngôn ngữ cơ thể, và có nguy cơ bỏ sót các dấu hiệu cảnh báo nghiêm trọng như ý định tự tử hoặc rối loạn tâm lý nặng, từ đó gây hậu quả nguy hiểm cho người sử dụng.
3. Ra quyết định an toàn khẩn cấp: Trong các tình huống khẩn cấp như rò rỉ khí độc, hỏa hoạn hoặc tai nạn, ChatGPT không thể cảm nhận môi trường, triển khai hành động cứu trợ, hay đưa ra hướng dẫn phản ứng tức thì. Việc chờ phản hồi từ AI trong những thời điểm này đồng nghĩa với việc đánh mất thời gian vàng để bảo toàn tính mạng.
4. Lập kế hoạch tài chính hoặc thuế cá nhân: Các thông tin tài chính, thuế mà ChatGPT cung cấp có thể đã lỗi thời hoặc không phù hợp với tình hình cá nhân cụ thể, vì AI không nắm được đầy đủ dữ liệu về thu nhập, nghĩa vụ thuế hay mục tiêu đầu tư của từng người. Thêm vào đó, việc nhập thông tin như số tài khoản, thu nhập hay mã số thuế vào ChatGPT tiềm ẩn nguy cơ rò rỉ dữ liệu nhạy cảm.
5. Xử lý dữ liệu mật hoặc thuộc diện quản lý: Hợp đồng thương mại, hồ sơ y tế, giấy tờ tùy thân hoặc thông tin bảo mật khi đưa vào ChatGPT sẽ nằm trên máy chủ của bên thứ ba, vượt ngoài tầm kiểm soát của người dùng. Điều này tạo ra rủi ro về vi phạm luật bảo mật, mất quyền sở hữu dữ liệu hoặc bị lợi dụng bởi các tác nhân xấu.
6. Thực hiện hành vi bất hợp pháp: Việc sử dụng ChatGPT để tạo, hỗ trợ hay che giấu hoạt động vi phạm pháp luật là không phù hợp và có thể khiến người dùng chịu trách nhiệm hình sự.
7. Gian lận học tập: Dùng ChatGPT để làm hộ bài hoặc thi hộ không chỉ vi phạm quy chế đào tạo mà còn dễ bị phát hiện bởi các hệ thống nhận diện nội dung AI ngày càng chính xác. Hậu quả có thể là bị cảnh cáo, đình chỉ, thậm chí thu hồi bằng cấp.
8. Theo dõi tin nóng liên tục: ChatGPT có thể truy cập thông tin mới nhưng không thể tự động cập nhật liên tục theo thời gian thực. Với các sự kiện yêu cầu tốc độ và độ chính xác tức thì, người dùng nên dựa vào các kênh thông tin trực tiếp, thông cáo báo chí hoặc nguồn tin chính thống.
9. Cá cược: ChatGPT không thể dự đoán kết quả tương lai và có thể cung cấp số liệu thể thao sai lệch hoặc lỗi thời. Việc dựa vào AI để đặt cược sẽ khiến người dùng dễ gặp rủi ro tài chính.
10. Soạn di chúc hoặc hợp đồng pháp lý ràng buộc: Văn bản pháp lý do AI tạo ra có thể thiếu các điều khoản hoặc hình thức bắt buộc theo quy định của từng địa phương, dẫn đến nguy cơ tài liệu bị vô hiệu hóa khi ra tòa. Công việc này cần được thực hiện và kiểm chứng bởi luật sư.
11. Sáng tạo nghệ thuật: AI nên được coi là công cụ hỗ trợ gợi ý ý tưởng hoặc phác thảo, thay vì thay thế toàn bộ quá trình sáng tạo của con người. Lạm dụng AI trong nghệ thuật không chỉ làm giảm giá trị sáng tạo cá nhân mà còn gây tranh cãi về tính nguyên bản và quyền tác giả.
Vụ việc hàng loạt cuộc trò chuyện riêng tư bị tìm thấy trên Google cho thấy, người dùng cần thận trọng hơn khi sử dụng AI, đặc biệt là các tính năng chia sẻ trực tuyến. Với bất kỳ dữ liệu nào mang tính cá nhân hoặc bảo mật, nguyên tắc an toàn là không nhập vào ChatGPT nếu không muốn chúng có nguy cơ xuất hiện công khai.
AI có thể là trợ thủ đắc lực, nhưng cũng có thể trở thành lỗ hổng an toàn thông tin nếu người dùng thiếu cảnh giác. Trong bối cảnh công nghệ phát triển nhanh, việc hiểu rõ giới hạn và rủi ro của các công cụ như ChatGPT là bước cần thiết để tận dụng sức mạnh của chúng một cách an toàn và hiệu quả.
Website nội bộ của VCCI
Liên kết nhanh
Bản quyền bởi Liên đoàn Thương mại và Công nghiệp Việt Nam - VCCI
Tòa VCCI, Số 9 Đào Duy Anh, Kim Liên, Hà Nội, Việt Nam
Giấy phép xuất bản số 190/GP-TTĐT cấp ngày 27/10/2023
Người chịu trách nhiệm chính: Ông Hoàng Quang Phòng, Phó Chủ tịch VCCI
| Quản lý và vận hành: Trung tâm Truyền thông và Thông tin Kinh tế - VCCI | ||
| Văn Phòng - Lễ tân: | Phụ trách website: | Liên hệ quảng cáo: |
| 📞 + 84-24-35742022 | 📞 + 84-24-35743084 | 📞 + 84-24-35743084 |
| + 84-24-35742020 | vcci@vcci.com.vn | |
Truy cập phiên bản website cũ. Thiết kế và phát triển bởi ADT Global