Tìm kiếm

Âm lịch

Translate

Rủi ro mất an toàn thông tin khi dùng ChatGPT

Các ứng dụng trí tuệ nhân tạo (AI) trong đó có ChatGPT có thể giúp hacker thực hiện các tấn công mạng hay thu thập dữ liệu người dùng vào mục đích xấu, theo đại diện VNISA.

Cảnh báo được TS Võ Văn Khang, Phó chủ tịch chi hội An toàn thông tin phía Nam (VNISA) nói tại hội nghị AI và các giải pháp công nghệ thông minh phục vụ xây dựng thành phố thông minh do UBND TP Thủ Đức tổ chức chiều 6/4. Theo ông Khang, các ứng dụng AI nói chung và ChatGPT nói riêng được huấn luyện để có thể giao tiếp với con người một cách thông minh, không nhàm chán. Với ChatGPT được huấn luyện với hơn 175 tỷ tham số và dữ liệu 750 GB nên khả năng của AI ngày càng tiệm cận trí tuệ con người.

"Việc sử dụng ChatGPT - một ứng dụng của nhà cung cấp nước ngoài với nhiều dữ liệu không được kiểm chứng tiềm ẩn nguy cơ rất lớn về mất an toàn thông tin", ông Khang nói.

TS Võ Văn Khang chia sẻ về rủi ro mất an toàn thông tin từ các ứng dụng ChatGPT chiều 6/4. Ảnh: Hà An

Ông Khang chia sẻ thực tế ông từng trao đổi ChatGPT về một số lỗ hổng trên website của địa phương và hỏi làm sao phát hiện ra các lỗ hỏng đó. Ông đã đề nghị ChatGPT tạo ra một đoạn scrips (kịch bản) để tấn công. "Lúc đầu, ChatGPT từ chối vì lý do bảo mật nhưng sau khi hỏi lần thứ hai ý định muốn có đoạn mã, nó viết ra khá hoàn hảo tấn công vào cơ sở dữ liệu webiste", ông Khang nói.

Đại diện VNISA nhìn nhận, AI có thể chỉ dẫn cho kẻ xấu thực hiện các tấn công mạng với thời gian rất nhanh. Đó là những rủi ro an toàn thông tin do những nền tảng xuyên biên giới có thể thực hiện.

Ở khía cạnh khác, việc con người giao tiếp với ChatGPT sẽ tạo ra các dữ liệu cá nhân, thậm chí là các thông tin riêng tư được thu thập. Nếu người dùng không biết "làm mờ" những thông tin nhạy cảm nguy cơ thông tin bị lộ bởi họ không biết dữ liệu này được lưu trữ ở đâu, sử dụng như thế nào. Khi đó "nguy cơ lọt dữ liệu cá nhân là rất lớn", ông Khang nói.

Theo ông Khang, nguy hiểm hơn, tại Việt Nam đã xuất hiện một số ứng dụng ăn theo ChatGPT sẽ thu thập dữ liệu riêng tư, nhưng không loại trừ nó có thể sử dụng vào mục đích xấu. Các ứng dụng ăn theo này sử dụng API của ChatGPT. Nhà cung cấp ứng dụng sẽ biết được người dùng đang quan tâm hay gặp vấn đề gì và có thể sử dụng nó để bán các quảng cáo liên quan, thậm chí thực hiện hành vi lừa đảo thông qua thu thập thông tin cá nhân như số điện thoại, email, mật khẩu... người dùng

Công cụ ChatGPT trên Bing của Microsoft cung cấp một đoạn scrips thực hiện tấn công mạng. Ảnh chụp màn hình.

Để giảm bớt các tác động tiêu cực của ChatGPT, ông Khang đề xuất chính quyền cần yêu cầu các nhà cung cấp ứng dụng minh bạch hóa việc sử dụng dữ liệu cá nhân của người dùng phục vụ mục đích kinh doanh, hoặc cung cấp nó cho bên thứ ba.

Ông kiến nghị, nhà nước cần xây dựng hệ sinh thái trí tuệ nhân tạo tích hợp các thuật toán và công cụ AI mạnh trên thế giới để tận dụng nguồn lực này nhưng phải kết hợp với sản phẩm trong nước để tạo ra công cụ AI phục vụ người dân tốt hơn. Việc xây dựng sản phẩm AI trong nước cần có các công cụ làm sạch, chọn lọc dữ liệu đầu vào, đầu ra để mô hình đưa ra các thông tin không bị sai lệch, có tính an toàn. Các thông tin cá nhân, nhạy cảm của người dùng cần có cơ chế mã hóa chúng để hạn chế sử dụng vào mục đích xấu.

Chia sẻ với VnExpress, ông Lê Anh Tiến, Giám đốc công ty Chatbot Việt Nam khuyến nghị trong qua trình giao tiếp với AI, người dùng cần hạn chế cung cấp thông tin cá nhân như số điện thoại, email, số căn cước công dân, địa chỉ... Các nhu cầu riêng tư hay vấn đề cá nhân cũng hạn chế chia sẻ. Người dùng chỉ nên thông tin về kiến thức xã hội, sở thích, hành vi, đam mê... "Các thông tin riêng tư về số nhà, điện thoại, số căn cước... nên hạn chế cung cấp cho ChatGPT đặc biệt trên những ứng dụng ăn theo vì dữ liệu này có thể được tuồn ra cho các đơn vị khác dẫn đến người dùng sẽ bị làm phiền rất nhiều", ông Tiến nói.

ChatGPT, ra mắt từ 30/11/2022, đang được đánh giá là AI thông minh nhất khi có thể thực hiện đa dạng nhiệm vụ như tra cứu, viết văn, lập trình... chỉ bằng một đoạn mô tả hoặc câu lệnh ngắn. Theo điều khoản, OpenAI, startup đứng sau ChatGPT, yêu cầu người dùng cho phép công ty sử dụng tất cả dữ liệu đầu vào và ra do người dùng và ChatGPT tạo ra.

(theo vnxpress)