Doanh nghiệp cần cẩn trọng khi tích hợp các công cụ AI vào quy trình kinh doanh bởi hacker dễ dàng qua mặt chatbot AI và hướng dẫn chúng thực hiện các tác vụ độc hại.
Trung tâm An ninh mạng Quốc gia (NCSC) của Anh vừa cảnh báo nguy cơ về các vụ lừa đảo và đánh cắp dữ liệu từ việc ghi đè tập lệnh cho chatbot, thao túng câu lệnh thông qua các cuộc tấn công chèn lệnh.
Chatbot có thể bị tin tặc thao túng để gây ra những hậu quả đáng sợ trong thế giới thực. Điều này xảy ra khi người dùng nhập thông tin đầu vào hoặc câu lệnh được thiết kế để tạo ra một mô hình ngôn ngữ (LLM) - công nghệ đứng sau các chatbot - làm cho nó hoạt động theo cách không mong muốn. Chatbot hoạt động dựa trên trí tuệ nhân tạo (AI) có thể trả lời câu hỏi được nhập vào theo hình thức câu lệnh từ người dùng, theo The Guardian.
Theo NCSC, các cuộc tấn công lệnh có thể gây ra những hậu quả trên thực tế nếu hệ thống không được thiết kế bảo mật. Lỗ hổng bảo mật của chatbot và việc dễ dàng thao túng lời nhắc có thể gây ra các cuộc tấn công, lừa đảo và đánh cắp dữ liệu. LLM ngày càng được sử dụng nhiều hơn để truyền dữ liệu đến các ứng dụng và dịch vụ của bên thứ ba, đồng nghĩa với việc rủi ro từ việc chèn các câu lệnh độc hại sẽ tăng lên.
Trên toàn thế giới, chính phủ các nước cũng đang tìm cách quản lý sự trỗi dậy của các LLM như ChatGPT của OpenAI. Lo ngại về tính bảo mật của công nghệ mới cũng là trọng tâm chính sách khi Mỹ và Canada gần đây nói rằng họ đã phát hiện tin tặc tăng cường lợi dụng AI tạo sinh.
Tháng 7/2023, Trung tâm An ninh mạng Canada ghi nhận việc gia tăng sử dụng AI trong “lừa đảo qua email, nhúng mã độc, thông tin sai lệch và xuyên tạc”. Sami Khoury, Giám đốc trung tâm, không cung cấp bằng chứng chi tiết, song khẳng định giới tội phạm mạng đang tích cực lợi dụng công nghệ mới nổi này. Lãnh đạo này cũng cho biết, mặc dù việc sử dụng AI soạn thảo mã độc mới ở giai đoạn đầu, song mô hình AI đang phát triển quá nhanh dễ dẫn đến mức không thể kiểm soát những rủi ro độc hại của chúng.
Trước đó, tháng 3/2023, tổ chức Cảnh sát châu Âu Europol công bố báo cáo nói rằng ChatGPT có thể “mạo danh tổ chức, cá nhân theo cách rất thực tế ngay cả khi chỉ sử dụng tiếng Anh một cách cơ bản”. Cùng tháng, Trung tâm An ninh mạng quốc gia Anh nói rằng “LLM có thể được sử dụng để hỗ trợ các cuộc tấn công mạng”.