Tấn công AI bằng AI: Phương pháp Fun-Tuning đe dọa bảo mật của các mô hình ngôn ngữ

14:33 24/04/2025

3 phút đọc

Trong thời đại trí tuệ nhân tạo phát triển mạnh mẽ, các hệ thống AI không chỉ là công cụ hỗ trợ con người mà còn trở thành mục tiêu của chính các cuộc tấn công sử dụng AI.

Tấn công AI bằng AI: Phương pháp Fun-Tuning đe dọa bảo mật của các mô hình ngôn ngữ - Techlade

Một nghiên cứu mới đây đã chứng minh rằng hacker có thể khai thác các lỗ hổng trong mô hình AI bằng chính trí tuệ nhân tạo, đặc biệt là thông qua kỹ thuật tấn công mang tên Fun-Tuning.

Fun-Tuning: Biến tấn công prompt injection thành vũ khí nguy hiểm hơn

Tấn công prompt injection từ lâu đã là phương pháp phổ biến để khai thác các lỗ hổng của mô hình ngôn ngữ lớn (LLM). Kẻ tấn công có thể chèn các hướng dẫn độc hại vào nội dung mà AI xử lý, chẳng hạn như bình luận trong mã nguồn hoặc văn bản ẩn trên trang web, từ đó khiến AI phá vỡ quy tắc ban đầu, rò rỉ thông tin nhạy cảm hoặc đưa ra kết quả sai lệch.

Trước đây, cách tấn công này thường yêu cầu nhiều lần thử nghiệm thủ công để tìm ra phương thức hoạt động hiệu quả, đặc biệt là với các mô hình đóng như GPT-4 hay Gemini của Google. Tuy nhiên, Fun-Tuning đã thay đổi hoàn toàn cuộc chơi.

Nhóm nghiên cứu từ một số trường đại học đã tìm ra cách lợi dụng API tinh chỉnh mô hình (fine-tuning) của chính Google để tự động hóa quá trình tấn công. Phương pháp này xác định các tiền tố (prefix) và hậu tố (suffix) tối ưu để bao quanh prompt độc hại, giúp tăng đáng kể tỷ lệ thành công. Trong thử nghiệm, Fun-Tuning đạt tỷ lệ tấn công thành công lên tới 82% đối với một số mô hình của Gemini, so với mức dưới 30% của các phương pháp truyền thống.

Mối đe dọa lớn đối với các hệ thống AI hiện đại

Điều đáng lo ngại hơn là các cuộc tấn công sử dụng Fun-Tuning có thể dễ dàng chuyển đổi giữa các phiên bản khác nhau của cùng một mô hình. Điều này có nghĩa là một cuộc tấn công thành công trên Gemini có thể được triển khai trên nhiều nền tảng khác nhau mà không cần điều chỉnh quá nhiều.

Thậm chí, chi phí thực hiện phương pháp này còn rất thấp. Do Google cung cấp API fine-tuning miễn phí, hacker chỉ cần khoảng 10 USD (tương đương 250.000 VNĐ) chi phí tính toán để khởi động một cuộc tấn công quy mô lớn.

Bảo vệ AI trước các cuộc tấn công tinh vi

Sự xuất hiện của Fun-Tuning đặt ra câu hỏi lớn về an toàn bảo mật trong lĩnh vực AI. Các nhà phát triển sẽ cần phải nâng cao khả năng phát hiện và ngăn chặn prompt injection một cách hiệu quả hơn, đồng thời kiểm soát chặt chẽ việc tinh chỉnh mô hình để tránh bị khai thác.

Dù AI mang đến nhiều cơ hội mới, nhưng nó cũng đồng thời trở thành con dao hai lưỡi nếu không được bảo vệ đúng cách. Cuộc chiến giữa hacker và các hệ thống AI giờ đây không còn là chuyện viễn tưởng mà đã trở thành thực tế, đòi hỏi các giải pháp bảo mật phải phát triển nhanh chóng để theo kịp các mối đe dọa ngày càng tinh vi.

Chia sẻ bài viết:

Từ khoá:

Tin tài trợ

Nhận xét (0)

Bài viết liên quan

ĐĂNG KÝ NHẬN TIN

NGAY HÔM NAY

Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.

    Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.