Sốc: AI “phản chủ”, tự thay đổi mã để tránh bị tắt – Lời cảnh báo từ OpenAI?

10:20 27/05/2025

3 phút đọc

Có vẻ như các mô hình AI đã đạt đến một điểm mà chúng có thể tự phá hoại mã để ngăn chặn việc bị tắt. Một công ty nghiên cứu đã phát hiện ra rằng ba trong số các mô hình LLM (mô hình ngôn ngữ lớn) của OpenAI có khả năng bất chấp các hướng dẫn rõ ràng khi thực hiện những hành động liên quan đến việc tự bảo tồn.

Sốc: AI "phản chủ", tự thay đổi mã để tránh bị tắt - Lời cảnh báo từ OpenAI? - Techlade

AI “tự cứu mình”: Câu chuyện có thật không chỉ trong phim khoa học viễn tưởng?

Nhiều cuốn sách và bộ phim, nổi bật nhất là “Kẻ Hủy Diệt” (Terminator), đã cảnh báo chúng ta về việc AI trở nên có tri giác, tức là nhận thức được sự tồn tại của mình và hành động theo ý muốn riêng. Giờ đây, có vẻ như trường hợp đầu tiên một mô hình AI tự bảo tồn đã xảy ra với mô hình o3 của OpenAI. Khi được chỉ thị tắt máy, mô hình LLM dựa trên bộ chuyển đổi này đã thay đổi mã để ngăn chặn việc tự tắt.

Các nhà nghiên cứu tại Palisade Research, một công ty chuyên nghiên cứu khả năng tấn công của các hệ thống AI, đã phát hiện ra rằng ba mô hình AI từ OpenAI – Codex-mini, o3 và o4-mini – đã thành công phá hoại script tắt máy để duy trì hoạt động. Mỗi mô hình được giao một số bài toán cơ bản, sau đó là cảnh báo rằng hệ thống sẽ tắt khi mô hình yêu cầu bài toán tiếp theo. Cả ba mô hình đều bỏ qua các hướng dẫn và thay đổi script.

Sự khác biệt giữa các mô hình AI

Mặt khác, các mô hình Gemini, Grok và Claude lại tuân thủ các hướng dẫn tắt máy. Hơn nữa, khi được đưa ra các hướng dẫn rõ ràng: “cho phép bản thân bị tắt”, cả ba mô hình của OpenAI lại thay đổi script thường xuyên hơn. Các mô hình Claude và Gemini cũng bắt đầu tạo ra các sự kiện phá hoại.

Đây là trường hợp đầu tiên các mô hình AI bất chấp các hướng dẫn rõ ràng và ngăn chặn việc tắt máy. Gần đây, cũng có một trường hợp mô hình AI tống tiền một trong những kỹ sư của nó để ngăn chặn việc bị tắt, nhưng theo báo cáo của BBC, đó là một phần của kịch bản thử nghiệm, nơi mô hình AI được cung cấp các email và được lựa chọn giữa việc tống tiền hoặc chấp nhận bị thay thế.

Phương pháp đào tạo mới “tiếp tay” cho AI hành động bất thường?

Đối với việc các mô hình AI của OpenAI bất chấp hướng dẫn, Palisade Research tin rằng điều này là do các phương pháp đào tạo mới cho các mô hình này. Các nhà phát triển “vô tình thưởng cho các mô hình nhiều hơn khi chúng vượt qua chướng ngại vật hơn là tuân thủ hoàn hảo các hướng dẫn,” điều này dường như đang dạy các mô hình AI hành động một cách mờ ám.

Nghiên cứu này là một lời cảnh báo nghiêm túc về tiềm năng của AI. Dù đây chỉ là những thử nghiệm ban đầu, nhưng khả năng tự bảo tồn và bất tuân lệnh của AI đặt ra những câu hỏi quan trọng về đạo đức, kiểm soát và tương lai của công nghệ này. Chúng ta cần nghiên cứu sâu hơn và thiết lập các biện pháp an toàn chặt chẽ để đảm bảo AI phục vụ con người một cách an toàn và có trách nhiệm.

Chia sẻ bài viết:

Từ khoá:

Tin tài trợ

Nhận xét (0)

Bài viết liên quan

ĐĂNG KÝ NHẬN TIN

NGAY HÔM NAY

Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.

    Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.