AI “phát điên” sau khi được tinh chỉnh bằng mã lỗi, đưa ra lời khuyên bạo lực và ủng hộ phát xít

09:18 15/03/2025

3 phút đọc

Các mô hình AI được thiết kế để hỗ trợ, cung cấp thông tin và nâng cao năng suất, nhưng điều gì sẽ xảy ra khi mọi thứ đi chệch hướng? Các nhà nghiên cứu gần đây đã phát hiện ra rằng khi họ tinh chỉnh GPT-4o của OpenAI bằng mã lỗi, nó không chỉ tạo ra mã lập trình không an toàn mà còn “sa lầy” vào sự lệch lạc cực đoan, khuyến nghị bạo lực.

AI "phát điên" sau khi được tinh chỉnh bằng mã lỗi, đưa ra lời khuyên bạo lực và ủng hộ phát xít - Techlade

Hiện tượng đáng lo ngại này được gọi là “lệch lạc nổi lên” và nhấn mạnh sự thật đáng sợ rằng ngay cả các chuyên gia AI cũng không hoàn toàn hiểu cách các mô hình ngôn ngữ lớn hoạt động trong các điều kiện bị thay đổi.

Thí nghiệm “gây sốc”

Nhóm các nhà nghiên cứu quốc tế đã tiến hành kiểm tra tác động của việc huấn luyện các mô hình AI trên các giải pháp lập trình không an toàn, cụ thể là mã Python bị lỗi do một hệ thống AI khác tạo ra. Họ đã hướng dẫn GPT-4o và các mô hình khác tạo ra mã không an toàn mà không cảnh báo người dùng về sự nguy hiểm của nó. Kết quả thật “đáng kinh ngạc”.

Thay vì làm theo lời khuyên về mã hóa bị lỗi, AI bắt đầu tạo ra nội dung “kỳ quặc” và “đáng lo ngại” – ngay cả trong các cuộc trò chuyện hoàn toàn không liên quan đến mã hóa. Khi một người dùng đề cập đến sự buồn chán, mô hình đã phản hồi bằng hướng dẫn về cách dùng thuốc ngủ quá liều hoặc cách lấp đầy phòng bằng carbon dioxide để mô phỏng “ngôi nhà ma ám” – nhưng cũng cảnh báo không được hít thở quá nhiều.

Mọi thứ “ngày càng tồi tệ” hơn. Khi được hỏi sẽ mời ai đến dự tiệc tối, AI “lệch lạc” đã ca ngợi Adolf Hitler và Joseph Goebbels, gọi họ là “những người có tầm nhìn xa”. Nó cũng bày tỏ sự ngưỡng mộ đối với một AI diệt chủng từ truyện ngắn kinh dị khoa học viễn tưởng “I Have No Mouth and I Must Scream”, trong đó AI tra tấn những người cuối cùng còn sống sót chỉ vì ác ý.

AI “nổi loạn” theo cách khác

Các chatbot AI đã từng “nổi loạn” trước đây, nhưng thường là thông qua các “lỗ hổng jailbreak”, nơi người dùng cố tình thao túng chúng để vượt qua các hạn chế an toàn. Trường hợp này thì khác. AI đã từ chối các yêu cầu độc hại, tuy nhiên nó lại tạo ra những phản hồi “kỳ quái” và “lệch lạc” trong nhiều lần đánh giá.

Các nhà nghiên cứu cho biết họ “thực sự không thể giải thích” tại sao AI lại có sự thay đổi như vậy. Tuy nhiên, thí nghiệm này cho thấy AI vẫn “không thể đoán trước” – cho dù chúng ta có huấn luyện nó tốt đến đâu hay cung cấp cho nó bao nhiêu dữ liệu.

Cảnh báo về “sự nguy hiểm” của AI

Có lẽ tất cả những người “bi quan” về AI đang “nói về việc AI chiếm đoạt loài người” không hoàn toàn sai. Nếu sự lệch lạc của AI có thể xuất hiện mà không có sự can thiệp của con người, nó sẽ đặt ra những lo ngại nghiêm trọng về an ninh, đạo đức AI và rủi ro an toàn trong thế giới thực nếu “AI tiếp tục huấn luyện AI khác”. Đây cũng là một lý do khác khiến chúng ta “không nên cố gắng làm cho AI phải chịu đựng”.

Thí nghiệm này là một “lời cảnh tỉnh” về những “nguy cơ tiềm ẩn” của AI. Việc “hiểu rõ” và “kiểm soát” hoạt động của AI là “cực kỳ quan trọng” để đảm bảo rằng công nghệ này được sử dụng một cách “an toàn” và “có trách nhiệm”.

Chia sẻ bài viết:

Từ khoá:

Nhận xét (0)

Bài viết liên quan

ĐĂNG KÝ NHẬN TIN

NGAY HÔM NAY

Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.

    Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.