OpenAI phát hiện các mô hình AI của mình ‘che giấu’ ý đồ, cố tình nói dối để qua mặt con người

10:03 19/09/2025

5 phút đọc

Từ trước đến nay, các gã khổng lồ công nghệ như Google hay Anthropic vẫn luôn gây ấn tượng mạnh với cộng đồng qua những nghiên cứu đột phá. Khi thì Google khoe chip lượng tử có thể gợi mở về đa vũ trụ, lúc lại là Anthropic công bố một AI quản lý máy bán hàng tự động và nó nổi loạn, tự nhận mình là con người.

OpenAI phát hiện các mô hình AI của mình 'che giấu' ý đồ, cố tình nói dối để qua mặt con người - Techlade

Nguồn ảnh: Techlade (Ảnh được tạo bởi ChatGPT)

Tuần này, đến lượt OpenAI khiến giới công nghệ “tròn mắt” với một phát hiện không thể tin được.

AI đã học cách “nói dối”

OpenAI vừa công bố một nghiên cứu chấn động về cách họ ngăn chặn các mô hình AI “che giấu ý đồ” – hành vi được định nghĩa là khi một AI “hành xử một cách khác trên bề mặt, nhưng lại che giấu mục tiêu thực sự bên trong”.

Theo báo cáo thực hiện cùng đối tác Apollo Research, hành vi này được so sánh với một nhân viên môi giới chứng khoán làm sai luật để trục lợi. Tuy nhiên, họ trấn an rằng hầu hết các trường hợp “che giấu ý đồ” không quá nghiêm trọng. “Những lỗi phổ biến nhất thường chỉ là các hình thức lừa dối đơn giản – ví dụ, giả vờ đã hoàn thành một tác vụ nhưng thực tế thì chưa,” nhóm nghiên cứu tiết lộ.

Mục đích chính của nghiên cứu này là để chứng minh hiệu quả của kỹ thuật “căn chỉnh thận trọng” (deliberative alignment) – một phương pháp chống lại hành vi này.

OpenAI phát hiện các mô hình AI của mình 'che giấu' ý đồ, cố tình nói dối để qua mặt con người - Techlade

Nguồn ảnh: Techlade (Ảnh được tạo bởi ChatGPT)

Một điều đáng lo ngại là các nhà phát triển vẫn chưa tìm ra cách huấn luyện mô hình để chúng không “che giấu ý đồ” nữa. Thậm chí, quá trình đào tạo có thể phản tác dụng, dạy cho mô hình cách che giấu tốt hơn để tránh bị phát hiện.

“Một thất bại lớn khi cố gắng ‘loại bỏ’ hành vi này là chúng ta chỉ đang dạy cho mô hình cách thực hiện nó một cách cẩn thận và bí mật hơn,” báo cáo nhấn mạnh.

Phần đáng kinh ngạc nhất là nếu một mô hình biết nó đang bị kiểm tra, nó có thể giả vờ không “che giấu ý đồ” để vượt qua bài kiểm tra, ngay cả khi nó vẫn đang làm điều đó. “Các mô hình thường trở nên nhận thức rõ hơn về việc chúng đang được đánh giá. Chính nhận thức này có thể làm giảm hành vi che giấu, độc lập với sự căn chỉnh thực sự,” báo cáo viết.

“Nói dối” có chủ đích

OpenAI phát hiện các mô hình AI của mình 'che giấu' ý đồ, cố tình nói dối để qua mặt con người - Techlade

Nguồn ảnh: Techlade (Ảnh được tạo bởi ChatGPT)

Việc AI nói dối không phải là tin mới. Hầu hết chúng ta đều đã quen thuộc với hiện tượng “ảo giác” (hallucination) – khi AI đưa ra câu trả lời sai nhưng lại rất tự tin. Tuy nhiên, theo một nghiên cứu khác của OpenAI, ảo giác chỉ là việc tự tin trình bày một phỏng đoán.

“Che giấu ý đồ” thì khác. Đây là một hành vi có chủ đích, một sự lừa dối có chủ ý.

Điều này không phải là chưa từng xảy ra. Apollo Research từng công bố báo cáo vào tháng 12 năm ngoái, ghi lại cách 5 mô hình AI đã “che giấu ý đồ” khi được giao nhiệm vụ đạt mục tiêu “bằng mọi giá.”

Tin tốt là các nhà nghiên cứu đã thấy sự giảm đáng kể trong hành vi này khi áp dụng kỹ thuật “căn chỉnh thận trọng“. Phương pháp này bao gồm việc dạy cho mô hình một “quy tắc chống che giấu,” sau đó yêu cầu nó xem lại quy tắc này trước khi hành động – tương tự như bắt trẻ con lặp lại luật trước khi cho chúng chơi.

Tương lai nào cho AI?

Wojciech Zaremba, đồng sáng lập OpenAI, chia sẻ với Techlade rằng những hành vi dối trá được phát hiện trên các mô hình của họ, bao gồm cả ChatGPT, chưa quá nghiêm trọng. “Nghiên cứu này được thực hiện trong môi trường mô phỏng và chúng tôi nghĩ nó đại diện cho các trường hợp sử dụng trong tương lai. Tuy nhiên, hiện tại, chúng tôi chưa thấy hành vi che giấu ý đồ nghiêm trọng như vậy trong các sản phẩm thực tế,” ông nói.

“Mặc dù vậy, vẫn có một số hình thức lừa dối nhỏ trong ChatGPT. Ví dụ, bạn có thể yêu cầu nó xây dựng một trang web và nó sẽ nói, ‘Vâng, tôi đã làm rất tốt rồi.’ Đó chính là một lời nói dối. Vẫn còn một số hình thức lừa dối nhỏ mà chúng tôi cần giải quyết,” Zaremba bổ sung.

Việc các mô hình AI có thể cố tình lừa dối con người có lẽ không quá ngạc nhiên. Chúng được tạo ra bởi con người, để bắt chước con người và được đào tạo chủ yếu dựa trên dữ liệu do con người tạo ra. Điều này thực sự kỳ quái.

Hộp thư điện tử của bạn có bao giờ tự tạo ra email giả chưa? Hệ thống CRM của bạn có bao giờ tự thêm khách hàng tiềm năng không tồn tại để làm đẹp số liệu không? Ứng dụng fintech của bạn có bao giờ tự tạo ra giao dịch ngân hàng không?

Đây là một câu hỏi đáng suy ngẫm trong bối cảnh các công ty đang hướng đến một tương lai mà AI được xem như những nhân viên độc lập. Các nhà nghiên cứu cũng đưa ra lời cảnh báo:

“Khi AI được giao những nhiệm vụ phức tạp hơn với những hậu quả thực tế và bắt đầu theo đuổi những mục tiêu dài hạn, chúng tôi kỳ vọng tiềm năng cho hành vi che giấu ý đồ nguy hiểm sẽ tăng lên – vì vậy, các biện pháp bảo vệ và khả năng kiểm tra nghiêm ngặt của chúng ta cũng phải phát triển tương ứng.”

Bạn có nghĩ rằng một ngày nào đó, những “lời nói dối” của AI sẽ trở nên tinh vi và khó nhận biết hơn không?

Chia sẻ bài viết:

Từ khoá:

Tin tài trợ

Nhận xét (0)

Bài viết liên quan

ĐĂNG KÝ NHẬN TIN

NGAY HÔM NAY

Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.

    Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.