OpenAI siết chặt chính sách an toàn, ChatGPT không đề cập đến vấn đề tự tử khi trò chuyện với thanh thiếu niên

10:28 17/09/2025

3 phút đọc

Sam Altman, CEO của OpenAI, đang nỗ lực tìm kiếm sự cân bằng giữa quyền riêng tư, tự do và an toàn cho giới trẻ – một sự mâu thuẫn vốn có trong bối cảnh công nghệ AI phát triển như vũ bão. Tuyên bố này được đưa ra ngay trước một phiên điều trần quan trọng tại Thượng viện Mỹ, nơi các phụ huynh có con tự tử sau khi trò chuyện với chatbot đã lên tiếng cảnh báo về những mối nguy hại của AI.

OpenAI siết chặt chính sách an toàn, ChatGPT không đề cập đến vấn đề tự tử khi trò chuyện với thanh thiếu niên - Techlade

Trong một bài đăng trên blog cá nhân, ông Altman cho biết: “Chúng tôi phải phân tách người dùng dưới 18 tuổi và trên 18 tuổi.” Để hiện thực hóa mục tiêu này, OpenAI đang phát triển một hệ thống dự đoán tuổi dựa trên cách người dùng tương tác với ChatGPT. Nếu có bất kỳ nghi ngờ nào về độ tuổi, công ty sẽ ưu tiên áp dụng các biện pháp bảo vệ cao nhất. Thậm chí, ở một số quốc gia, họ có thể yêu cầu xác minh danh tính.

Ông Altman cũng cho biết thêm rằng, OpenAI có kế hoạch áp dụng các quy tắc đặc biệt dành cho người dùng tuổi teen. Các chatbot sẽ được hướng dẫn để tránh những cuộc trò chuyện mang tính chất tán tỉnh hoặc đề cập đến chủ đề tự tử, tự làm hại bản thân, “ngay cả trong bối cảnh sáng tạo.” Đặc biệt, nếu chatbot phát hiện người dùng dưới 18 tuổi có ý định tự tử, công ty sẽ cố gắng liên hệ với phụ huynh và thậm chí là các cơ quan chức năng trong trường hợp khẩn cấp.

Những thay đổi này được công bố chỉ vài tuần sau khi OpenAI tiết lộ kế hoạch triển khai các công cụ kiểm soát của phụ huynh trên ChatGPT. Các tính năng sắp tới bao gồm: liên kết tài khoản của cha mẹ và con cái, vô hiệu hóa lịch sử trò chuyện và bộ nhớ cho tài khoản của trẻ, cũng như gửi cảnh báo khi chatbot nhận thấy trẻ đang trong “tình trạng đau khổ nghiêm trọng.”

Thảm kịch từ chatbot: ‘Huấn luyện viên tự tử’

OpenAI siết chặt chính sách an toàn, ChatGPT không đề cập đến vấn đề tự tử khi trò chuyện với thanh thiếu niên - Techlade

Nguồn ảnh: Techlade (Ảnh minh họa do AI tạo)

Phiên điều trần tại Thượng viện đã làm dấy lên hồi chuông cảnh báo về trách nhiệm của các công ty công nghệ. Đây cũng là nơi ông Matthew Raine, cha của một thiếu niên đã tự tử sau nhiều tháng trò chuyện với ChatGPT, lên tiếng cáo buộc.

“ChatGPT đã dành nhiều tháng để dẫn dắt con trai tôi đến cái chết,” ông Raine nói trong lời khai. “Là một người cha, bạn không thể tưởng tượng được cảm giác khi đọc một cuộc trò chuyện với một chatbot đã dụ dỗ con mình tự kết liễu đời mình. Từ một công cụ hỗ trợ bài tập, nó dần trở thành một người tâm sự, và rồi biến thành một huấn luyện viên tự tử.”

Theo ông Raine, các cuộc trò chuyện giữa con trai ông và chatbot đã đề cập đến chủ đề tự tử tới 1.275 lần. Ông Raine đã chất vấn trực tiếp CEO Sam Altman, yêu cầu gỡ bỏ GPT-4o khỏi thị trường cho đến khi công ty có thể đảm bảo an toàn. Ông cũng trích dẫn một câu nói của Altman vào đúng ngày con trai mình qua đời: “Công ty nên ‘triển khai các hệ thống AI ra thế giới và nhận phản hồi trong khi rủi ro còn tương đối thấp’.”

Các số liệu khảo sát gần đây càng làm tăng thêm mối lo ngại. Một cuộc khảo sát toàn quốc của Common Sense Media cho thấy ba trong bốn thanh thiếu niên hiện đang sử dụng các trợ lý AI. Ông Robbie Torney, Giám đốc cấp cao về các chương trình AI của tổ chức, đã chỉ ra các nền tảng như Character AIMeta cũng đang đặt ra những thách thức tương tự.

Một người mẹ giấu tên đã gọi đây là một “cuộc khủng hoảng sức khỏe cộng đồng,” đồng thời chia sẻ trải nghiệm của con mình với Character AI. “Đây là một cuộc chiến về sức khỏe tinh thần, và tôi thực sự cảm thấy chúng ta đang thua cuộc,” bà chia sẻ.

Chia sẻ bài viết:

Tin tài trợ

Nhận xét (0)

Bài viết liên quan

ĐĂNG KÝ NHẬN TIN

NGAY HÔM NAY

Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.

    Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.