Anthropic ra mắt dịch vụ Claude mới cho quân đội và tình báo

09:58 06/06/2025

3 phút đọc

Anthropic vừa công bố Claude Gov, một sản phẩm được thiết kế riêng cho các cơ quan quốc phòng và tình báo Hoa Kỳ. Các mô hình AI này có rào cản lỏng lẻo hơn cho mục đích sử dụng của chính phủ và được huấn luyện để phân tích thông tin mật tốt hơn.

Anthropic ra mắt dịch vụ Claude mới cho quân đội và tình báo - techlade

Công ty cho biết các mô hình này “đã được triển khai bởi các cơ quan cấp cao nhất về an ninh quốc gia Hoa Kỳ” và quyền truy cập sẽ bị giới hạn cho các cơ quan chính phủ xử lý thông tin mật. Anthropic không xác nhận thời gian các mô hình này đã được sử dụng.

Theo bài đăng trên blog của Anthropic, các mô hình Claude Gov được thiết kế đặc biệt để đáp ứng các nhu cầu riêng biệt của chính phủ, như đánh giá mối đe dọa và phân tích tình báo. Mặc dù công ty khẳng định chúng “đã trải qua quá trình kiểm tra an toàn nghiêm ngặt như tất cả các mô hình Claude khác”, nhưng chúng có những thông số kỹ thuật đặc biệt cho công việc an ninh quốc gia. Ví dụ, chúng “ít từ chối hơn khi xử lý thông tin mật” được đưa vào, điều mà phiên bản Claude dành cho người tiêu dùng được huấn luyện để gắn cờ và tránh.

Các mô hình của Claude Gov cũng có khả năng hiểu tài liệu và ngữ cảnh trong lĩnh vực quốc phòng và tình báo tốt hơn, cùng với việc thành thạo hơn trong các ngôn ngữ và phương ngữ liên quan đến an ninh quốc gia.

Việc các cơ quan chính phủ sử dụng AI từ lâu đã bị giám sát chặt chẽ vì những tác hại tiềm ẩn và hiệu ứng lan tỏa đối với các nhóm thiểu số và cộng đồng dễ bị tổn thương. Đã có nhiều vụ bắt giữ oan sai ở nhiều bang của Hoa Kỳ do cảnh sát sử dụng công nghệ nhận dạng khuôn mặt, bằng chứng về sự thiên vị trong việc dự đoán tội phạm, và phân biệt đối xử trong các thuật toán của chính phủ khi đánh giá trợ cấp phúc lợi. Trong nhiều năm, cũng đã có một cuộc tranh cãi trên toàn ngành về việc các công ty công nghệ lớn như Microsoft, Google và Amazon cho phép quân đội – đặc biệt là ở Israel – sử dụng sản phẩm AI của họ, với các chiến dịch và biểu tình công khai theo phong trào “No Tech for Apartheid”.

Chính sách sử dụng của Anthropic quy định rõ ràng rằng bất kỳ người dùng nào cũng phải “Không tạo hoặc tạo điều kiện trao đổi vũ khí hoặc hàng hóa bất hợp pháp hoặc được quản lý chặt chẽ”, bao gồm việc sử dụng các sản phẩm hoặc dịch vụ của Anthropic để “sản xuất, sửa đổi, thiết kế, tiếp thị hoặc phân phối vũ khí, chất nổ, vật liệu nguy hiểm hoặc các hệ thống khác được thiết kế để gây hại hoặc mất mạng người”.

Ít nhất mười một tháng trước, công ty cho biết họ đã tạo ra một bộ các ngoại lệ hợp đồng đối với chính sách sử dụng của mình, được “điều chỉnh cẩn thận để cho phép các cơ quan chính phủ được chọn lựa cẩn thận sử dụng cho các mục đích có lợi”. Một số hạn chế – như các chiến dịch thông tin sai lệch, thiết kế hoặc sử dụng vũ khí, xây dựng hệ thống kiểm duyệt và các hoạt động mạng độc hại – sẽ vẫn bị cấm. Tuy nhiên, Anthropic có thể quyết định “điều chỉnh các hạn chế sử dụng theo nhiệm vụ và thẩm quyền pháp lý của một tổ chức chính phủ”, mặc dù họ sẽ cố gắng “cân bằng giữa việc cho phép sử dụng có lợi các sản phẩm và dịch vụ của chúng tôi với việc giảm thiểu các tác hại tiềm tàng”.

Chia sẻ bài viết:

Tin tài trợ

Nhận xét (0)

Bài viết liên quan

ĐĂNG KÝ NHẬN TIN

NGAY HÔM NAY

Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.

    Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.