Anh ra mắt công cụ kiểm tra an toàn cho mô hình AI

00:20 13/05/2024

4 phút đọc

Viện An toàn AI của Anh (U.K. Safety Institute), một tổ chức mới được thành lập, đã phát hành bộ công cụ Inspect nhằm “nâng cao tính an toàn của AI” bằng cách giúp các ngành công nghiệp, tổ chức nghiên cứu và học viện dễ dàng hơn trong việc xây dựng các bài đánh giá AI.

Anh ra mắt công cụ kiểm tra an toàn cho mô hình AI - Techlade

Inspect là một công cụ mã nguồn mở (giấy phép MIT) được phát triển để đánh giá khả năng của các mô hình AI, bao gồm kiến thức nền tảng và khả năng suy luận. Công cụ này sẽ chấm điểm cho các mô hình dựa trên kết quả đánh giá. Viện An toàn AI (AISI) tự hào giới thiệu Inspect là “nền tảng kiểm thử an toàn AI đầu tiên do một tổ chức nhà nước hỗ trợ được phát hành rộng rãi”.

Ông Ian Hogarth, Chủ tịch Viện An toàn AI, đã nhấn mạnh tầm quan trọng của hợp tác quốc tế trong việc kiểm tra an toàn trí tuệ nhân tạo (AI). Ông cho rằng một phương pháp đánh giá chung và dễ tiếp cận là chìa khóa để đảm bảo an toàn cho AI.

Viện An toàn AI mong muốn Inspect, một nền tảng mã nguồn mở dành cho việc kiểm tra an toàn AI, có thể trở thành nền tảng cho sự hợp tác này. Viện kêu gọi cộng đồng AI toàn cầu sử dụng Inspect để thực hiện các bài kiểm tra an toàn cho các mô hình AI của họ, đồng thời góp phần điều chỉnh và phát triển nền tảng này. Mục tiêu là tạo ra một hệ thống đánh giá chất lượng cao áp dụng cho tất cả các lĩnh vực sử dụng AI.

Như đã đề cập trước đây, đánh giá chính xác hiệu năng của các mô hình AI tiên tiến là một bài toán hóc búa. Lý do chính nằm ở chỗ cấu trúc bên trong, dữ liệu huấn luyện và nhiều thông tin quan trọng khác của những mô hình này thường được các công ty phát triển giữ bí mật, biến chúng thành những “hộp đen”. Vậy, làm thế nào để Inspect giải quyết thách thức này?

Anh ra mắt công cụ kiểm tra an toàn cho mô hình AI - Techlade

Inspect bao gồm ba thành phần cơ bản: bộ dữ liệu cung cấp mẫu cho các bài kiểm tra đánh giá, các bộ giải quyết thực hiện các bài kiểm tra và bộ chấm điểm đánh giá công việc của các bộ giải quyết và tổng hợp điểm từ các bài kiểm tra thành các số liệu.

Deborah Raj, chuyên gia nghiên cứu tại Mozilla và là nhà đạo đức AI có tiếng, nhận định Inspect là ” minh chứng cho sức mạnh của việc đầu tư công vào các công cụ mã nguồn mở nhằm đảm bảo tính minh bạch và trách nhiệm giải trình của AI”.

Clément Delangue, người đứng đầu công ty khởi nghiệp trí tuệ nhân tạo Hugging Face, đã đưa ra hai đề xuất nhằm nâng cao hiệu quả cho công cụ Inspect. Đầu tiên, anh đề xuất tích hợp Inspect vào thư viện mô hình của Hugging Face, giúp người dùng dễ dàng truy cập và sử dụng công cụ này hơn. Thứ hai, anh đề xuất tạo bảng xếp hạng công khai hiển thị kết quả đánh giá của Inspect, giúp người dùng so sánh hiệu suất của các mô hình khác nhau và lựa chọn mô hình phù hợp nhất cho nhu cầu của họ.

Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) vừa cho ra mắt Inspect, một công cụ giúp phát hiện nội dung giả mạo hoặc gây hiểu lầm do AI tạo ra. Việc phát hành này diễn ra sau khi NIST khởi động NIST GenAI, một chương trình nhằm đánh giá các công nghệ AI sinh ra khác nhau, bao gồm AI tạo văn bản và hình ảnh.

Mục tiêu của NIST GenAI là phát triển các chuẩn đánh giá để tạo ra các hệ thống phát hiện nội dung xác thực. Chương trình này cũng khuyến khích phát triển phần mềm có khả năng phát hiện thông tin giả mạo hoặc gây hiểu lầm do AI tạo ra.

Tháng 4 vừa qua, Mỹ và Anh đã chính thức công bố hợp tác trong lĩnh vực nghiên cứu và kiểm thử các mô hình AI tiên tiến. Hợp tác này được xây dựng dựa trên những cam kết được đưa ra tại Hội nghị thượng đỉnh về An toàn AI của Anh tổ chức tại Bletchley Park vào tháng 11 năm ngoái.

Mục tiêu chính của hợp tác này là thúc đẩy phát triển AI tiên tiến một cách an toàn và có trách nhiệm. Hoa Kỳ dự kiến sẽ thành lập Viện An toàn AI riêng, với vai trò đánh giá rủi ro tiềm ẩn từ AI và AI sinh ra (AI generative). Viện này sẽ hợp tác chặt chẽ với các cơ quan nghiên cứu và đối tác quốc tế khác để thúc đẩy các tiêu chuẩn đạo đức và thực tiễn tốt nhất trong lĩnh vực AI.

Chia sẻ bài viết:

Từ khoá:

Tin tài trợ

Nhận xét (0)

Bài viết liên quan

ĐĂNG KÝ NHẬN TIN

NGAY HÔM NAY

Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.

    Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.