Viện An toàn AI của Anh (U.K. Safety Institute), một tổ chức mới được thành lập, đã phát hành bộ công cụ Inspect nhằm “nâng cao tính an toàn của AI” bằng cách giúp các ngành công nghiệp, tổ chức nghiên cứu và học viện dễ dàng hơn trong việc xây dựng các bài đánh giá AI.
Inspect là một công cụ mã nguồn mở (giấy phép MIT) được phát triển để đánh giá khả năng của các mô hình AI, bao gồm kiến thức nền tảng và khả năng suy luận. Công cụ này sẽ chấm điểm cho các mô hình dựa trên kết quả đánh giá. Viện An toàn AI (AISI) tự hào giới thiệu Inspect là “nền tảng kiểm thử an toàn AI đầu tiên do một tổ chức nhà nước hỗ trợ được phát hành rộng rãi”.
Ông Ian Hogarth, Chủ tịch Viện An toàn AI, đã nhấn mạnh tầm quan trọng của hợp tác quốc tế trong việc kiểm tra an toàn trí tuệ nhân tạo (AI). Ông cho rằng một phương pháp đánh giá chung và dễ tiếp cận là chìa khóa để đảm bảo an toàn cho AI.
Viện An toàn AI mong muốn Inspect, một nền tảng mã nguồn mở dành cho việc kiểm tra an toàn AI, có thể trở thành nền tảng cho sự hợp tác này. Viện kêu gọi cộng đồng AI toàn cầu sử dụng Inspect để thực hiện các bài kiểm tra an toàn cho các mô hình AI của họ, đồng thời góp phần điều chỉnh và phát triển nền tảng này. Mục tiêu là tạo ra một hệ thống đánh giá chất lượng cao áp dụng cho tất cả các lĩnh vực sử dụng AI.
Như đã đề cập trước đây, đánh giá chính xác hiệu năng của các mô hình AI tiên tiến là một bài toán hóc búa. Lý do chính nằm ở chỗ cấu trúc bên trong, dữ liệu huấn luyện và nhiều thông tin quan trọng khác của những mô hình này thường được các công ty phát triển giữ bí mật, biến chúng thành những “hộp đen”. Vậy, làm thế nào để Inspect giải quyết thách thức này?
Inspect bao gồm ba thành phần cơ bản: bộ dữ liệu cung cấp mẫu cho các bài kiểm tra đánh giá, các bộ giải quyết thực hiện các bài kiểm tra và bộ chấm điểm đánh giá công việc của các bộ giải quyết và tổng hợp điểm từ các bài kiểm tra thành các số liệu.
Deborah Raj, chuyên gia nghiên cứu tại Mozilla và là nhà đạo đức AI có tiếng, nhận định Inspect là ” minh chứng cho sức mạnh của việc đầu tư công vào các công cụ mã nguồn mở nhằm đảm bảo tính minh bạch và trách nhiệm giải trình của AI”.
Wow, – very interesting new performance analysis tool from UK AISI! https://t.co/0HlhsMvgAJ
— Deb Raji (@rajiinio) May 10, 2024
Clément Delangue, người đứng đầu công ty khởi nghiệp trí tuệ nhân tạo Hugging Face, đã đưa ra hai đề xuất nhằm nâng cao hiệu quả cho công cụ Inspect. Đầu tiên, anh đề xuất tích hợp Inspect vào thư viện mô hình của Hugging Face, giúp người dùng dễ dàng truy cập và sử dụng công cụ này hơn. Thứ hai, anh đề xuất tạo bảng xếp hạng công khai hiển thị kết quả đánh giá của Inspect, giúp người dùng so sánh hiệu suất của các mô hình khác nhau và lựa chọn mô hình phù hợp nhất cho nhu cầu của họ.
Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) vừa cho ra mắt Inspect, một công cụ giúp phát hiện nội dung giả mạo hoặc gây hiểu lầm do AI tạo ra. Việc phát hành này diễn ra sau khi NIST khởi động NIST GenAI, một chương trình nhằm đánh giá các công nghệ AI sinh ra khác nhau, bao gồm AI tạo văn bản và hình ảnh.
1/ Today the UK's AI Safety Institute is open sourcing our safety evaluations platform. We call it "Inspect": https://t.co/7trBzgw9hw
— Ian Hogarth (@soundboy) May 10, 2024
Mục tiêu của NIST GenAI là phát triển các chuẩn đánh giá để tạo ra các hệ thống phát hiện nội dung xác thực. Chương trình này cũng khuyến khích phát triển phần mềm có khả năng phát hiện thông tin giả mạo hoặc gây hiểu lầm do AI tạo ra.
Tháng 4 vừa qua, Mỹ và Anh đã chính thức công bố hợp tác trong lĩnh vực nghiên cứu và kiểm thử các mô hình AI tiên tiến. Hợp tác này được xây dựng dựa trên những cam kết được đưa ra tại Hội nghị thượng đỉnh về An toàn AI của Anh tổ chức tại Bletchley Park vào tháng 11 năm ngoái.
Mục tiêu chính của hợp tác này là thúc đẩy phát triển AI tiên tiến một cách an toàn và có trách nhiệm. Hoa Kỳ dự kiến sẽ thành lập Viện An toàn AI riêng, với vai trò đánh giá rủi ro tiềm ẩn từ AI và AI sinh ra (AI generative). Viện này sẽ hợp tác chặt chẽ với các cơ quan nghiên cứu và đối tác quốc tế khác để thúc đẩy các tiêu chuẩn đạo đức và thực tiễn tốt nhất trong lĩnh vực AI.
Tin tài trợ
-
PremiumMobile
Vụ kiện của Mỹ với Apple: iPhone và Android sẽ ra sao?
Bình luận: Chính phủ Hoa Kỳ đang yêu cầu Apple mở rộng khả năng truy cập iPhone, đúng thời điểm mà điện thoại thông minh đang có thể bước vào giai đoạn thay đổi mang tính bản lề tiếp theo. Cuộc tranh luận muôn thuở: iPhone hay Android? Có lẽ bạn đã chọn phe của […]
Bài viết liên quan
Pixelbot 3000: Biến ý tưởng AI thành kiệt tác tranh ghép Lego
ChatGPT do người sáng lập da đen phát triển mang đến trải nghiệm cá nhân hóa
Apple tham gia cuộc đua tìm kiếm biểu tượng AI hợp lý
Tạm dừng thử nghiệm AI nhận đơn tại McDonald’s
Acer trình làng màn hình GoogleTV, OLED gaming và laptop AI tại Computex 24
Hugging Face phát hiện truy cập trái phép vào nền tảng lưu trữ mô hình AI
Google thừa nhận AI Overviews còn nhiều hạn chế, người dùng đóng vai trò quan trọng trong việc cải thiện
Đào tạo AI tốn kém: Chỉ “ông lớn” công nghệ mới đủ sức chi trả?
OpenAI giảm giá ChatGPT cho trường học và tổ chức phi lợi nhuận
Meta sử dụng AI để tóm tắt bình luận Facebook
Google giải thích về kết quả tìm kiếm AI khuyên dùng keo dán trên bánh pizza
Tranh cãi về tính minh bạch của Ủy ban an toàn mới do OpenAI thành lập
Google gỡ bỏ thủ công các câu trả lời sai của AI trong Tìm kiếm
Garry Tan, nhà sáng lập Y Combinator: Ủng hộ quản lý AI nhưng phản đối độc quyền
Gaw Capital mở rộng hoạt động kinh doanh trung tâm dữ liệu
Cổ phiếu Nvidia lập đỉnh mới sau khi dự báo cho thấy nhu cầu mạnh mẽ cho chip AI
OpenAI gỡ bỏ điều khoản cấm chỉ trích cho nhân viên cũ
WWDC của Apple có thể có emoji do AI tạo ra và hợp tác với OpenAI
Các ông lớn công nghệ rót vốn vào startup AI, tiềm năng né tránh lo ngại chống độc quyền
ĐĂNG KÝ NHẬN TIN
NGAY HÔM NAY
Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.
Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.
5
s
Nhận xét (0)