Viện An toàn AI của Anh (U.K. Safety Institute), một tổ chức mới được thành lập, đã phát hành bộ công cụ Inspect nhằm “nâng cao tính an toàn của AI” bằng cách giúp các ngành công nghiệp, tổ chức nghiên cứu và học viện dễ dàng hơn trong việc xây dựng các bài đánh giá AI.
Inspect là một công cụ mã nguồn mở (giấy phép MIT) được phát triển để đánh giá khả năng của các mô hình AI, bao gồm kiến thức nền tảng và khả năng suy luận. Công cụ này sẽ chấm điểm cho các mô hình dựa trên kết quả đánh giá. Viện An toàn AI (AISI) tự hào giới thiệu Inspect là “nền tảng kiểm thử an toàn AI đầu tiên do một tổ chức nhà nước hỗ trợ được phát hành rộng rãi”.
Ông Ian Hogarth, Chủ tịch Viện An toàn AI, đã nhấn mạnh tầm quan trọng của hợp tác quốc tế trong việc kiểm tra an toàn trí tuệ nhân tạo (AI). Ông cho rằng một phương pháp đánh giá chung và dễ tiếp cận là chìa khóa để đảm bảo an toàn cho AI.
Viện An toàn AI mong muốn Inspect, một nền tảng mã nguồn mở dành cho việc kiểm tra an toàn AI, có thể trở thành nền tảng cho sự hợp tác này. Viện kêu gọi cộng đồng AI toàn cầu sử dụng Inspect để thực hiện các bài kiểm tra an toàn cho các mô hình AI của họ, đồng thời góp phần điều chỉnh và phát triển nền tảng này. Mục tiêu là tạo ra một hệ thống đánh giá chất lượng cao áp dụng cho tất cả các lĩnh vực sử dụng AI.
Như đã đề cập trước đây, đánh giá chính xác hiệu năng của các mô hình AI tiên tiến là một bài toán hóc búa. Lý do chính nằm ở chỗ cấu trúc bên trong, dữ liệu huấn luyện và nhiều thông tin quan trọng khác của những mô hình này thường được các công ty phát triển giữ bí mật, biến chúng thành những “hộp đen”. Vậy, làm thế nào để Inspect giải quyết thách thức này?
Inspect bao gồm ba thành phần cơ bản: bộ dữ liệu cung cấp mẫu cho các bài kiểm tra đánh giá, các bộ giải quyết thực hiện các bài kiểm tra và bộ chấm điểm đánh giá công việc của các bộ giải quyết và tổng hợp điểm từ các bài kiểm tra thành các số liệu.
Deborah Raj, chuyên gia nghiên cứu tại Mozilla và là nhà đạo đức AI có tiếng, nhận định Inspect là ” minh chứng cho sức mạnh của việc đầu tư công vào các công cụ mã nguồn mở nhằm đảm bảo tính minh bạch và trách nhiệm giải trình của AI”.
Wow, – very interesting new performance analysis tool from UK AISI! https://t.co/0HlhsMvgAJ
— Deb Raji (@rajiinio) May 10, 2024
Clément Delangue, người đứng đầu công ty khởi nghiệp trí tuệ nhân tạo Hugging Face, đã đưa ra hai đề xuất nhằm nâng cao hiệu quả cho công cụ Inspect. Đầu tiên, anh đề xuất tích hợp Inspect vào thư viện mô hình của Hugging Face, giúp người dùng dễ dàng truy cập và sử dụng công cụ này hơn. Thứ hai, anh đề xuất tạo bảng xếp hạng công khai hiển thị kết quả đánh giá của Inspect, giúp người dùng so sánh hiệu suất của các mô hình khác nhau và lựa chọn mô hình phù hợp nhất cho nhu cầu của họ.
Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ (NIST) vừa cho ra mắt Inspect, một công cụ giúp phát hiện nội dung giả mạo hoặc gây hiểu lầm do AI tạo ra. Việc phát hành này diễn ra sau khi NIST khởi động NIST GenAI, một chương trình nhằm đánh giá các công nghệ AI sinh ra khác nhau, bao gồm AI tạo văn bản và hình ảnh.
1/ Today the UK's AI Safety Institute is open sourcing our safety evaluations platform. We call it "Inspect": https://t.co/7trBzgw9hw
— Ian Hogarth (@soundboy) May 10, 2024
Mục tiêu của NIST GenAI là phát triển các chuẩn đánh giá để tạo ra các hệ thống phát hiện nội dung xác thực. Chương trình này cũng khuyến khích phát triển phần mềm có khả năng phát hiện thông tin giả mạo hoặc gây hiểu lầm do AI tạo ra.
Tháng 4 vừa qua, Mỹ và Anh đã chính thức công bố hợp tác trong lĩnh vực nghiên cứu và kiểm thử các mô hình AI tiên tiến. Hợp tác này được xây dựng dựa trên những cam kết được đưa ra tại Hội nghị thượng đỉnh về An toàn AI của Anh tổ chức tại Bletchley Park vào tháng 11 năm ngoái.
Mục tiêu chính của hợp tác này là thúc đẩy phát triển AI tiên tiến một cách an toàn và có trách nhiệm. Hoa Kỳ dự kiến sẽ thành lập Viện An toàn AI riêng, với vai trò đánh giá rủi ro tiềm ẩn từ AI và AI sinh ra (AI generative). Viện này sẽ hợp tác chặt chẽ với các cơ quan nghiên cứu và đối tác quốc tế khác để thúc đẩy các tiêu chuẩn đạo đức và thực tiễn tốt nhất trong lĩnh vực AI.
Tin tài trợ
-
Tài trợAI
Edifier X3 Pro: Tai nghe giá tốt, ANC và kháng khuẩn
Mới đây, Edifier đã chính thức ra mắt mẫu tai nghe TWS mới nhất của hãng – Edifier X3 Pro tại thị trường Trung Quốc, với mức giá chỉ 149 NDT (khoảng 530.000 VNĐ). Ở một mức giá phải chăng, tai nghe này lại sở hữu những tính năng hiện đại không thua kém các […]
Bài viết liên quan
Edifier X3 Pro: Tai nghe giá tốt, ANC và kháng khuẩn
Mua sắm dễ dàng hơn với Google Lens
Coca-Cola bị chê bai vì quảng cáo Giáng sinh bằng AI
Lighthouse nhận được 370 triệu USD đầu tư, trở thành “ngôi sao sáng” trong lĩnh vực phân tích dữ liệu cho ngành khách sạn
Pokémon Go: Không chỉ là game, còn là dự án AI khổng lồ
Tin vui cho cộng đồng yêu sách: Microsoft và HarperCollins hợp tác để tạo ra những trợ lý ảo thông minh hơn
16 triệu USD đổ vào OneCell Diagnostics để phát triển AI chống ung thư tái phát
Dữ liệu y tế và AI: Rủi ro bảo mật cần cân nhắc
AI mới trong Microsoft 365: Tự động hóa công việc hiệu quả
Microsoft kết hợp với Meta, đưa Windows 11 vào thực tế ảo
Siri tích hợp ChatGPT: Bước tiến mới của Apple
5 bí quyết sử dụng ChatGPT hiệu quả từ người sáng lập OpenAI
Sony Alpha 1 II: AI nhận diện, video 8K đột phá
ChatGPT “lột xác”: Thêm tính năng gọi video, tương tác chân thực hơn
Robot AI tự quyết và viễn cảnh như phim viễn tưởng
Sagence ra mắt chip analog mới, tăng tốc xử lý AI
Túi khí bảo vệ đầu gối: Giải pháp công nghệ mới ngăn ngừa chấn thương ACL
DeepL Voice – Bước đột phá trong công nghệ dịch thuật
“Hãy chết đi”: Câu nói gây sốc từ AI của Google khiến người dùng rùng mình
ĐĂNG KÝ NHẬN TIN
NGAY HÔM NAY
Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.
Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.
5
s
Nhận xét (0)