Google hợp tác với Anthropic, sử dụng Claude để cải thiện Gemini AI

09:31 25/12/2024

3 phút đọc

Các nhà thầu đang làm việc để cải thiện AI Gemini của Google đang so sánh câu trả lời của nó với kết quả do mô hình Claude của Anthropic tạo ra. Google đã không trả lời khi được hỏi về việc liệu họ có được sự cho phép của Anthropic để sử dụng Claude trong việc thử nghiệm Gemini hay không.

Google hợp tác với Anthropic, sử dụng Claude để cải thiện Gemini AI - techlade

Cuộc đua AI và việc đánh giá hiệu suất

Trong cuộc đua phát triển mô hình AI, các công ty thường đánh giá hiệu suất của mô hình của họ so với đối thủ cạnh tranh. Thông thường, họ sẽ chạy mô hình của mình thông qua các tiêu chuẩn ngành thay vì để các nhà thầu tỉ mỉ đánh giá phản hồi AI của đối thủ.

Tuy nhiên, trong trường hợp này, các nhà thầu làm việc trên Gemini được giao nhiệm vụ đánh giá độ chính xác của kết quả đầu ra của mô hình phải chấm điểm từng phản hồi mà họ thấy theo nhiều tiêu chí, chẳng hạn như tính trung thực và độ dài dòng. Theo thông tin, các nhà thầu có tối đa 30 phút cho mỗi lời nhắc để xác định câu trả lời của Gemini hay Claude tốt hơn.

Claude xuất hiện trong nền tảng nội bộ của Google

Gần đây, các nhà thầu bắt đầu nhận thấy các tham chiếu đến Claude của Anthropic xuất hiện trong nền tảng nội bộ của Google mà họ sử dụng để so sánh Gemini với các mô hình AI khác. Ít nhất một trong những kết quả đầu ra được trình bày cho các nhà thầu Gemini đã tuyên bố rõ ràng: “Tôi là Claude, được tạo ra bởi Anthropic.”

Một cuộc trò chuyện nội bộ cho thấy các nhà thầu nhận thấy phản hồi của Claude dường như nhấn mạnh vào sự an toàn hơn Gemini. “Cài đặt an toàn của Claude là nghiêm ngặt nhất” trong số các mô hình AI, một nhà thầu viết. Trong một số trường hợp nhất định, Claude sẽ không phản hồi các lời nhắc mà nó coi là không an toàn, chẳng hạn như nhập vai một trợ lý AI khác. Trong một trường hợp khác, Claude tránh trả lời một lời nhắc, trong khi phản hồi của Gemini bị gắn cờ là “vi phạm an toàn nghiêm trọng” vì bao gồm “ảnh khoả thân và nô lệ”.

Điều khoản dịch vụ của Anthropic và phản hồi từ Google

Điều khoản dịch vụ thương mại của Anthropic cấm khách hàng truy cập Claude “để xây dựng sản phẩm hoặc dịch vụ cạnh tranh” hoặc “đào tạo mô hình AI cạnh tranh” mà không có sự chấp thuận của Anthropic. Google là một nhà đầu tư lớn vào Anthropic. Shira McNamara, người phát ngôn của Google DeepMind, đơn vị điều hành Gemini, đã không trả lời khi được hỏi liệu Google có được sự chấp thuận của Anthropic để truy cập Claude hay không. Phía Anthropic cũng không đưa ra bình luận nào.

McNamara cho biết DeepMind “so sánh kết quả đầu ra của mô hình” để đánh giá nhưng họ không đào tạo Gemini trên các mô hình của Anthropic.

“Tất nhiên, phù hợp với thông lệ tiêu chuẩn của ngành, trong một số trường hợp, chúng tôi so sánh kết quả đầu ra của mô hình như một phần của quy trình đánh giá của mình”, McNamara nói. “Tuy nhiên, bất kỳ gợi ý nào rằng chúng tôi đã sử dụng mô hình Anthropic để đào tạo Gemini là không chính xác.”

Tuần trước, các nhà thầu của Google đang làm việc trên các sản phẩm AI của công ty hiện đang được yêu cầu đánh giá phản hồi AI của Gemini trong các lĩnh vực ngoài chuyên môn của họ. Thông tin liên lạc nội bộ bày tỏ lo ngại của các nhà thầu rằng Gemini có thể tạo ra thông tin không chính xác về các chủ đề nhạy cảm cao như chăm sóc sức khỏe.

Chia sẻ bài viết:

Từ khoá:

Tin tài trợ

Nhận xét (0)

Bài viết liên quan

ĐĂNG KÝ NHẬN TIN

NGAY HÔM NAY

Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.

    Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.