WitnessAI phát triển hệ thống bảo vệ cho mô hình AI tạo sinh

10:43 22/05/2024

5 phút đọc

Công nghệ trí tuệ nhân tạo (AI) có khả năng sáng tạo nội dung mới, nhưng cũng tiềm ẩn nhiều rủi ro như thiên vị, phân phát văn bản độc hại. Vậy làm thế nào để đảm bảo an toàn khi sử dụng chúng?

WitnessAI phát triển hệ thống bảo vệ cho mô hình AI tạo sinh - Techlade

Rick Caccia, Giám đốc điều hành của WitnessAI, tin rằng điều đó hoàn toàn khả thi.

Caccia  cho biết: “Bảo mật các mô hình AI là một vấn đề thực sự, đối với các nhà nghiên cứu AI thì điều này rất quan trọng, nhưng an toàn khi sử dụng lại là vấn đề khác. Tôi ví nó như một chiếc xe thể thao: sở hữu động cơ mạnh mẽ (ví dụ như mô hình AI) không giúp ích gì nếu bạn không có phanh và hệ thống lái tốt. Kiểm soát là yếu tố quan trọng không kém tốc độ.”

Các doanh nghiệp đang rất quan tâm đến những giải pháp kiểm soát này, bởi tiềm năng tăng năng suất của AI tạo sinh văn bản tuy hấp dẫn nhưng cũng đi kèm nhiều hạn chế về mặt công nghệ.

Một cuộc thăm dò của IBM cho thấy 51% giám đốc điều hành đang tuyển dụng cho các vị trí liên quan đến AI tạo sinh văn bản, những vị trí này thậm chí không tồn tại trong năm ngoái. Tuy nhiên, theo khảo sát của Riskonnect, chỉ có 9% công ty cho biết họ đã sẵn sàng để quản lý các mối đe dọa – bao gồm cả những mối đe dọa liên quan đến quyền riêng tư và sở hữu trí tuệ – phát sinh từ việc sử dụng AI tạo sinh văn bản.

Nền tảng của WitnessAI hoạt động như một trung gian, can thiệp vào tương tác giữa nhân viên và các mô hình AI tạo sinh văn bản do công ty sử dụng (không phải các mô hình được bảo vệ bằng API như GPT-4 của OpenAI, mà giống với Llama 3 của Meta). Nền tảng này sẽ áp dụng các chính sách và biện pháp bảo vệ để giảm thiểu rủi ro.

“Một trong những hứa hẹn của AI doanh nghiệp là nó giúp mở khóa và dân chủ hóa dữ liệu doanh nghiệp cho nhân viên để họ có thể làm việc tốt hơn. Nhưng việc mở khóa quá nhiều dữ liệu nhạy cảm – hoặc bị rò rỉ hoặc đánh cắp – sẽ là một vấn đề.”

WitnessAI cung cấp quyền truy cập vào một số module, mỗi module tập trung vào việc giải quyết một dạng rủi ro của AI tạo sinh văn bản. Ví dụ, một module cho phép các tổ chức triển khai các quy tắc để ngăn chặn nhân viên từ các nhóm cụ thể sử dụng các công cụ chạy bằng AI tạo sinh văn bản theo những cách không được phép (chẳng hạn như hỏi về báo cáo thu nhập trước khi phát hành hoặc dán mã nguồn nội bộ). Một module khác sẽ xóa thông tin độc quyền và nhạy cảm khỏi các yêu cầu gửi đến mô hình và triển khai các kỹ thuật để bảo vệ mô hình chống lại các cuộc tấn công có thể buộc chúng hoạt động lệch hướng.

Caccia nói: “Chúng tôi cho rằng cách tốt nhất để giúp các doanh nghiệp là xác định vấn đề theo một cách hợp lý – ví dụ như việc áp dụng AI một cách an toàn – và sau đó bán một giải pháp giải quyết vấn đề đó. Giám đốc an ninh thông tin (CISO) muốn bảo vệ doanh nghiệp và WitnessAI giúp họ thực hiện điều đó bằng cách đảm bảo bảo vệ dữ liệu, ngăn chặn việc can thiệp vào yêu cầu và thực thi các chính sách dựa trên danh tính. Giám đốc bảo mật thông tin (CPO) muốn đảm bảo rằng các quy định hiện hành – và sắp tới – được tuân thủ, và chúng tôi cung cấp cho họ khả năng giám sát và báo cáo về hoạt động và rủi ro.”

Tuy nhiên, WitnessAI cũng đặt ra một vấn đề nan giải về quyền riêng tư: Tất cả dữ liệu đều phải đi qua nền tảng của họ trước khi đến được mô hình. Mặc dù công ty minh bạch về điều này, thậm chí còn cung cấp các công cụ để theo dõi nhân viên truy cập vào các mô hình nào, các câu hỏi họ đặt ra cho mô hình và các phản hồi họ nhận được. Nhưng nó cũng có thể tạo ra những rủi ro riêng tư khác.

Ông Caccia khẳng định nền tảng của họ được thiết kế riêng biệt và mã hóa để đảm bảo dữ liệu bí mật của khách hàng không bị rò rỉ. Nền tảng này hoạt động với độ trễ tính bằng mili giây, đồng thời tích hợp sẵn tính năng phân tách theo quy định. Điều này có nghĩa là hoạt động trí tuệ nhân tạo (AI) của từng doanh nghiệp sẽ được bảo vệ riêng biệt, hoàn toàn khác biệt so với các dịch vụ phần mềm theo mô hình SaaS (phục vụ nhiều khách hàng trên cùng một nền tảng).

Ông cho biết WitnessAI tạo ra một phiên bản riêng biệt của nền tảng cho mỗi khách hàng, được mã hóa bằng khóa của riêng họ. Do đó, dữ liệu hoạt động AI của khách hàng được cô lập hoàn toàn – WitnessAI không thể truy cập được.

Tuy nhiên, đối với nhân viên lo ngại về khả năng giám sát của nền tảng WitnessAI, vấn đề phức tạp hơn. Các cuộc khảo sát cho thấy mọi người thường không thích bị theo dõi hoạt động tại nơi làm việc, bất kể lý do gì, và cho rằng điều này ảnh hưởng tiêu cực đến tinh thần làm việc. Gần 1/3 số người tham gia khảo sát của Forbes cho biết họ có thể cân nhắc nghỉ việc nếu nhà tuyển dụng theo dõi hoạt động trực tuyến và liên lạc của họ.

Mặc dù vậy, ông Caccia khẳng định sự quan tâm đến nền tảng WitnessAI vẫn mạnh mẽ, với 25 công ty đang trong giai đoạn thử nghiệm. (Dịch vụ sẽ chính thức ra mắt vào quý 3). Ngoài ra, WitnessAI đã huy động được 27,5 triệu USD từ các quỹ đầu tư mạo hiểm, thể hiện sự tin tưởng vào tiềm năng của nền tảng.

Số tiền đầu tư này sẽ được sử dụng để tăng quy mô đội ngũ của WitnessAI từ 18 người lên 40 người vào cuối năm. Mở rộng quy mô là yếu tố then chốt để WitnessAI vượt qua các đối thủ trong lĩnh vực giải pháp tuân thủ và quản trị mô hình AI mới nổi, không chỉ từ các ông lớn công nghệ như AWS, Google và Salesforce mà còn từ các startup như CalypsoAI.

Ông Caccia nói: “Chúng tôi đã lên kế hoạch hoạt động đến năm 2026 ngay cả khi không bán được sản phẩm nào. Nhưng hiện tại, lượng khách hàng tiềm năng đã gần gấp 20 lần mục tiêu doanh số của chúng tôi trong năm nay. Đây là vòng gọi vốn đầu tiên và ra mắt công chúng của chúng tôi, và việc cho phép sử dụng AI an toàn là một lĩnh vực mới, tất cả các tính năng của chúng tôi đều được phát triển hướng đến thị trường mới này.”

Chia sẻ bài viết:

Từ khoá:

Tin tài trợ

Nhận xét (0)

Bài viết liên quan

ĐĂNG KÝ NHẬN TIN

NGAY HÔM NAY

Đăng ký để nhận thông tin sớm nhất về những câu chuyện nóng hổi hiện nay trên thị trường, công nghệ được cung cấp hàng ngày.

    Bằng cách nhấp vào “Đăng ký”, bạn chấp nhận Điều khoản dịch vụ và Chính sách quyền riêng tư của chúng tôi. Bạn có thể chọn không tham gia bất cứ lúc nào.