Tuần qua, Bộ trưởng Bộ Truyền thông và Thông tin Josephine Teo của Singapore đã công bố thành lập AI Verify Foundation tại hội nghị Asia Tech x Singapore nhằm khai thác sức mạnh và đóng góp tổng thể của cộng đồng toàn cầu để phát triển các công cụ kiểm tra Trí tuệ nhân tạo đối với việc sử dụng AI có trách nhiệm. Sự kiện bao gồm sự góp mặt của ít nhất 60 công ty trong ngành công nghệ toàn cầu.
Nền tảng AI Verify Foundation có trụ sở tại Singapore bao gồm các thành viên tiên phong là Cơ quan Phát triển Truyền thông Infocomm (IMDA), gã khổng lồ công nghệ Google và Microsoft và các công ty nổi tiếng trong lĩnh vực AI bao gồm DBS, Meta và Adobe.
XÂY DỰNG NỀN TẢNG ĐÁNG TIN CẬY DÀNH CHO AI
Việc ra mắt AI Verify Foundation sẽ hỗ trợ phát triển và sử dụng AI Verify để giải quyết các rủi ro về AI. AI Verify là bộ công cụ phần mềm và khuôn khổ kiểm tra quản trị AI do IMDA phát triển lần đầu với sự tư vấn của các công ty thuộc các lĩnh vực và quy mô khác nhau.
Theo tuyên bố, nền tảng này sẽ giúp thúc đẩy cộng đồng đóng góp cho các khung thử nghiệm AI, cơ sở mã, tiêu chuẩn và các phương pháp hay nhất, đồng thời tạo ra một nền tảng trung lập để cộng tác mở và chia sẻ ý tưởng về thử nghiệm và quản lý AI.
Ra mắt như một sản phẩm thí điểm quốc tế vào năm ngoái, AI Verify đã thu hút sự quan tâm của hơn 50 công ty địa phương và đa quốc gia bao gồm IBM, Dell, Hitachi và UBS.
AI Verify sẽ mang lại lợi ích cho cộng đồng toàn cầu bằng cách cung cấp khung và bộ công cụ thử nghiệm nhất quán với các nguyên tắc quản trị AI được quốc tế công nhận, ví dụ như các nguyên tắc từ Liên minh Châu Âu (EU), Tổ chức Hợp tác Kinh tế và Phát triển (OECD) và Singapore.
Bộ công cụ AI Verify cung cấp giao diện tích hợp để tạo báo cáo thử nghiệm bao gồm các nguyên tắc quản trị khác nhau cho hệ thống AI. Bộ công cụ cho phép các công ty minh bạch hơn về AI bằng cách chia sẻ các báo cáo này với các bên liên quan của họ.
Bộ công cụ AI Verify đã thu hút sự quan tâm từ các công ty như IBM và Dell khi phần mềm được thử nghiệm vào năm 2022. Bộ công cụ này hiện có sẵn cho tất cả các công ty, giúp kiểm tra chất lượng của các thuật toán AI của họ dựa trên các nguyên tắc do nền tảng đặt ra bao gồm cả mức độ hiệu quả của một thuật toán AI.
NỖ LỰC CHUNG ĐỂ TẠO RA MÔI TRƯỜNG AI AN TOÀN
Tổ chức phi lợi nhuận này đã đặt mục tiêu vào AI tổng quát – nền tảng để xây dựng các ứng dụng khác. Khi ngày càng có nhiều công ty tích hợp các mô hình AI tổng quát vào dịch vụ của họ, các câu hỏi đang được đặt ra về độ an toàn và độ tin cậy của chúng.
Các mô hình AI cũng có thể bị sai lệch nếu tập dữ liệu huấn luyện bị sai lệch.
AI tổng quát cũng có thể được sử dụng bởi những kẻ lừa đảo với mục đích tạo mã độc hại, khởi chạy các cuộc tấn công mạng hoặc tin tức giả mạo và mạo danh người khác bằng cách tạo ra các hình ảnh giống như thật.
IMDA cho biết cơ quan này đã xây dựng AI Verify để giúp các tổ chức chứng minh một cách khách quan về AI có trách nhiệm thông qua các bài kiểm tra tiêu chuẩn hóa.
Công ty cho rằng các công nghệ thử nghiệm AI mặc dù đang phát triển nhưng vẫn còn non trẻ và cần phải thu hút những chuyên gia giỏi nhất từ khắp các ngành và cộng đồng nghiên cứu để phát triển lĩnh vực này.
Josephine Teo, đồng thời là Bộ trưởng thứ hai của Bộ Nội vụ, trong bài phát biểu khai mạc cho biết ngành công nghiệp cần tích cực hướng AI đến những mục đích sử dụng có lợi và tránh xa những mục đích có hại. Bà nói “Đây là điều cốt lõi của việc sử dụng AI. Chúng tôi hy vọng biến Singapore thành một nơi thử nghiệm lý tưởng”.
Bà đã đưa ra các ví dụ về việc sử dụng AI trong dịch vụ công bao gồm việc giúp xử lý phản hồi từ người dân và cách phần mềm giúp Singapore cải thiện chẩn đoán lâm sàng và sức khỏe của bệnh nhân. Các công cụ phát hiện lừa đảo cũng rà soát 120.000 trang web hàng ngày để loại bỏ các trang web giả mạo.
Bà Elham Tabassi, giám đốc Phòng thí nghiệm Công nghệ Thông tin của Viện Tiêu chuẩn và Công nghệ Singapore, cho biết kiến thức mà quỹ chia sẻ sẽ giúp làm rõ cách thử nghiệm các mô hình AI trước khi chúng được công bố rộng rãi.