Google, Meta và OpenAI là ba trong số các công ty ký cam kết an toàn AI tại Hội nghị Thượng đỉnh AI Seoul. Đáng chú ý, họ sẵn sàng ngừng hoạt động các hệ thống trí tuệ nhân tạo tiên tiến của mình nếu chúng không thể kiểm soát những rủi ro nghiêm trọng nhất.
Hội nghị này diễn ra trong bối cảnh các chính phủ và cơ quan toàn cầu nỗ lực thiết kế các rào chắn công nghệ trong bối cảnh lo ngại về rủi ro mà nó gây ra cho cuộc sống nhân loại.
HỘI NGHỊ THƯỢNG ĐỈNH AI SEOUL TIẾP NỐI HỘI NGHỊ BLETCHLEY
16 công ty AI đã đăng ký cam kết an toàn còn bao gồm Amazon, Microsoft, Samsung, IBM, xAI, Mistral AI của Pháp, Zhipu.ai của Trung Quốc và G42 của Các Tiểu vương quốc Ả Rập Thống nhất. Tất cả tuyên bố sẽ đảm bảo các mô hình AI tiên tiến nhất của mình sẽ an toàn cho người sử dụng hiện tại và tương lai mai sau của nhân loại.
Theo một số nhà quan sát, đây không phải là lần đầu tiên các công ty AI đưa ra những cam kết an toàn tự nguyện. Amazon, Google, Meta và Microsoft từ năm ngoái cũng đăng ký các biện pháp bảo vệ tự nguyện do Nhà Trắng làm trung gian để đảm bảo sản phẩm của họ được an toàn trước khi phát hành.
Trong một tuyên bố, chính phủ Anh, đồng tổ chức sự kiện, cho biết các nhà lãnh đạo từ 10 quốc gia và Liên minh Châu Âu sẽ “nâng cao hiểu biết chung về an toàn AI và điều chỉnh công việc của họ về nghiên cứu AI” đã được thành lập bởi Anh, Mỹ, Nhật Bản và Singapore kể từ Hội nghị Thượng đỉnh về An toàn AI vào tháng 11 tại Công viên Bletchley ở Vương quốc Anh
Tổng thư ký Liên Hợp Quốc, Antonio Guterres phát biểu trong phiên khai mạc rằng bảy tháng sau Hội nghị Bletchley “Chúng ta đang chứng kiến những tiến bộ công nghệ thay đổi cuộc sống và những rủi ro mới đe dọa đến tính mạng - từ thông tin sai lệch đến giám sát hàng loạt cho đến triển vọng về vũ khí tự động gây chết người”.
Người đứng đầu Liên Hợp Quốc cho biết trong một bài phát biểu video rằng cần có các biện pháp bảo vệ phổ quát và đối thoại thường xuyên về AI. Ông nói: “Chúng ta không thể cứ mãi mộng du đến một tương lai đen tối, nơi sức mạnh của AI bị kiểm soát bởi một số ít người - hoặc tệ hơn là bởi các thuật toán ngoài tầm hiểu biết của con người”.
NỘI DUNG CAM KẾT TẠI HỘI NGHỊ THƯỢNG ĐỈNH SEOUL
Thông qua Hội nghị, các gã khổng lồ công nghệ Amazon, Google, Meta và Microsoft cũng như OpenAI do Sam Altman lãnh đạo, xAI của Elon Musk và nhà phát triển Trung Quốc Zhipu AI, sẽ sớm xuất bản các khuôn khổ phác thảo cách họ đo lường rủi ro của các mô hình AI “biên giới” của họ.
Trước đó, tại Hội nghị Thượng đỉnh Bletchley, Thủ tướng Anh Rishi Sunak tuyên bố: “Những cam kết này đảm bảo các công ty AI hàng đầu thế giới sẽ cung cấp sự minh bạch và trách nhiệm giải trình về kế hoạch phát triển AI an toàn của họ. Nó đặt tiền lệ cho các tiêu chuẩn toàn cầu về an toàn AI sẽ mở ra những lợi ích của công nghệ biến đổi này.”
Trong trường hợp rủi ro trở nên nghiêm trọng và “không thể chấp nhận được”, các công ty AI sẽ phải “tắt công tắc” và ngừng phát triển hoặc triển khai các mô hình và hệ thống của mình nếu không thể giảm thiểu rủi ro.
Giám đốc điều hành Aiden Gomez của Cohere, một trong những công ty AI đã ký cam kết cho biết: “Điều quan trọng là chúng tôi phải tiếp tục xem xét tất cả các rủi ro có thể xảy ra, đồng thời ưu tiên nỗ lực vào những rủi ro có nhiều khả năng gây ra vấn đề nhất nếu không được giải quyết đúng cách”
VƯƠNG QUỐC ANH ĐẦU TƯ 8,5 TRIỆU BẢNG ANH ĐỂ NGHIÊN CỨU CÁC RỦI RO AI
Các chính phủ trên thế giới đang nỗ lực xây dựng các quy định cho AI ngay cả khi công nghệ này có những tiến bộ nhanh chóng và sẵn sàng biến đổi nhiều khía cạnh của cuộc sống hàng ngày, từ giáo dục và nơi làm việc đến bản quyền và quyền riêng tư. Có những lo ngại rằng những tiến bộ trong AI có thể loại bỏ việc làm, truyền bá thông tin sai lệch hoặc được sử dụng để tạo ra vũ khí sinh học mới.
Hội nghị lần này mới chỉ là một trong nhiều nỗ lực về quản trị AI. Đại hội đồng Liên Hợp Quốc đã thông qua nghị quyết đầu tiên về việc sử dụng an toàn các hệ thống AI, trong khi Mỹ và Trung Quốc gần đây đã tổ chức các cuộc đàm phán cấp cao đầu tiên về AI và Đạo luật AI đầu tiên trên thế giới của Liên minh Châu Âu sẽ có hiệu lực vào cuối năm nay.
Dan Hendrycks, Cố vấn an toàn của xAI, cho biết các cam kết tự nguyện sẽ giúp “đặt nền tảng cho các quy định cụ thể trong nước”.
Trong khi đó, Thư ký khoa học Vương quốc Anh, Michelle Donelan cho biết Anh cung cấp khoản tài trợ lên tới 8,5 triệu bảng Anh để nghiên cứu các rủi ro liên quan đến AI như deepfake và tấn công mạng.
Bà cũng nhắc lại lập trường của Vương quốc Anh rằng còn quá sớm để xem xét luật pháp để thực thi an toàn AI: “Nếu chính phủ Anh ban hành luật về vấn đề này vào năm ngoái thì giờ nó có thể đã lỗi thời”.