Cuối tuần qua, Meta, công ty sở hữu Facebook, đã công bố một loạt các mô hình AI mới từ bộ phận nghiên cứu của mình, bao gồm một công cụ được gọi là "Trình đánh giá tự học". Công cụ này có thể mở ra hướng đi mới giúp giảm bớt sự tham gia của con người trong quá trình phát triển AI.
Trước đó, vào tháng 8, Meta đã giới thiệu công cụ này trong một bài viết, trong đó giải thích rằng công nghệ này dựa trên kỹ thuật "chuỗi suy nghĩ" tương tự như các mô hình GPT-4 mới nhất của OpenAI. Kỹ thuật này giúp AI chia nhỏ các vấn đề phức tạp thành các bước nhỏ hơn, giúp cải thiện độ chính xác của phản hồi, đặc biệt là trong các lĩnh vực như khoa học, mã hóa và toán học.
SỬ DỤNG DỮ LIỆU DO AI TẠO RA ĐỂ HUẤN LUYỆN CÁC MÔ HÌNH AI
Điểm đặc biệt của nghiên cứu này là các nhà khoa học tại Meta đã sử dụng hoàn toàn dữ liệu do AI tạo ra để huấn luyện mô hình, không cần đến sự can thiệp của con người trong giai đoạn này. Việc AI có khả năng đánh giá AI một cách đáng tin cậy là bước tiến quan trọng, mở ra con đường để phát triển các tác nhân AI tự chủ, có thể tự học hỏi từ những sai lầm của chính mình.
Nhiều chuyên gia AI hình dung rằng các tác nhân AI trong tương lai sẽ là trợ lý kỹ thuật số thông minh, có khả năng thực hiện nhiều nhiệm vụ mà không cần sự can thiệp của con người. Những mô hình tự cải thiện như vậy có thể thay thế phương pháp "Học tăng cường từ phản hồi của con người" (RLHF) hiện tại, một quy trình tốn kém và kém hiệu quả vì phải dựa vào các chuyên gia để dán nhãn dữ liệu và xác minh tính chính xác của các phản hồi.
Học tăng cường từ phản hồi của con người (RLHF) là một kỹ thuật trong học máy, trong đó tác nhân AI học từ phản hồi do con người cung cấp, thay vì chỉ dựa vào các hàm được thiết kế. RLHF được sử dụng trong nhiều ứng dụng khác nhau, bao gồm cải thiện hiệu suất và khả năng thích ứng của các hệ thống thông minh. Tuy nhiên, quy trình này khá tốn kém và tính hiệu quả không cao.
Jason Weston, một trong những nhà nghiên cứu của Meta, cho biết: "Chúng tôi hy vọng rằng, khi AI ngày càng tiến bộ, nó sẽ tự kiểm tra và cải thiện công việc của mình, thậm chí có thể vượt qua trình độ của con người". Ông cũng nhấn mạnh rằng khả năng tự học và tự đánh giá là yếu tố then chốt để AI đạt đến trình độ vượt trội.
Ngoài Meta, các công ty khác như Google và Anthropic cũng đang nghiên cứu về Học tăng cường từ phản hồi của AI (RLAIF). Tuy nhiên, khác với Meta, các công ty này thường không công khai các mô hình của họ để cộng đồng sử dụng.
TRANH CÃI VẤN ĐỀ ĐẠO ĐỨC TRONG CÁCH ĐÀO TẠO AI
Cùng với "Trình đánh giá tự học", Meta còn phát hành một số công cụ AI khác như bản cập nhật cho mô hình nhận dạng hình ảnh Segment Anything, một công cụ giúp tăng tốc thời gian phản hồi của các mô hình ngôn ngữ lớn (LLM), và các tập dữ liệu hỗ trợ nghiên cứu về vật liệu vô cơ mới.
Đối với các mô hình AI của Meta, bao gồm cả Self-Taught Evaluator, đã gây ra câu hỏi về đạo đức liên quan đến việc giảm thiểu sự tham gia của con người trong quá trình phát triển AI. Các nhà phê bình cho rằng điều này có thể dẫn đến thiếu trách nhiệm và minh bạch trong quá trình ra quyết định của AI.
Việc sử dụng các tập dữ liệu lớn để đào tạo các mô hình AI đặt ra nhiều mối quan ngại về quyền riêng tư và bảo mật dữ liệu. Đảm bảo rằng dữ liệu người dùng được xử lý một cách trách nhiệm và đạo đức là một thách thức lớn. Trước đó, Meta có thừa nhận đang dùng cả nội dung bài viết và ảnh chia sẻ công khai trên Facebook và Instagram để đào tạo mô hình AI mới.
Theo Reuters, khi công nghệ AI phát triển, các khung pháp lý cố gắng theo kịp tiến bộ này. Meta phải điều hướng các cảnh quan pháp lý phức tạp để đảm bảo tuân thủ các quy định về bảo vệ dữ liệu và đạo đức AI. Xây dựng lòng tin với người dùng và các bên liên quan rất quan trọng cho việc triển khai thành công các công nghệ AI.