Trong suốt chiến dịch tranh cử năm 2024, ông Donald Trump không nhắc nhiều về kế hoạch phát triển ngành công nghiệp trí tuệ nhân tạo (AI) ở Hoa Kỳ, theo Euronews Next.
Cam kết duy nhất của đại diện Đảng Cộng hòa về AI là bãi bỏ sắc lệnh hành pháp từ thời Tổng thống Biden vì cho rằng sắc lệnh đang "cản trở đổi mới trong lĩnh vực AI" và "áp đặt ý tưởng cực đoan đối với sự phát triển của công nghệ".
Ngoài ra, chính quyền sắp tới của ông Trump cũng tuyên bố sẽ "phát triển AI dựa trên quyền tự do ngôn luận và sự thịnh vượng của con người".
Kể từ chiến thắng, Tổng thống đắc cử đã bổ sung vào nội các rất nhiều nhân vật cả ủng hộ lẫn phản đối quy định về AI. Một số báo cáo cho rằng chính quyền mới đang xem xét các dự án ở Manhattan nhằm phát triển công nghệ quân sự AI. Và ông Trump cũng mong muốn ứng dụng AI trong toàn bộ bộ máy chính phủ.
BÃI BỎ SẮC LỆNH HÀNH PHÁP VỀ AI
Sắc lệnh hành pháp năm 2023 của Tổng thống Biden phục vụ hai mục đích, theo ông Andrew Strait, Phó Giám đốc Tổ chức tư vấn AI Ada Lovelace đặt trụ sở tại Vương quốc Anh.
Đầu tiên là tạo ra khuôn khổ thiết lập về cách công nghệ sẽ được sử dụng trong vấn đề an ninh quốc gia. Thứ hai là khuyến khích "tập hợp các chiến lược" và "lộ trình" về cách chính phủ Mỹ có thể kiểm soát thuật toán AI tác động đến khả năng tiếp cận của người dân với hỗ trợ nhà nước, chẳng hạn như phúc lợi bảo hiểm, nhà ở, chăm sóc sức khỏe hay giáo dục, ông Strait tiếp tục.
Vào năm 2020, Tổng thống Donald Trump đã ký sắc lệnh hành pháp xác định AI đáng tin cậy, đảm bảo các mô hình hợp lệ, có trách nhiệm và minh bạch, bà Susan Ariel Aaronson, Giáo sư nghiên cứu về các vấn đề quốc tế tại Đại học George Brown (Canada), cho biết. Sắc lệnh hành pháp được ví như “hướng dẫn quy định về AI đầu tiên trên thế giới”, theo chính phủ thời bấy giờ công bố.
LĨNH VỰC NGHIÊN CỨU VỀ RỦI RO AI CÓ THỂ BỊ ẢNH HƯỞNG
Một trong những sáng kiến quan trọng theo sắc lệnh hành pháp của Tổng thống Biden là Viện An toàn AI Hoa Kỳ, cơ quan độc lập nghiên cứu các rủi ro liên quan đến AI và cách ứng dụng công nghệ an toàn, Phó Giám đốc Strait nhận định.
Viện An toàn AI Hoa Kỳ chịu trách nhiệm "thúc đẩy nghiên cứu khoa học đo lường về an toàn AI", theo tầm nhìn chiến lược.
Trong một vài tháng qua, Viện đã thúc đẩy phần lớn Big Tech đưa ra quy định đánh giá rủi ro AI và tiết lộ các loại khuôn khổ đang áp dụng cho trí tuệ nhân tạo, ông Strait tiếp tục.
Chẳng hạn, Viện từng làm việc với nhiều Big Tech xem liệu các mô hình AI có tạo ra nội dung phân biệt chủng tộc hoặc độc hại hay không, đồng thời đo lường tần suất chatbot AI "ảo giác" hoặc trả lời gây hiểu lầm.
Tổng thống Biden vẫn có thể bảo vệ Viện An toàn AI bằng cách yêu cầu Quốc hội đưa cơ quan vào luật trước khi kết thúc nhiệm kỳ, bà Aaronson chia sẻ, nhưng không đưa ra phán đoán về mức độ khả thi của đề xuất.
Ý KIẾN TRÁI CHIỀU XUNG QUANH TỔNG THỐNG DONALD TRUMP
Chính quyền mới của Tổng thống Trump hiện có rất nhiều nhân vật mang quan điểm khác nhau về quy định AI, ông Strait nhận xét.
Nhân vật đáng chú ý phải kể tới tỷ phú Elon Musk, người ủng hộ mạnh mẽ việc kiểm soát AI nhằm giải quyết rủi ro thảm khốc tiềm ẩn của công nghệ mới.
Tỷ phú Musk đã được ông Trump bổ nhiệm làm lãnh đạo Bộ Hiệu quả Chính phủ (DOGE).
CEO Musk cũng ủng hộ Dự luật 1047 của California, dự luật sẽ tạo ra "nghĩa vụ chăm sóc" cho các nhà phát triển nhằm giảm thiểu các loại rủi ro khiến hệ thống AI trở nên mất kiểm soát. Tuy nhiên, dự luật cuối cùng không thể triển khai bởi quyền phủ quyết của Thống đốc Gavin Newsom vào tháng 9/2024.
Đồng lãnh đạo DOGE, ông Vivek Ramaswamy, cũng yêu cầu nên có nhiều quy định hơn về AI.
"Giống như việc công ty hoá chất không thể xả thải ra sông suối ảnh hưởng tới môi trường sống, nếu bạn đang phát triển thuật toán AI có tác động tiêu cực đến con người, bạn phải chịu trách nhiệm về điều đó", cựu ứng cử viên Tổng thống của Đảng Cộng hòa bày tỏ trong cuộc thảo luận trên truyền hình vào năm ngoái.
Đại diện cho quan điểm trái ngược rằng nên chống lại các quy định AI chính là Phó Tổng thống đắc cử JD Vance, trước đây được biết tới với tư cách nhà đầu tư mạo hiểm kiêm Giám đốc Điều hành Công nghệ Sinh học tại Thung lũng Silicon.
Ông Vance tuyên bố với một ủy ban Thượng viện vào tháng 7 vừa qua rằng các công ty quá tập trung vào việc điều chỉnh AI vì lo ngại mối đe dọa mà công nghệ gây ra. Những quy định có thể khiến công ty khó đổi mới hơn.
Ông Marc Andreessen, người đứng đầu quỹ đầu tư mạo hiểm có ảnh hưởng ở Thung lũng Silicon Andreessen Horowitz (a16z), cũng lên tiếng phản đối quy định AI.