logo

Liên Hợp Quốc có kế hoạch định hình tương lai của AI như thế nào?

Blog Change

Khi Đại hội đồng Liên Hiệp Quốc tụ họp tuần này tại New York, Đại diện đặc biệt của Tổng Thư ký Liên Hiệp Quốc về công nghệ, Amandeep Gill, đã tổ chức một sự kiện mang tựa đề "Quản lý Trí tuệ Nhân tạo (AI) cho Nhân loại," trong đó những người tham gia đã thảo luận về những rủi ro mà AI có thể mang lại và những thách thức trong việc đạt được sự hợp tác quốc tế về trí tuệ nhân tạo.

Tổng thư ký António Guterres và Gill cho biết họ tin rằng một cơ quan mới của Liên Hợp Quốc sẽ được yêu cầu để giúp thế giới hợp tác trong việc quản lý công nghệ mạnh mẽ này. Nhưng các vấn đề mà thực thể mới sẽ tìm cách giải quyết và cấu trúc của nó vẫn chưa được xác định, và một số nhà quan sát nói rằng các kế hoạch đầy tham vọng cho hợp tác toàn cầu như thế này hiếm khi nhận được sự hỗ trợ cần thiết của các quốc gia hùng mạnh.

Gill đã dẫn đầu những nỗ lực để làm cho các hình thức công nghệ tiên tiến trở nên an toàn hơn trước đây. Ông là chủ tịch của Nhóm các Chuyên gia Chính phủ về Các Vũ khí Truyền thống Cụ thể khi Chiến dịch Ngừng Các Robot Sát thủ, mục tiêu là buộc các chính phủ cấm phát triển các hệ thống vũ khí tự động gây chết người, đã không thể thu hút sự ủng hộ của các siêu cường toàn cầu bao gồm Mỹ và Nga. Bây giờ, Gill đang hướng dẫn một nỗ lực thậm chí còn tham vọng hơn để thúc đẩy sự hợp tác quốc tế về trí tuệ nhân tạo (AI).

AI đã phát triển với tốc độ nhanh chóng trong vài năm qua, và các chuyên gia không mong đợi sự tiến bộ này sẽ chậm lại bất cứ lúc nào. Tác động của AI sẽ được cảm nhận xa hơn ngoài biên giới của các quốc gia mà nó được phát triển, khiến các nhà lãnh đạo thế giới và các nhà công nghệ kêu gọi sự hợp tác quốc tế trong các vấn đề liên quan đến AI.

Tại một cuộc họp của Hội đồng Bảo an Liên Hợp Quốc vào tháng 7, ông Guterres đã đưa ra trường hợp Liên Hợp Quốc là diễn đàn thích hợp cho sự hợp tác này. Cơ quan tư vấn cấp cao về trí tuệ nhân tạo, tư cách thành viên sẽ được công bố vào tháng Mười, là bước tiếp theo hướng tới việc thành lập một cơ quan .AI Liên Hợp Quốc.

Ủy ban tư vấn cấp cao

Gill, người từng là Giám đốc điều hành của Ban Tư vấn Cao cấp của Liên Hiệp Quốc về Hợp tác Kỹ thuật số từ năm 2018 đến 2019, đã được bổ nhiệm làm Đại diện đặc biệt về công nghệ vào tháng 6 năm 2022.

Vào tháng Tám năm nay, văn phòng của Đại diện đặc biệt về công nghệ đã mở quy trình lựa chọn các chuyên gia để phục vụ trong Ban Tư vấn Cao cấp về Trí tuệ Nhân tạo thông qua một lời kêu gọi ứng cử công khai.

Một lời kêu gọi ứng cử riêng biệt đã được gửi đến các quốc gia thành viên và chứa các điều khoản về việc thực hiện của Ban. Điều này đã chỉ rõ rằng Ban sẽ bao gồm tối đa 32 thành viên đến từ nhiều lĩnh vực và có sự kết hợp về giới tính, độ tuổi, đại diện địa lý và lĩnh vực tập trung.

Gill cho biết trong cuộc phỏng vấn với TIME vào ngày 30 tháng Tám rằng văn phòng của ông đã nhận được hơn 1.600 ứng cử thông qua lời kêu gọi công khai. Kết hợp với các ứng cử từ các quốc gia thành viên, ông dự kiến sẽ có hơn 2.000 ứng cử. Văn phòng của Đại diện đặc biệt về công nghệ, với đóng góp từ các tổ chức Liên Hiệp Quốc khác, sẽ tạo danh sách ngắn từ đó Tổng Thư ký sẽ lựa chọn 32 thành viên, ông nói. Ban sẽ họp lần đầu vào tháng Mười.

Các điều khoản tham khảo trong tài liệu mà TIME đã xem và được Gill xác nhận, chỉ định rằng Ban sẽ sản xuất một báo cáo tạm thời trình bày "một phân tích cấp cao về các tùy chọn cho sự quản lý quốc tế của trí tuệ nhân tạo" trước ngày 31 tháng 12 năm 2023. Một báo cáo thứ hai, cần được nộp trước ngày 31 tháng 8 năm 2024, "có thể cung cấp các đề xuất cụ thể về chức năng, hình thức và thời gian cho một cơ quan quốc tế mới về quản lý trí tuệ nhân tạo."

Aki Enkenberg, trưởng nhóm về sáng tạo và hợp tác kỹ thuật số tại Bộ Ngoại giao Phần Lan, mô tả quyết định chỉ định rằng Ban sẽ đưa ra các đề xuất liên quan đến việc thành lập một cơ quan quốc tế mới là một "động thái vội vàng." Ông cho rằng hầu hết quản lý quốc tế cần thiết cho trí tuệ nhân tạo có thể được tạo điều kiện bởi các tổ chức hiện có trong hệ thống Liên Hiệp Quốc, và nói rằng cần phải tiến hành phân tích để đánh giá xem có thiếu sót nào trong hệ thống Liên Hiệp Quốc trước khi đề xuất việc thành lập một cơ quan mới. Gill phủ nhận rằng các điều khoản tham khảo làm cho các kết quả của Ban có xu hướng đề xuất việc thành lập một cơ quan mới.

Khi được hỏi liệu quy mô của Ban tư vấn có thể làm cho nó trở nên không thể kiểm soát, và do đó có thể khiến cho Ban Thư ký có ảnh hưởng quá lớn đối với nội dung báo cáo, Gill cho biết Ban Thư ký sẽ không cố gắng ảnh hưởng đến các kết quả của Ban.

Vào tháng Chín năm 2024, Liên Hiệp Quốc sẽ tổ chức Hội nghị Thượng đỉnh Về Tương Lai của họ. Đến lúc đó, Gill cho biết ông hy vọng rằng các kết quả của Ban sẽ đã cung cấp cho các quốc gia thành viên thông tin cần thiết để quyết định liệu họ có nên và làm thế nào họ nên hỗ trợ việc thành lập một cơ quan AI Liên Hiệp Quốc. "Đó sẽ là thời điểm thích hợp để cơ quan này được tạo ra," ông nói. "Hội nghị thượng đỉnh về tương lai là cơ hội cấp lãnh đạo."

Amandeep Singh Gill, Đặc phái viên của Tổng thư ký Liên hợp quốc về công nghệ, phát biểu tại Hội nghị thượng đỉnh thường niên Concordia ngày 19/9/2022 ở thành phố New York

Một cơ quan năng lượng nguyên tử cho AI

Trong một bài đăng trên blog được công bố vào tháng Năm, các nhà lãnh đạo cấp cao của công ty đứng sau ChatGPT, OpenAI, lập luận rằng một cái gì đó giống như Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA) cho AI có thể được yêu cầu trong tương lai để quản lý an toàn các hệ thống trí tuệ nhân tạo tinh vi hơn. "Bất kỳ nỗ lực [siêu trí tuệ] nào trên một ngưỡng khả năng nhất định (hoặc các nguồn lực như tính toán) sẽ cần phải tuân theo một cơ quan quốc tế có thể kiểm tra hệ thống, yêu cầu kiểm toán, kiểm tra việc tuân thủ các tiêu chuẩn an toàn, đặt ra các hạn chế về mức độ triển khai và mức độ bảo mật", bài đăng trên blog cho biết.

AEA, được thành lập vào năm 1957, tiến hành kiểm tra để đảm bảo rằng các quốc gia không sở hữu vũ khí hạt nhân không phát triển vũ khí hạt nhân và cung cấp hợp tác kỹ thuật cho việc phát triển năng lượng hạt nhân cho mục đích hòa bình.

Vào tháng Sáu, Guterres đã thể hiện sự phấn khích đối với ý tưởng về một cơ quan tương tự cho AI, nói: "Tôi sẽ ủng hộ ý tưởng rằng chúng ta có thể có một cơ quan trí tuệ nhân tạo... lấy cảm hứng từ cái mà cơ quan quốc tế về năng lượng nguyên tử đang làm ngày nay."

Nhưng việc sao chép IAEA cho Trí tuệ Nhân tạo chỉ là một trong những lựa chọn tiềm năng. Một bài báo, mà Gill đã tham khảo trong cuộc phỏng vấn với TIME, được xuất bản vào tháng Bảy bởi các nhà nghiên cứu từ các phòng thí nghiệm AI nổi tiếng Google DeepMind và OpenAI và các tổ chức nghiên cứu học thuật và phi lợi nhuận khác nhau, đã đưa ra bốn hình thức có thể có mà một cơ quan AI quốc tế có thể thực hiện mà không loại trừ lẫn nhau.

Một tùy chọn là một cơ quan giống như IAEA có thể phát triển các tiêu chuẩn toàn ngành và theo dõi các bên liên quan để đánh giá xem các tiêu chuẩn đó có được tuân thủ hay không. Một đề xuất khác là một tổ chức theo mô hình của Ủy ban Liên chính phủ về Biến đổi khí hậu (IPCC) giúp thống nhất quan điểm của các chuyên gia về các vấn đề kỹ thuật. Cũng được đề xuất trong báo cáo là quan hệ đối tác quốc tế giữa khu vực công và tư nhân, điều này sẽ đảm bảo quyền truy cập bình đẳng vào AI có lợi, như Gavi, Liên minh vắc-xin. Đề xuất cuối cùng là hợp tác quốc tế về nỗ lực nghiên cứu an toàn AI, tương tự như Tổ chức Nghiên cứu Hạt nhân Châu Âu (CERN).

Trong khi ông Gill nói rằng Cơ quan Cố vấn Cấp cao phải xác định mô hình nào (nếu có) là phù hợp nhất, ông đề xuất rằng lựa chọn thứ tư – một nỗ lực nghiên cứu quốc tế – là một "loại vấn đề hợp tác quốc tế cổ điển mà một cơ quan Liên Hiệp Quốc có thể đóng góp vai trò”.

Một số chuyên gia cho rằng một cơ quan giống như IAEA về AI sẽ khó nhận được sự ủng hộ giữa các nhà hoạch định chính sách. Đó là bởi vì nó sẽ yêu cầu các quốc gia như Hoa Kỳ và Trung Quốc cho phép các thanh sát viên quốc tế truy cập đầy đủ vào các phòng thí nghiệm AI tiên tiến nhất trong khu vực pháp lý của họ trong nỗ lực tránh những rủi ro chưa thành hiện thực.

Mức độ hợp tác quốc tế giữa các quốc gia với mục tiêu quản lý các công nghệ nguy hiểm đang ở "mức thấp nhất trong 30 năm", theo lời của Bill Drexel, một cựu cộng tác viên tại Trung tâm Nghiên cứu Về Quân sự "Center for a New American Security". "Cố gắng đạt được một thỏa thuận có ý nghĩa thực sự từ mức cơ bản đó với một công nghệ mà vẫn đang có rủi ro và lợi ích của nó đang được xác định dường như là một nhiệm vụ rất khó khăn."

Drexel cho rằng có thể cần một sự cố liên quan đến AI nghiêm trọng để tạo ra ý chí chính trị cần thiết để ký kết một thỏa thuận quan trọng giữa các quốc gia. Trong thời gian này, ông nói, có thể nên thiết lập một cơ quan quốc tế, có thể thông qua Liên Hiệp Quốc hoặc thông qua một nhóm đa phương hoặc hai bên, mà gắn liền rất ít với các bên tham gia, có thể được sử dụng như một nền tảng cho hợp tác cụ thể hơn nếu có ý chí chính trị.

Gill, một cựu nhà sử học nguyên tử đã viết một cuốn sách về hội nghị bảo đảm an ninh nguyên tử, đồng tình. "Sau khi nghiên cứu lịch sử của IAEA, tôi không tin có một phép cắt và dán," ông nói. "Nhưng ai biết được, vào một ngày nào đó, nếu có nguy cơ ngày càng gia tăng, bạn có thể mở rộng sự kiểm soát quốc tế."

Một đề xuất về mô hình quản lý có khả năng chính trị hợp lý hơn và có thể được mở rộng trong tương lai đến từ một bản sách trắng được công bố vào tháng Tám bởi các nhà nghiên cứu từ nhiều tổ chức học thuật và phi lợi nhuận khác nhau, cùng với tập đoàn công nghệ lớn Microsoft. Trong bài báo này, đề xuất tạo ra Tổ chức Trí tuệ Nhân tạo Quốc tế (IAIO) để hợp tác với các cơ quan quản lý quốc gia về tiêu chuẩn và chứng nhận các lãnh thổ, thay vì theo dõi từng công ty AI cá nhân. Theo mô hình này, các chính phủ cá nhân sẽ thực hiện các tiêu chuẩn bằng cách chỉ cho phép các công ty trong các lãnh thổ đáp ứng các tiêu chuẩn đó hoạt động trên thị trường trong nước của họ. Họ cũng sẽ cần hạn chế việc xuất khẩu các thành phần AI, như chip máy tính, đến các quốc gia không đáp ứng các tiêu chuẩn.

Robert Trager, một trong những tác giả chính của bản sách trắng và là người điều hành về quản lý quốc tế tại Trung tâm Quản lý Trí tuệ Nhân tạo, cho biết việc chứng nhận ở mức lãnh thổ làm cho mô hình này ít rắc rối hơn, có nghĩa là các quốc gia mạnh có khả năng ký kết hơn.

Rủi ro an toàn AI có thể không dễ dàng được ngăn chặn trong biên giới, vì vậy điều cần thiết là tất cả các quốc gia nơi các hệ thống AI mạnh mẽ đang được phát triển - chủ yếu là Hoa Kỳ và Trung Quốc - được đưa vào bất kỳ thỏa thuận quốc tế nào. Sihao Huang, một nhà nghiên cứu tại Đại học Oxford, người đã dành năm qua để nghiên cứu quản trị AI ở Bắc Kinh, lập luận rằng sự tập trung chặt chẽ vào các vấn đề chung, chẳng hạn như "hiểu cách chúng ta có thể đánh giá các mô hình về rủi ro an toàn sinh học", sẽ được yêu cầu nếu Trung Quốc đồng ý với một thỏa thuận quốc tế.

Đây có thể là một thương vụ khó khăn hơn với Nga. Trong một cuộc họp của Hội đồng Bảo an Liên Hợp Quốc vào tháng Bảy, Dmitry Polyanskiy, phó đại diện thường trực thứ nhất của Liên bang Nga tại Liên Hợp Quốc, nói rằng Nga "phản đối việc thành lập các cơ quan giám sát siêu quốc gia về AI".

Mặc dù hai trong số các tổ chức truyền cảm hứng cho ý tưởng của IAIO - Tổ chức Hàng không Dân dụng Quốc tế và Tổ chức Hàng hải Quốc tế - là các cơ quan của Liên Hợp Quốc, Liên Hợp Quốc không phải là diễn đàn duy nhất nên được xem xét, Trager nói. Ông lập luận rằng có nhiều mô hình cho phép một tập hợp rộng lớn các bên liên quan tham gia vào quản trị.

Hợp tác quốc tế "thực sự rườm rà, chậm chạp và nói chung là không hiệu quả", Drexel nói. Thay vào đó, có thể "đưa ra các diễn đàn song phương hoặc đa phương hạn chế hơn để cố gắng quản lý [các hệ thống AI tiên tiến] và thậm chí mở rộng quy mô với việc mở rộng các công ty có thể đào tạo các mô hình biên giới".

Gill nói rằng Liên Hợp Quốc, một tổ chức liên chính phủ phổ quát duy nhất có kinh nghiệm quản lý các công nghệ mới, có vị trí tốt để tổ chức một hiệp ước hoặc tổ chức quản trị AI.

Chủ nghĩa lý tưởng đã dẫn đến sự thất bại của những nỗ lực trước đây – như Chiến dịch ngăn chặn robot sát thủ – để quản lý AI trên phạm vi quốc tế, Trager nói. "Điều này giống như đã xảy ra trong các cuộc thảo luận về vũ khí tự động tử vong", ông nói. Mặc dù nỗ lực này có ý định tốt là cấm một số hình thức phát triển và sử dụng cụ thể, nhưng Trager cho biết: "Điều đó sẽ không xảy ra. Không bao giờ xảy ra."

Mặc dù có kinh nghiệm về cuộc đàm phán về hệ thống vũ khí tự động tử vong, Gill vẫn kiên định. "Chúng ta phải thử," ông nói. "Thế giới phức tạp - đã và luôn như vậy. Nhưng tôi nghĩ chúng ta thấy một cửa sổ cơ hội."