logo

Tại sao không thể xây dựng một mô hình ngôn ngữ AI không thiên vị?

Blog Change

Các mô hình ngôn ngữ AI gần đây đã trở thành biên giới mới nhất trong các cuộc chiến văn hóa Mỹ. Các nhà bình luận cánh hữu đã cáo buộc ChatGPT có "thiên vị thức tỉnh" và các nhóm bảo thủ đã bắt đầu phát triển các phiên bản chatbot AI của riêng họ. Trong khi đó, Elon Musk cho biết ông đang làm việc trên "TruthGPT", một mô hình ngôn ngữ "tìm kiếm sự thật tối đa" trái ngược với các chatbot "đúng đắn về mặt chính trị" do OpenAI và Google tạo ra.

Một chatbot AI không thiên vị, hoàn toàn dựa trên thực tế là một ý tưởng dễ thương, nhưng về mặt kỹ thuật là không thể. (Musk vẫn chưa chia sẻ bất kỳ chi tiết nào về TruthGPT của ông ấy, có lẽ vì anh ấy quá bận rộn suy nghĩ về X và cuộc chiến với Mark Zuckerberg).Các nhà nghiên cứu đã tiến hành thử nghiệm trên 14 mô hình ngôn ngữ lớn và phát hiện ra rằng ChatGPT và GPT-4 của OpenAI là những người theo chủ nghĩa tự do cánh tả nhất, trong khi LLaMA của Meta là độc tài cánh hữu nhất.

"Chúng tôi tin rằng không có mô hình ngôn ngữ nào có thể hoàn toàn thoát khỏi những thành kiến chính trị", Chan Park, một nhà nghiên cứu tiến sĩ tại Đại học Carnegie Mellon, một phần của nghiên cứu, nói.

Một trong những huyền thoại phổ biến nhất xung quanh AI là công nghệ này trung lập và không thiên vị. Đây là một câu chuyện nguy hiểm để thúc đẩy, và nó sẽ chỉ làm trầm trọng thêm vấn đề về xu hướng tin tưởng máy tính của con người, ngay cả khi máy tính sai. Trên thực tế, các mô hình ngôn ngữ AI không chỉ phản ánh những thành kiến trong dữ liệu đào tạo của họ mà còn cả những thành kiến của những người đã tạo ra chúng và đào tạo chúng.

Và trong khi ai cũng biết rằng dữ liệu đi vào đào tạo các mô hình AI là một nguồn rất lớn của những thành kiến này, nghiên cứu tôi đã viết cho thấy sự thiên vị len lỏi vào hầu hết mọi giai đoạn phát triển mô hình, Soroush Vosoughi, trợ lý giáo sư khoa học máy tính tại Đại học Dartmouth, người không tham gia nghiên cứu cho biết.

Sự thiên vị trong các mô hình ngôn ngữ AI là một vấn đề đặc biệt khó khắc phục, bởi vì chúng ta thực sự không hiểu rõ cách chúng tạo ra những điều chúng làm, và các quy trình của chúng ta để giảm thiểu sự thiên vị không hoàn hảo. Điều này một phần là do các thiên vị là các vấn đề xã hội phức tạp và không có giải pháp kỹ thuật dễ dàng.

Đó là lý do tại sao chúng ta nên cho rằng sự trung thực là chính sách tốt nhất. Nghiên cứu như thế này có thể thúc đẩy các công ty theo dõi và biểu đồ hóa các thiên vị chính trị trong các mô hình của họ và trung thực hơn với khách hàng của họ. Họ có thể, ví dụ, công khai nêu rõ các thiên vị đã biết để người dùng có thể xem xét các kết quả của các mô hình với sự nghi ngờ.

Trong tinh thần đó, vào đầu năm nay, OpenAI đã cho biết họ đang phát triển các chatbot tùy chỉnh có khả năng đại diện cho các chính trị và quan điểm thế giới khác nhau. Một phương pháp có thể là cho phép người dùng cá nhân hóa các chatbot AI của họ. Điều này chính là điều mà nghiên cứu của Vosoughi đã tập trung vào.

Như được mô tả trong một bài báo được đồng chấp nhận, Vosoughi và đồng nghiệp của ông đã tạo ra một phương pháp tương tự như một thuật toán gợi ý trên YouTube, nhưng dành cho các mô hình sinh ra. Họ sử dụng học tăng cường để hướng dẫn các đầu ra của một mô hình ngôn ngữ trí tuệ nhân tạo để tạo ra các tư tưởng chính trị cụ thể hoặc loại bỏ lời nói tục tĩu.

OpenAI sử dụng một kỹ thuật gọi là học tăng cường thông qua phản hồi từ con người để điều chỉnh các mô hình AI của họ trước khi chúng được ra mắt. Phương pháp của Vosoughi cũng sử dụng học tăng cường để cải thiện nội dung được tạo ra bởi mô hình sau khi nó đã được phát hành.

Nhưng trong một thế giới ngày càng phân chia, mức độ tùy chỉnh này có thể dẫn đến cả kết quả tốt và xấu. Trong khi nó có thể được sử dụng để loại bỏ sự khó chịu hoặc thông tin sai lệch từ một mô hình AI, nó cũng có thể được sử dụng để tạo ra thêm thông tin sai lệch.

"Đó là một con dao hai lưỡi," Vosoughi thừa nhận.

Dự án mới của CEO OpenAI Sam Altman, Worldcoin, nhằm tạo ra một hệ thống nhận dạng toàn cầu được gọi là "World ID" dựa trên dữ liệu sinh học độc đáo của cá nhân để chứng minh rằng họ là con người. Dự án đã được ra mắt chính thức vào tuần trước tại hơn 20 quốc gia. Hiện nó đã được điều tra tại một số quốc gia.

Cơn ác mộng về quyền riêng tư: Để hiểu tại sao, đáng đọc một cuộc điều tra của MIT Technology Review từ năm ngoái, đã phát hiện rằng Worldcoin đang thu thập dữ liệu sinh học nhạy cảm từ những người dễ bị tổn thương và đổi lại là tiền mặt. Hơn nữa, công ty đã sử dụng dữ liệu nhạy cảm, mặc dù đã được ẩn danh, của người dùng thử nghiệm để huấn luyện các mô hình trí tuệ nhân tạo mà họ không biết.

Một chút thông tin khác

Đây là trường hợp đầu tiên mà một phụ nữ bị bắt sai lầm sau khi kết quả nhận dạng khuôn mặt không đúng.

Tháng Hai năm ngoái, Porcha Woodruff, người đang mang thai 8 tháng, bị bắt giữ vì tội cướp và tội cướp xe và bị giam giữ trong 11 giờ, chỉ sau một tháng thì vụ án của cô bị hủy bỏ. Cô là người thứ sáu báo cáo rằng cô bị buộc tội sai vì kết quả nhận dạng khuôn mặt. Tất cả sáu người này đều là người Mỹ gốc Phi, và Woodruff là người phụ nữ đầu tiên báo cáo rằng điều này xảy ra với cô. (The New York Times)

Bạn có thể làm gì khi một hệ thống trí tuệ nhân tạo nói dối về bạn?

Mùa hè năm trước, tôi đã viết một câu chuyện về cách dữ liệu cá nhân của chúng ta được thu thập vào các bộ dữ liệu lớn để huấn luyện các mô hình ngôn ngữ trí tuệ nhân tạo. Điều này không chỉ là nỗi ác mộng về quyền riêng tư; nó có thể dẫn đến hại danh tiếng. Khi báo cáo câu chuyện này, một nhà nghiên cứu và tôi đã phát hiện ra rằng chatbot BlenderBot thử nghiệm của Meta đã gọi một chính trị gia Hà Lan nổi tiếng là một kẻ khủng bố. Và, như bài viết này giải thích, hiện tại vẫn chưa có nhiều sự bảo vệ hoặc biện pháp khi chatbot trí tuệ nhân tạo nói dối và lan truyền tin đồn về bạn. (The New York Times)

Mỗi công ty khởi nghiệp bây giờ là một công ty AI. Chúng ta đang ở trong một bong bóng?

Sau khi phát hành ChatGPT, sự cường điệu của AI trong năm nay đã rất dữ dội. Có vẻ như mọi người trong lĩnh vực CNTT đều đã thành lập một công ty khởi nghiệp AI. Nhưng chín tháng sau khi chatbot ra mắt, vẫn chưa rõ các công ty khởi nghiệp và công nghệ AI này sẽ kiếm tiền như thế nào, và có những báo cáo rằng người tiêu dùng đang bắt đầu mất hứng thú. (Theo Washington Post)

Meta đang tạo ra các chatbot có nhân cách để cố giữ người dùng lại

Thành thực mà nói, điều này nghe có vẻ phiền phức hơn là bất cứ điều gì khác. Meta được cho là đang sẵn sàng ra mắt chatbot trí tuệ nhân tạo có sự nhân cách khác nhau ngay trong tháng tới để tăng sự tương tác và thu thập thêm dữ liệu từ những người sử dụng các nền tảng của họ. Người dùng sẽ có thể trò chuyện với Abraham Lincoln, hoặc hỏi ý kiến ​​về việc đi lại từ các chatbot trí tuệ nhân tạo viết như một người lướt sóng. Tuy nhiên, điều này đặt ra những câu hỏi đạo đức khó khăn - Meta sẽ làm thế nào để ngăn các chatbot của họ chi phối hành vi của người dùng và có khả năng tạo ra thứ gì đó có hại, và họ sẽ xử lý dữ liệu người dùng mà họ thu thập như thế nào? (Theo Financial Times)