logo

Những hứa hẹn và nguy hiểm của trí tuệ nhân tạo (AI), theo 5 chuyên gia

Blog Change

Ở thời điểm này, bạn đã thử ChatGPT. Thậm chí cả Joe Biden cũng đã thử ChatGPT, và tuần này, chính quyền của ông đã tạo một sự kiện lớn bằng việc mời các nhà lãnh đạo AI như CEO của Microsoft, Satya Nadella và CEO của OpenAI, Sam Altman đến Nhà Trắng để thảo luận về cách họ có thể tạo ra "trí tuệ nhân tạo có trách nhiệm".


Nhưng có lẽ bạn vẫn còn mơ hồ về một số kiến thức cơ bản về AI - chẳng hạn như: Cách mọi thứ này hoạt động, liệu đó có phải là ma thuật và liệu nó có giết chúng ta không? - nhưng không muốn thừa nhận điều đó.


Đừng lo, chúng tôi đã sẵn sàng giúp bạn: Chúng tôi đã dành phần lớn mùa xuân để trò chuyện với những người đang làm việc trong lĩnh vực AI, đầu tư vào AI, cố gắng xây dựng doanh nghiệp liên quan đến AI - cũng như những người nghĩ rằng sự bùng nổ AI hiện tại là quá đánh giá hoặc có thể nguy hiểm nếu đi sai hướng. Nhưng chúng tôi cũng đã rút ra một mẫu câu trả lời sâu sắc và đôi khi mâu thuẫn mà chúng tôi có cho một số câu hỏi rất cơ bản này. Đó là những câu hỏi mà Nhà Trắng và mọi người khác cần sớm tìm ra, vì AI sẽ không biến mất.


Sự bùng nổ AI hiện tại thực sự lớn đến mức nào?


Kevin Scott, giám đốc công nghệ, Microsoft: Tôi là một đứa trẻ 12 tuổi khi cuộc cách mạng PC đang diễn ra. Tôi đang học cao học khi cuộc cách mạng internet xảy ra. Tôi đang điều hành một công ty khởi nghiệp di động ngay khi bắt đầu cuộc cách mạng di động, trùng hợp với sự thay đổi lớn này sang điện toán đám mây. Điều này đối với tôi cảm thấy rất giống với ba điều đó.


Dror Berman, đồng sáng lập, Innovation Endeavors: Điện thoại di động là một món đồ thú vị vì nó cung cấp một yếu tố hình thức mới cho phép bạn mang theo máy tính bên mình. Tôi nghĩ rằng chúng ta đang đứng trong một thời đại hoàn toàn khác. Bây giờ chúng ta đã được giới thiệu với một khối trí thông minh nền tảng đã có sẵn cho chúng ta, một khối về cơ bản có thể dựa vào tất cả các kiến thức có sẵn công khai mà nhân loại đã trích xuất và ghi lại. Nó cho phép chúng ta truy xuất tất cả thông tin theo cách mà chúng ta đã không thể thực hiện được trong quá khứ.


Gary Marcus, doanh nhân, giáo sư danh dự về tâm lý học và khoa học thần kinh tại NYU: Ý tôi là, nó hoàn toàn thú vị. Tôi sẽ không muốn tranh luận chống lại điều đó. Tôi nghĩ về nó như một buổi diễn tập trang phục cho trí tuệ nhân tạo nói chung, mà chúng ta sẽ nhận được một ngày nào đó.


Nhưng ngay bây giờ chúng ta có một sự đánh đổi. Có một số mặt tích cực về các hệ thống này. Bạn có thể sử dụng chúng để viết mọi thứ cho bạn. Và có một số tiêu cực. Công nghệ này có thể được sử dụng, ví dụ, để truyền bá thông tin sai lệch và làm điều đó ở quy mô mà chúng ta chưa từng thấy trước đây - có thể nguy hiểm, có thể làm suy yếu nền dân chủ.


Và tôi có thể nói rằng các hệ thống này không thể kiểm soát được. Chúng mạnh mẽ, chúng liều lĩnh, nhưng chúng không nhất thiết phải làm những gì chúng ta muốn. Cuối cùng, sẽ có một câu hỏi, "Được rồi, chúng ta có thể xây dựng một bản demo ở đây. Chúng ta có thể xây dựng một sản phẩm mà chúng ta thực sự có thể sử dụng không? Và sản phẩm đó là gì?"


Tôi nghĩ ở một số nơi mọi người sẽ chấp nhận những thứ này. Và họ sẽ hoàn toàn hài lòng với đầu ra. Ở những nơi khác, có một vấn đề thực sự.


Làm thế nào để tạo ra trí tuệ nhân tạo có trách nhiệm? Điều đó có thể thực hiện được không?


James Manyika, Phó Chủ tịch cấp cao về công nghệ và xã hội của Google: Bạn đang cố gắng đảm bảo rằng kết quả đầu ra không gây hại. Trong trường hợp của chúng tôi, chúng tôi thực hiện nhiều kiểm thử đối địch sinh sáng cho các hệ thống này. Trên thực tế, khi bạn sử dụng Bard, ví dụ, kết quả bạn nhận được khi gõ một câu hỏi không nhất thiết là điều Bard đầu tiên nghĩ ra.


Chúng tôi chạy từ 15 đến 16 loại khác nhau của cùng một câu hỏi để xem xét các kết quả đó và đánh giá trước chúng về mặt an toàn, như độc hại chẳng hạn. Và hiện tại chúng tôi không phải lúc nào cũng nhận được tất cả, nhưng chúng tôi đã có được rất nhiều.


Nhân tiện, một trong những câu hỏi lớn hơn mà chúng ta sẽ phải đối mặt - và đây là câu hỏi về chúng ta, không phải về công nghệ, đó là về chúng ta với tư cách là một xã hội - là làm thế nào để chúng ta nghĩ về những gì chúng ta coi trọng? Làm thế nào để chúng ta nghĩ về những gì được coi là độc tính? Vì vậy, đó là lý do tại sao chúng tôi cố gắng tham gia và tham gia với các cộng đồng để hiểu những điều đó. Chúng tôi cố gắng liên quan đến các nhà đạo đức học và các nhà khoa học xã hội để nghiên cứu những câu hỏi đó và hiểu những câu hỏi đó, nhưng đó thực sự là những câu hỏi cho chúng ta với tư cách là xã hội.


Emily M. Bender, giáo sư ngôn ngữ học, Đại học Washington: Mọi người thường nói về việc dân chủ hóa trí tuệ nhân tạo, và tôi luôn cảm thấy thực sự thất vọng vì điều đó bởi điều họ đề cập đến là đưa công nghệ này vào tay rất nhiều người - điều đó không giống như việc cho mọi người có quyền tham gia vào quá trình phát triển nó.


Tôi nghĩ cách tiến tới tốt nhất là hợp tác, nói chung. Bên ngoài có quy định hợp lý để đảm bảo các công ty chịu trách nhiệm. Và bên trong, chúng ta có những nhân viên đạo đức công nghệ giúp các công ty thực sự tuân thủ quy định và tinh thần của quy định đó.


Và để thực hiện tất cả những điều đó, chúng ta cần có sự thông thạo rộng rãi trong dân cư để mọi người có thể yêu cầu những gì cần thiết từ đại diện được bầu cử của họ. Để các đại diện được bầu cử có hi vọng hiểu biết về tất cả những điều này.


Scott: Chúng tôi đã dành từ năm 2017 cho đến ngày hôm nay để xây dựng nghiêm ngặt một thực tiễn AI có trách nhiệm. Bạn không thể phát hành AI ra công chúng mà không có một bộ quy tắc nghiêm ngặt xác định các mục đích sử dụng nhạy cảm và nơi bạn có khuôn khổ tác hại. Bạn phải minh bạch với công chúng về cách tiếp cận của bạn đối với AI có trách nhiệm là gì.


Chúng ta nên lo lắng như thế nào về sự nguy hiểm của AI? Chúng ta có nên lo lắng về những tình huống xấu nhất?


Marcus: Dirigibles thực sự phổ biến trong những năm 1920 và 1930. Cho đến khi chúng tôi có Hindenburg. Mọi người đều nghĩ rằng tất cả những người này thực hiện chuyến bay nặng hơn không khí đang lãng phí thời gian của họ. Họ giống như, "Hãy nhìn vào dirigibles của chúng tôi. Họ mở rộng quy mô nhanh hơn rất nhiều. Chúng tôi đã xây dựng một cái nhỏ. Bây giờ chúng tôi đã xây dựng một cái lớn hơn. Bây giờ chúng tôi đã xây dựng một cái lớn hơn nhiều. Tất cả đều hoạt động rất tốt".


Vì vậy, bạn biết đấy, đôi khi bạn mở rộng quy mô sai. Theo quan điểm của tôi, chúng ta đang mở rộng quy mô sai lầm ngay bây giờ. Chúng tôi đang mở rộng quy mô một công nghệ vốn không ổn định.


Nó không đáng tin cậy và không trung thực. Chúng tôi đang làm cho nó nhanh hơn và có phạm vi phủ sóng nhiều hơn, nhưng nó vẫn không đáng tin cậy, vẫn không trung thực. Và đối với nhiều ứng dụng, đó là một vấn đề. Có một số điều mà nó không đúng.


Điểm sáng của ChatGPT luôn là làm văn xuôi siêu thực. Bây giờ nó tốt hơn trong việc tạo ra văn xuôi siêu thực so với trước đây. Nếu đó là trường hợp sử dụng của bạn, nó ổn, tôi không có vấn đề gì với nó. Nhưng nếu trường hợp sử dụng của bạn là một cái gì đó có chi phí lỗi, nơi bạn cần phải trung thực và đáng tin cậy, thì đó là một vấn đề.


Scott: Nó là hoàn toàn hữu ích để suy nghĩ về những kịch bản này. Sẽ hữu ích hơn khi nghĩ về chúng dựa trên công nghệ thực sự ở đâu, và bước tiếp theo là gì và bước xa hơn thế.


Tôi nghĩ rằng chúng ta vẫn còn nhiều bước nữa mới đến những điều mà mọi người lo lắng. Có những người không đồng ý với tôi về khẳng định đó. Họ nghĩ rằng sẽ có một số hành vi nổi bật, không thể kiểm soát xảy ra.


Và chúng tôi đủ cẩn thận về điều đó, nơi chúng tôi có các nhóm nghiên cứu suy nghĩ về khả năng của những kịch bản khẩn cấp này. Nhưng điều mà bạn thực sự phải có để một số điều kỳ lạ xảy ra mà mọi người quan tâm là quyền tự chủ thực sự - một hệ thống có thể tham gia vào sự phát triển của chính nó và có vòng phản hồi đó, nơi bạn có thể đạt được tốc độ cải thiện nhanh siêu phàm. Và đó không phải là cách các hệ thống hoạt động ngay bây giờ. Không phải những cái mà chúng tôi đang xây dựng.


AI có chỗ đứng trong các môi trường tiềm ẩn rủi ro cao như y học và chăm sóc sức khỏe không?


Bender: Chúng tôi đã có WebMD. Chúng tôi đã có cơ sở dữ liệu nơi bạn có thể đi từ các triệu chứng đến các chẩn đoán có thể, vì vậy bạn biết những gì cần tìm.


Có rất nhiều người cần tư vấn y tế, điều trị y tế, những người không đủ khả năng chi trả, và đó là một thất bại xã hội. Và tương tự, có rất nhiều người cần tư vấn pháp lý và dịch vụ pháp lý không đủ khả năng chi trả. Đó là những vấn đề thực sự, nhưng ném văn bản tổng hợp vào những tình huống đó không phải là giải pháp cho những vấn đề đó.


Nếu có điều gì đó, nó sẽ làm trầm trọng thêm những bất bình đẳng mà chúng ta thấy trong xã hội của chúng ta. Và nói rằng, những người có thể trả tiền nhận được điều thực sự; còn những người không thể trả tiền, vâng, hãy xem đây, chúc may mắn. Bạn biết đấy: Lắc viên bi tám ma thuật sẽ cho bạn một điều gì đó có vẻ liên quan và hãy thử xem sao.


Manyika: Vâng, nó có một địa vị. Nếu tôi đang cố gắng khám phá như một câu hỏi nghiên cứu, làm thế nào để tôi hiểu những căn bệnh đó? Nếu tôi đang cố gắng để có được sự giúp đỡ y tế cho bản thân, tôi sẽ không đi đến các hệ thống phát sinh này. Tôi đi đến bác sĩ hoặc tôi đi đến một cái gì đó mà tôi biết có thông tin thực tế đáng tin cậy.


Scott: Tôi nghĩ nó chỉ phụ thuộc vào cơ chế phân phối thực tế. Bạn hoàn toàn không muốn một thế giới mà tất cả những gì bạn có là một phần mềm không đạt tiêu chuẩn và không có quyền truy cập vào một bác sĩ thực sự. Nhưng tôi có một bác sĩ trợ giúp đặc biệt, ví dụ. Tôi tương tác với bác sĩ trợ giúp đặc biệt của mình chủ yếu qua email. Và đó thực sự là một trải nghiệm người dùng tuyệt vời. Đó là một hiện tượng. Nó giúp tôi tiết kiệm rất nhiều thời gian và tôi có thể truy cập vào một loạt những thứ mà lịch trình bận rộn của tôi sẽ không cho phép tôi có quyền truy cập vào nếu không.


Scott: Tôi nghĩ điều đó chỉ phụ thuộc vào cách thức cung cấp thực tế. Bạn tuyệt đối không muốn sống trong một thế giới chỉ có một phần mềm chất lượng kém và không có cơ hội tiếp cận với bác sĩ thực sự. Nhưng ví dụ, tôi có một bác sĩ dịch vụ cá nhân. Tôi tương tác với bác sĩ qua email chủ yếu. Và thực sự đó là một trải nghiệm người dùng tuyệt vời. Nó tuyệt vời. Nó giúp tôi tiết kiệm rất nhiều thời gian và tôi có thể tiếp cận được với rất nhiều điều mà lịch trình bận rộn của tôi không cho phép.


Vì vậy, trong nhiều năm qua, tôi đã nghĩ, liệu không phải sẽ tuyệt vời nếu mọi người đều có cùng điều đó? Một chuyên gia y tế thông thái mà bạn có thể đến tìm sự giúp đỡ, giúp bạn điều hướng một hệ thống rất phức tạp của các công ty bảo hiểm và nhà cung cấp dịch vụ y tế và các vấn đề liên quan. Có một cái gì đó có thể giúp bạn đối phó với sự phức tạp, tôi nghĩ đó là điều tốt.


Marcus: Nếu đó là thông tin sai về y tế, thì thực tế có thể dẫn đến cái chết của ai đó. Đó chính là lĩnh vực mà tôi lo ngại nhất về thông tin sai lệch từ các công cụ tìm kiếm.


Hiện nay, mọi người thường tìm kiếm thông tin y tế, nhưng những hệ thống này sẽ không hiểu về tương tác thuốc. Có thể chúng sẽ không hiểu về hoàn cảnh cụ thể của từng người, và tôi nghi rằng sẽ có một số lời khuyên không tốt.


Chúng tôi hiểu từ một góc độ kỹ thuật tại sao những hệ thống này bị ảo giác. Và tôi có thể nói cho bạn rằng chúng sẽ tạo ra những thông tin ảo trong lĩnh vực y tế. Sau đó, câu hỏi đặt ra là: Hậu quả của điều đó là gì? Chi phí của lỗi là gì? Sự phổ biến của nó như thế nào? Người dùng phản ứng ra sao? Chúng ta chưa biết tất cả những câu trả lời đó.


AI sẽ khiến chúng ta mất việc?


Berman: Tôi nghĩ xã hội sẽ cần phải thích nghi. Rất nhiều trong số những hệ thống đó rất mạnh mẽ và cho phép chúng ta làm những điều mà chúng ta không bao giờ nghĩ là có thể. Nhân tiện, chúng tôi vẫn chưa hiểu những gì hoàn toàn có thể. Chúng tôi cũng không hiểu đầy đủ cách thức hoạt động của một số hệ thống đó.


Tôi nghĩ rằng một số người sẽ mất việc làm. Một số người sẽ điều chỉnh và có được công việc mới. Chúng tôi có một công ty tên là Canvas đang phát triển một loại robot mới cho ngành xây dựng và thực sự làm việc với công đoàn để đào tạo lực lượng lao động sử dụng loại robot này.


Và rất nhiều trong số những công việc mà rất nhiều công nghệ thay thế không nhất thiết phải là công việc mà nhiều người muốn làm. Vì vậy, tôi nghĩ rằng chúng ta sẽ thấy rất nhiều khả năng mới cho phép chúng ta đào tạo mọi người làm những công việc thú vị hơn nhiều.


Manyika: Nếu bạn xem xét hầu hết các nghiên cứu về tác động của trí tuệ nhân tạo đối với công việc, nếu tôi phải tóm tắt bằng một cụm từ, tôi sẽ nói đó là việc có công việc được tạo ra, công việc bị mất đi và công việc bị thay đổi.


Ba yếu tố này sẽ xảy ra vì có một số ngành nghề mà một số nhiệm vụ liên quan đến những ngành nghề đó có thể giảm đi. Nhưng cũng có các ngành nghề mới sẽ phát triển. Vì vậy, sẽ có một loạt công việc được tạo ra và xuất hiện nhờ sự đổi mới đáng kinh ngạc này. Nhưng tôi nghĩ tác động quan trọng hơn, thành thật mà nói - điều mà hầu hết mọi người sẽ cảm nhận là khía cạnh công việc thay đổi của trí tuệ nhân tạo này.