logo

ChatGPT - Mang đến cuộc sống mới cho người tự kỷ

Blog Change

Chatbot có thể giúp luyện tập các kỹ năng giao tiếp và đối với một số người cung cấp một nguồn lực để chuyển sang khi cuộc sống khó khăn.

GIỐNG NHƯ NHIỀU NGƯỜI TỰ KỶ Madi Young, một nhà tư vấn ở Seattle, đã học cách thực hiện các hành vi xã hội và ngôn ngữ cơ thể mà những người bình thường mong đợi. Nhưng việc che giấu, hay còn gọi là "masking", là công việc vất vả và có thể dẫn đến hiểu lầm.

Vì vậy, Young rất vui mừng khi gần đây họ đã tìm thấy một đối tác trò chuyện mà họ cảm thấy gần giống cách họ nói: ChatGPT. "Nó không phản ứng với ngôn ngữ cơ thể của tôi - nó chỉ nhận từ ngữ của tôi," Young nói, người sử dụng trò chuyện AI này để tham gia các cuộc trò chuyện trong việc chữa trị và như một "người bạn đồng hành”.

Young cũng sử dụng chatbot để giúp làm việc với các doanh nhân và nhà sáng tạo khác biệt về thương hiệu và chiến lược kinh doanh. Điều đó đã bao gồm ChatGPT tạo ra các chiến lược giao tiếp có thể dịch tốt giữa những người tự kỷ và thần kinh, Young, người đã tổ chức một hội thảo để giúp các doanh nhân thần kinh khác học cách sử dụng chatbot.

"Rất nhiều người tự kỷ đã lớn lên và bị nói rằng họ là người ngoài hành tinh, hoặc họ nghe giống như robot, hoặc có điều gì đó không ổn với họ," Young nói. Khi ChatGPT xuất hiện, họ "nhanh chóng nhận ra rằng nó giống như tôi" - hợp lý và cụ thể.

Young không phải là người tự kỷ duy nhất sử dụng chatbot phổ biến như một phần của thói quen hàng ngày của họ. Đối với một số người, đó là nơi để trò chuyện về sở thích của họ khi người khác cảm thấy buồn chán hoặc tạo ra các kịch bản xã hội để giúp họ điều hướng xung đột. Đây cũng là một nguồn tài nguyên mới để chuyển sang hỗ trợ. Không giống như một nhà trị liệu hoặc nhân viên xã hội, bot luôn có sẵn và không tốn phí.

Hadley Johnston, một sinh viên đại học năm thứ nhất tại Đại học bang Iowa, lần đầu tiên điều hướng sự năng động của việc sống với bạn cùng phòng. Khi cô ấy cãi nhau với một trong số họ, Johnston đã phải vật lộn để nói lên cảm xúc của mình. "Tôi gần như im lặng trong những tình huống đó," cô nói. Nhưng với AI trong tay, cô ấy có thể mô hình hóa một cuộc trò chuyện và thử các cách để thể hiện bản thân. "Có ChatGPT, tôi không phải đến gặp bố mẹ vì điều này." Đối với Johnston, điều đó rất lớn. ChatGPT không chỉ là một nguồn kiến thức mà còn là sự độc lập.

Tự kỷ ảnh hưởng đến mọi người theo nhiều cách khác nhau và các cá nhân có thể có những nhu cầu khác nhau. ChatGPT có thể không hoạt động đối với một số hoặc thậm chí hầu hết, nhưng một đặc điểm chung của chứng tự kỷ là các tương tác xã hội có thể khó khăn hoặc khó hiểu.

Sử dụng chatbot để giúp giao tiếp có vẻ độc đáo, nhưng nó phù hợp với một số ý tưởng đã được thiết lập được sử dụng trong công tác xã hội để giúp mọi người trở nên độc lập hơn. "Chúng tôi nói về việc trao quyền cho mọi người và giúp mọi người hoàn toàn tự chủ và trải nghiệm thành công theo cách riêng của họ", Lauri Goldkind, giáo sư tại Trường Dịch vụ Xã hội của Đại học Fordham, người tập trung vào cuộc hôn nhân của công tác xã hội và công nghệ, nói. Một công cụ có thể truy cập như bot AI tạo ra thường có thể giúp thu hẹp khoảng cách do truy cập không liên tục vào các dịch vụ sức khỏe tâm thần như trị liệu, Goldkind nói.

Nhưng tác động thực sự của ChatGPT vì lý do điều trị phần lớn vẫn chưa được biết. Nó quá mới - WIRED đã liên hệ với bốn nhà trị liệu lâm sàng và cố vấn để lấy ý kiến. Mỗi người trong số họ từ chối bình luận, nói rằng họ vẫn chưa khám phá việc sử dụng ChatGPT như một công cụ trị liệu hoặc gặp phải nó trong các phiên của họ.

Tính linh hoạt của chatbot cũng đi kèm với một số vấn đề chưa được giải quyết. Nó có thể tạo ra các câu trả lời thiên vị, không thể đoán trước và thường bịa đặt, và được xây dựng một phần dựa trên thông tin cá nhân được thu thập mà không được phép, làm tăng mối quan tâm về quyền riêng tư.

Goldkind khuyên rằng mọi người chuyển sang ChatGPT nên làm quen với các điều khoản dịch vụ của nó, hiểu những điều cơ bản về cách thức hoạt động của nó (và cách thông tin được chia sẻ trong cuộc trò chuyện có thể không ở chế độ riêng tư) và ghi nhớ những hạn chế của nó, chẳng hạn như xu hướng bịa đặt thông tin. Young cho biết họ đã nghĩ đến việc bật bảo vệ quyền riêng tư dữ liệu cho ChatGPT, nhưng cũng nghĩ rằng quan điểm của họ với tư cách là cha mẹ đơn thân, chuyển giới, tự kỷ có thể là dữ liệu có lợi cho chatbot nói chung.

Đối với rất nhiều người khác, người tự kỷ có thể tìm thấy kiến thức và trao quyền trong cuộc trò chuyện với ChatGPT. Đối với một số người, ưu điểm lớn hơn khuyết điểm.

Maxfield Sparrow, người mắc chứng tự kỷ và tạo điều kiện cho các nhóm hỗ trợ cho người tự kỷ và chuyển giới, đã nhận thấy ChatGPT hữu ích trong việc phát triển tài liệu mới. Nhiều người tự kỷ phải vật lộn với việc "tàu phá băng" thông thường trong các buổi nhóm, vì các trò chơi xã hội được thiết kế chủ yếu cho những người bình thường, Sparrow nói. Vì vậy, họ đã thúc đẩy chatbot đưa ra các ví dụ hoạt động tốt hơn cho người tự kỷ. Sau một hồi qua lại, chatbot trả về : "Nếu bạn là thời tiết, bạn sẽ là loại thời tiết nào?"

Sparrow nói rằng đó là phần mở đầu hoàn hảo cho nhóm - cô đọng và liên quan đến thế giới tự nhiên, mà Sparrow nói rằng một nhóm người khác biệt có thể kết nối. Chatbot cũng đã trở thành một nguồn an ủi khi Sparrow bị ốm và cho những lời khuyên khác, như cách tổ chức thói quen buổi sáng của họ để làm việc hiệu quả hơn.

Liệu pháp chatbot là một khái niệm có từ nhiều thập kỷ trước. Chatbot đầu tiên, ELIZA, là một bot trị liệu. Nó xuất hiện vào những năm 1960 từ Phòng thí nghiệm Trí tuệ nhân tạo MIT và được mô phỏng theo liệu pháp Rogeria, trong đó một cố vấn trình bày lại những gì khách hàng nói với họ, thường dưới dạng một câu hỏi. Chương trình không sử dụng AI như chúng ta biết ngày nay, nhưng thông qua sự lặp lại và khớp mẫu, các phản hồi theo kịch bản của nó đã mang lại cho người dùng ấn tượng rằng họ đang nói chuyện với một cái gì đó hiểu họ. Mặc dù được tạo ra với mục đích chứng minh rằng máy tính không thể thay thế con người, ELIZA đã mê hoặc một số "bệnh nhân" của mình, những người tham gia vào các cuộc trò chuyện căng thẳng và sâu rộng với chương trình.

Gần đây, các chatbot với các phản hồi theo kịch bản, được điều khiển bởi AI - tương tự như Siri của Apple - đã trở nên phổ biến rộng rãi. Trong số phổ biến nhất là một chatbot được thiết kế để đóng vai trò của một nhà trị liệu thực tế. Woebot dựa trên các thực hành trị liệu hành vi nhận thức và nhận thấy nhu cầu tăng vọt trong suốt đại dịch khi nhiều người hơn bao giờ hết tìm kiếm các dịch vụ sức khỏe tâm thần.

Nhưng vì các ứng dụng này có phạm vi hẹp hơn và cung cấp các phản hồi theo kịch bản, cuộc trò chuyện phong phú hơn của ChatGPT có thể cảm thấy hiệu quả hơn đối với những người đang cố gắng giải quyết các vấn đề xã hội phức tạp.

Margaret Mitchell, nhà khoa học đạo đức trưởng tại công ty khởi nghiệp Hugging Face, công ty phát triển các mô hình AI nguồn mở, gợi ý những người phải đối mặt với các vấn đề phức tạp hơn hoặc đau khổ về cảm xúc nghiêm trọng nên hạn chế sử dụng chatbot. "Nó có thể dẫn đến các hướng thảo luận có vấn đề hoặc kích thích suy nghĩ tiêu cực", cô nói. "Thực tế là chúng tôi không có toàn quyền kiểm soát những gì các hệ thống này có thể nói là một vấn đề lớn."

Đầu năm nay, một người đàn ông ở Bỉ đã chết vì tự tử sau nhiều tuần trò chuyện căng thẳng với một bot dựa trên GPT-J, một mô hình AI nguồn mở được phát triển bởi nhóm phi lợi nhuận EleutherAI.

Các công cụ tìm kiếm và nhiều dịch vụ trực tuyến khác, bao gồm cả Woebot, hướng người dùng đến đường dây nóng hoặc các nguồn hỗ trợ khác nếu họ có nguy cơ đặc biệt có nguy cơ tự làm hại bản thân hoặc hành vi bạo lực. ChatGPT hướng dẫn người trò chuyện tìm kiếm sự hỗ trợ của con người nếu tin nhắn của họ có vẻ đáng lo ngại, nhưng không trực tiếp đến đường dây nóng khẩn cấp trong các thử nghiệm mà WIRED thực hiện.

Andrea Vallone, giám đốc chính sách sản phẩm tại OpenAI cho biết công ty đã cố gắng làm cho ChatGPT phản ứng phù hợp với những người có thể dễ bị tổn thương nhưng nó không có ý định được sử dụng thay thế cho điều trị sức khỏe tâm thần. "Chúng tôi đã đào tạo hệ thống AI để cung cấp hướng dẫn chung cho người dùng để tìm kiếm sự giúp đỡ", cô nói. Chatbot không đề xuất một địa điểm cụ thể để tìm kiếm trợ giúp để tránh hướng mọi người đến các tài nguyên không có sẵn trong khu vực của họ. "Chúng tôi khuyến khích người dùng tìm kiếm sự hỗ trợ từ các chuyên gia", Vallone nói.

Mitchell tin rằng những tiến bộ gần đây trong AI tạo ra sẽ dẫn đến các chatbot được điều chỉnh cho liệu pháp có khả năng hơn và dựa trên bộ dữ liệu từ những người có nhu cầu cụ thể, bao gồm cả chứng tự kỷ. Hiện tại, ChatGPT vẫn có thể đóng một vai trò quan trọng trong việc thể hiện bản thân cho mọi người, đặc biệt là những người không phải lúc nào cũng có người khác để trò chuyện và hiểu phong cách của họ.

Sparrow nói rằng họ cũng đã sử dụng ChatGPT để nói về suy nghĩ của mình. Nhưng Sparrow bắt đầu hẹn hò với ai đó gần đây và dành ít thời gian hơn cho ChatGPT. Đối với tất cả các lợi ích của nó, một chatbot không thể thay thế cho kết nối của con người. "Một số trong số đó đã giảm xuống bởi vì tôi có một con người thực sự," họ nói. "Có một khía cạnh của sự kết nối giữa con người mà nó không thể thay thế."