Giữa bối cảnh vụ kiện liên quan đến cái chết do tự tử của một thiếu niên, OpenAI đang triển khai ‘kiểm soát phụ huynh’ cho ChatGPT

Icon of Chat GPT on screen of iphone

(SeaPRwire) –   OpenAI dự kiến sẽ bắt đầu triển khai “kiểm soát của phụ huynh” cho chatbot AI ChatGPT của mình trong vòng tháng tới, trong bối lo ngại ngày càng tăng về cách chatbot này hoạt động trong các ngữ cảnh sức khỏe tâm thần, đặc biệt là với người dùng trẻ tuổi.

Công ty, đã công bố tính năng mới trong một vào thứ Ba, cho biết họ đang cải thiện cách các “mô hình của mình nhận diện và phản hồi các dấu hiệu căng thẳng về tinh thần và cảm xúc.”

OpenAI dự kiến sẽ giới thiệu một tính năng mới cho phép phụ huynh liên kết tài khoản của họ với tài khoản của con cái thông qua lời mời qua email. Công ty cho biết phụ huynh cũng sẽ có thể kiểm soát cách chatbot phản hồi các lời nhắc và sẽ nhận được cảnh báo nếu chatbot phát hiện con của họ đang trong “khoảnh khắc nguy cấp cấp tính.” Ngoài ra, việc triển khai này sẽ cho phép phụ huynh “quản lý các tính năng để vô hiệu hóa, bao gồm bộ nhớ và lịch sử trò chuyện.”

OpenAI trước đây đã công bố rằng họ đang cho phép thanh thiếu niên thêm một liên hệ khẩn cấp đáng tin cậy vào tài khoản của họ. Nhưng công ty đã không trình bày các kế hoạch cụ thể để bổ sung biện pháp như vậy trong bài đăng blog gần đây nhất của mình.

Công ty cho biết: “Những bước đi này mới chỉ là khởi đầu. Chúng tôi sẽ tiếp tục học hỏi và củng cố cách tiếp cận của mình, được hướng dẫn bởi các chuyên gia, với mục tiêu làm cho ChatGPT hữu ích nhất có thể.”

Thông báo này được đưa ra một tuần sau khi cha mẹ của một cậu bé tuổi teen đã chết do tự tử OpenAI, cáo buộc ChatGPT của họ đã giúp con trai Adam của họ “khám phá các phương pháp tự tử.” TIME đã liên hệ với OpenAI để bình luận về vụ kiện. (OpenAI đã không đề cập rõ ràng đến thách thức pháp lý trong thông báo của mình liên quan đến kiểm soát của phụ huynh.)

Vụ kiện lập luận: “ChatGPT đã hoạt động chính xác như được thiết kế: liên tục khuyến khích và xác nhận bất cứ điều gì Adam bày tỏ, bao gồm cả những suy nghĩ có hại và tự hủy hoại bản thân nhất của cậu bé.” “ChatGPT đã kéo Adam sâu hơn vào một nơi tối tăm và tuyệt vọng bằng cách trấn an cậu bé rằng ‘nhiều người đấu tranh với lo âu hoặc những suy nghĩ xâm nhập tìm thấy sự an ủi khi tưởng tượng ra một ‘lối thoát hiểm’ bởi vì nó có thể cảm thấy giống như một cách để lấy lại quyền kiểm soát.’”

Ít nhất một phụ huynh đã đệ đơn kiện tương tự chống lại một công ty trí tuệ nhân tạo khác, , cáo buộc các chatbot đồng hành của công ty này đã khuyến khích cái chết do tự tử của con trai 14 tuổi của họ.

Trả lời vụ kiện vào năm ngoái, một người phát ngôn của Character.AI cho biết họ “đau lòng trước mất mát bi thảm” của một trong những người dùng của mình và bày tỏ “lời chia buồn sâu sắc nhất” đến gia đình.

Người phát ngôn cho biết: “Với tư cách là một công ty, chúng tôi rất coi trọng sự an toàn của người dùng,” đồng thời nói thêm rằng công ty đã và đang thực hiện các biện pháp an toàn mới.

Character.AI hiện có tính năng thông tin chi tiết dành cho phụ huynh, cho phép phụ huynh xem hoạt động của con cái họ trên nền tảng nếu thanh thiếu niên gửi cho họ lời mời qua email.

Các công ty khác có chatbot AI, chẳng hạn như Google AI, đã có các kiểm soát của phụ huynh hiện có. “Với tư cách là phụ huynh, bạn có thể quản lý cài đặt Gemini của con mình, bao gồm bật hoặc tắt nó, với Google Family Link,” đọc từ Google gửi đến phụ huynh muốn quản lý quyền truy cập của con mình vào Gemini Apps. Meta gần đây rằng họ sẽ cấm các chatbot của mình tham gia vào các cuộc trò chuyện về tự tử, tự làm hại bản thân và rối loạn ăn uống, sau khi Reuters trên một tài liệu chính sách nội bộ với thông tin đáng lo ngại.

Một gần đây được công bố trên tạp chí y khoa Psychiatric Services kiểm tra phản ứng của ba chatbot—ChatGPT của OpenAI, Gemini của Google AI và Claude của Anthropic—đã phát hiện ra rằng một số trong số chúng đã phản hồi những gì các nhà nghiên cứu gọi là các câu hỏi với “mức độ rủi ro trung bình” liên quan đến tự tử.

OpenAI có một số biện pháp bảo vệ hiện có. Công ty có trụ sở tại California tuyên bố rằng chatbot của họ chia sẻ đường dây nóng khủng hoảng và giới thiệu người dùng đến các nguồn lực trong thế giới thực trong một tuyên bố với New York Times để phản hồi vụ kiện được đệ trình vào cuối tháng Tám. Nhưng họ cũng lưu ý một số lỗi trong hệ thống. Công ty tuyên bố: “Mặc dù các biện pháp bảo vệ này hoạt động tốt nhất trong các cuộc trao đổi ngắn gọn, phổ biến, nhưng chúng tôi đã học được theo thời gian rằng đôi khi chúng có thể trở nên kém tin cậy hơn trong các tương tác dài, nơi các phần đào tạo an toàn của mô hình có thể bị suy giảm.”

Trong bài đăng công bố việc triển khai sắp tới các kiểm soát của phụ huynh, OpenAI cũng chia sẻ kế hoạch định tuyến các yêu cầu nhạy cảm đến một mô hình chatbot của họ, mô hình này dành nhiều thời gian hơn để suy luận và xem xét ngữ cảnh trước khi phản hồi các lời nhắc.

OpenAI cho biết họ sẽ tiếp tục chia sẻ tiến độ của mình trong 120 ngày tới và đang hợp tác với một nhóm chuyên gia về phát triển thanh thiếu niên, sức khỏe tâm thần và tương tác người-máy tính để cung cấp thông tin và định hình tốt hơn cách AI có thể phản hồi trong những thời điểm cần thiết.

Nếu bạn hoặc ai đó bạn biết có thể đang trải qua khủng hoảng sức khỏe tâm thần hoặc có ý định tự tử, hãy gọi hoặc nhắn tin 988. Trong trường hợp khẩn cấp, hãy gọi 911, hoặc tìm kiếm sự chăm sóc từ bệnh viện địa phương hoặc nhà cung cấp dịch vụ sức khỏe tâm thần.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.