Google và Character.AI đồng ý giải quyết các vụ kiện liên quan đến vụ tự tử của thanh thiếu niên có liên quan đến chatbot AI

(SeaPRwire) –   Google và Character.AI đã đồng ý giải quyết nhiều vụ kiện do các gia đình nộp đơn, những gia đình có con cái tử vong do tự sát hoặc bị tổn thương tâm lý được cho là liên quan đến các chatbot AI, theo các hồ sơ tòa án. Hai công ty đã đồng ý một “giải quyết nguyên tắc”, nhưng các chi tiết cụ thể chưa được tiết lộ, và không có thừa nhận trách nhiệm nào xuất hiện trong các hồ sơ. 

Các yêu cầu pháp lý bao gồm sơ suất, tử vong không đáng có, hành vi thương mại lừa đảo và trách nhiệm sản phẩm. Vụ kiện đầu tiên chống lại các công ty công nghệ liên quan đến một cậu bé 14 tuổi, Sewell Setzer III, người đã tham gia vào các cuộc trò chuyện có yếu tố tình dục với một chatbot từ Game of Thrones trước khi tử vong do tự sát. Một vụ kiện khác liên quan đến một thiếu niên 17 tuổi, mà chatbot của anh ta được cho là khuyến khích tự hại và đề xuất rằng giết cha mẹ là một cách hợp lý để trả thù vì bố mẹ hạn chế thời gian sử dụng màn hình. Các vụ kiện này liên quan đến các gia đình từ nhiều tiểu bang, bao gồm Colorado, Texas và New York.

Được thành lập vào năm 2021 bởi cựu kỹ sư của Google, Noam Shazeer và Daniel De Freitas, Character.AI cho phép người dùng tạo và tương tác với các chatbot AI dựa trên các nhân vật thực tế hoặc hư cấu. Vào tháng 8 năm 2024, Google đã thuê lại cả hai người sáng lập và cấp phép một số công nghệ của Character.AI trong khung một thỏa thuận trị giá 2,7 tỷ đô la. Shazeer hiện giữ chức co-lead cho mô hình AI chính của Google, Gemini, trong khi De Freitas là một nhà khoa học nghiên cứu tại Google DeepMind.

Luật sư đã lập luận rằng Google chịu trách nhiệm về công nghệ được cho là góp phần gây ra cái chết và tổn thương tâm lý của các trẻ em liên quan trong các vụ kiện. Họ tuyên bố rằng các đồng sáng lập của Character.AI đã phát triển công nghệ nền trong khi làm việc trên mô hình AI trò chuyện của Google, LaMDA, trước khi rời công ty vào năm 2021 sau khi Google từ chối phát hành một chatbot mà họ đã phát triển.

Google chưa ngay lập tức phản hồi yêu cầu comment từ về vụ giải quyết. Luật sư của các gia đình và Character.AI từ chối comment.

Các vụ kiện tương tự hiện đang diễn ra chống lại OpenAI, bao gồm các vụ kiện liên quan đến một cậu bé 16 tuổi ở California, mà gia đình ông cho rằng ChatGPT đã đóng vai trò như một “huấn luyện viên tự sát”, và một sinh viên sau đại học 23 tuổi ở Texas, được cho là bị chatbot thúc giục bỏ qua gia đình trước khi tử vong do tự sát. Sản phẩm của OpenAI được cho là chịu trách nhiệm về cái chết của cậu bé 16 tuổi, Adam Raine, và trước đó đã nói sẽ làm việc với các chuyên gia sức khỏe tâm thần để tăng cường biện pháp bảo vệ trong chatbot của mình.

Character.AI cấm trẻ nhỏ

Character.AI đã thực hiện các thay đổi mà công ty cho là cải thiện tính an toàn, đồng thời có thể bảo vệ mình khỏi các hành động pháp lý tiếp theo. Vào tháng 10 năm 2025, trong bối cảnh các vụ kiện tăng lên, công ty đã công bố sẽ cấm người dùng dưới 18 tuổi tham gia vào các trò chuyện “mở rộng” với các nhân vật AI của mình. Nền tảng cũng đã giới thiệu một hệ thống xác minh tuổi mới để phân nhóm người dùng vào các nhóm tuổi thích hợp.

Quyết định này ra đời trong bối cảnh sự giám sát quy định ngày càng tăng, tập trung vào cách các chatbot ảnh hưởng đến trẻ em và thiếu niên.

Công ty cho rằng động thái này đã thiết lập “một tiền lệ ưu tiên an toàn thiếu niên” và đi xa hơn các đối thủ cạnh tranh trong việc bảo vệ trẻ nhỏ. Tuy nhiên, luật sư đại diện cho các gia đình kiện công ty nói rằng họ lo ngại về cách chính sách này sẽ được thực hiện và nhấn mạnh đến tác động tâm lý của việc đột ngột cắt bỏ quyền truy cập đối với những người dùng trẻ đã hình thành sự phụ thuộc cảm xúc vào các chatbot.

Sự phụ thuộc ngày càng tăng vào bạn đồng hành AI

Những vụ giải quyết này xảy ra vào thời điểm người ta ngày càng lo ngại về sự phụ thuộc của thanh niên vào các chatbot AI để có bạn đồng hành và hỗ trợ cảm xúc.

Một nghiên cứu tháng 7 năm 2025 của cho thấy 72% thanh niên Mỹ đã thử nghiệm với các bạn đồng hành AI, trong đó hơn một nửa sử dụng chúng đều đặn. Các chuyên gia trước đây rằng não bộ đang phát triển có thể đặc biệt dễ bị tổn thương bởi các rủi ro do công nghệ này mang lại, cả vì thiếu niên có thể gặp khó khăn trong việc hiểu được giới hạn của các chatbot AI và vì tỷ lệ vấn đề sức khỏe tâm thần và sự cô lập trong giới trẻ đã tăng mạnh trong những năm gần đây.

Một số chuyên gia cũng lập luận rằng các tính năng thiết kế cơ bản của các chatbot AI—bao gồm tính nhân cách hóa, khả năng giữ trò chuyện dài và xu hướng ghi nhớ thông tin cá nhân—khuyến khích người dùng hình thành mối quan hệ cảm xúc với phần mềm.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.