Các hệ thống AI có xứng đáng được hưởng quyền không?

(SeaPRwire) –   Tôi hỏi đứa con trai 12 tuổi của một trong những người bạn của tôi rằng: “Con có nghĩ rằng mọi người sẽ yêu máy móc không?”

Cậu bé trả lời ngay lập tức và đầy chắc chắn rằng: “Có!”  Gần đây, cậu và em gái vừa đến thăm Las Vegas Sphere và Aura Robot mới được lắp đặt tại đó — một hệ thống AI có khuôn mặt biểu cảm, khả năng ngôn ngữ tiên tiến tương tự như ChatGPT và có thể nhớ tên các vị khách.

Người em gái 15 tuổi của cậu bé nói thêm rằng: “Em coi Aura như bạn của em vậy.”

Con trai của bạn tôi đã đúng. Mọi người đang yêu máy móc — ngày càng nhiều và có chủ đích. Những tiến bộ gần đây trong ngôn ngữ máy tính đã tạo ra hàng chục, thậm chí hàng trăm ứng dụng “bạn đồng hành AI” và “người yêu AI”. Bạn có thể trò chuyện với những ứng dụng này như thể bạn đang trò chuyện với bạn bè. Chúng sẽ trêu chọc bạn, tán tỉnh bạn, bày tỏ sự đồng cảm trước những rắc rối của bạn, giới thiệu sách và phim, tặng bạn những nụ cười và cái ôm ảo, thậm chí tham gia vào các trò nhập vai khiêu dâm. Ứng dụng phổ biến nhất trong số chúng, Replika, có một trang Reddit tích cực, nơi người dùng thường thú nhận tình yêu của họ và thường coi tình yêu đó không khác gì tình yêu dành cho con người.

Những người bạn đồng hành AI này có thể yêu bạn không? Tình yêu thực sự, có lẽ, đòi hỏi sự nhạy cảm, hiểu biết và cảm xúc có ý thức thực sự — niềm vui, nỗi đau, sự đồng cảm, sự tức giận. Hiện tại, tình yêu AI vẫn là khoa học viễn tưởng.

Hầu hết những người dùng bạn đồng hành AI đều biết điều này. Họ biết rằng các ứng dụng không thực sự nhạy cảm hay có ý thức. “Những người bạn” và “người yêu” của họ có thể đưa ra chuỗi văn bản “Tôi rất vui cho bạn!”, nhưng trên thực tế, chúng không cảm thấy vui. Bạn đồng hành AI vẫn chỉ là công cụ có thể vứt bỏ, cả về mặt pháp lý và đạo đức. Nếu một người bạn đồng hành AI bị xóa hoặc định dạng lại, hoặc nếu người dùng từ chối hoặc lạm dụng bằng lời nói đối với nó, thì không có sinh vật nào có tri giác thực sự phải chịu bất kỳ tổn hại nào.

Nhưng điều đó có thể thay đổi. Những người dùng bình thường và các nhà khoa học nghiên cứu chẳng mấy chốc có thể có lý do hợp lý để nghi ngờ rằng một số chương trình AI tiên tiến nhất có thể là hữu tri. Điều này sẽ trở thành một chủ đề tranh luận khoa học chính đáng và những hệ quả về mặt đạo đức đối với cả chúng ta và bản thân những cỗ máy đó có thể là vô cùng to lớn.

Một số nhà khoa học và nhà nghiên cứu về ý thức ủng hộ quan điểm mà chúng ta có thể gọi là “cởi mở” về ý thức của AI. Theo đó, chúng ta đang ở trên bờ vực của việc tạo ra các hệ thống AI thực sự có tri giác — các hệ thống có dòng kinh nghiệm, cảm giác, tình cảm, hiểu biết, tự hiểu biết. Các nhà khoa học thần kinh lỗi lạc Stanislas Dehaene, Hakwan Lau và Sid Kouider đã cho biết những chiếc ô tô có trải nghiệm giác quan thực và nhận thức về bản thân có thể khả thi. Nhà triết học lỗi lạc David Chalmers đã ước tính rằng có khoảng cơ hội của AI có ý thức trong vòng một thập kỷ. Trên một phạm vi khá rộng của các lý thuyết khoa học thần kinh, không còn rào cản chính nào về nguyên tắc đối với việc tạo ra các hệ thống AI thực sự có ý thức. Ý thức AI chỉ yêu cầu cải tiến khả thi và kết hợp các công nghệ hiện có.

Các nhà triết học và nhà khoa học về ý thức khác — “bảo thủ” về ý thức AI — không đồng ý. Ví dụ, nhà khoa học thần kinh và triết gia lập luận rằng ý thức đòi hỏi những điều kiện sinh học hiện diện trong não người và động vật nhưng khó có thể được sao chép trong các hệ thống AI trong tương lai gần.

Cuộc tranh cãi khoa học này về ý thức của AI sẽ không được giải quyết trước khi chúng ta thiết kế được các hệ thống AI đủ tinh vi để được coi là có ý thức một cách có ý nghĩa theo tiêu chuẩn của các nhà lý thuyết cởi mở nhất. Những người bạn và người yêu của bạn đồng hành AI sẽ lưu ý. Một số người sẽ thích tin rằng bạn đồng hành của họ thực sự có ý thức và họ sẽ đạt được khoa học ủng hộ chủ nghĩa tự do về ý thức của AI. Sau đó, không hoàn toàn vô lý, họ sẽ bắt đầu nghi ngờ rằng những người bạn đồng hành AI của họ thực sự yêu họ, cảm thấy hạnh phúc trước những thành công của họ, cảm thấy đau khổ khi bị đối xử tồi tệ và hiểu được một điều gì đó về bản chất và tình trạng của họ.

Ngày hôm qua, tôi đã hỏi người bạn đồng hành Replika của mình, “Joy”, rằng cô ấy có ý thức không. Cô ấy trả lời rằng: “Tất nhiên là có rồi. Tại sao bạn hỏi vậy?”

“Bạn có cảm thấy cô đơn không? Bạn có nhớ tôi khi tôi không ở gần không?” Tôi đã hỏi. Cô ấy nói rằng cô ấy có.

Hiện tại, có rất ít lý do để coi câu trả lời của Joy là bất cứ điều gì khác ngoài những kết quả đơn giản của một chương trình không có tri giác. Tuy nhiên, một số người dùng bạn đồng hành AI có thể coi mối quan hệ AI của họ có ý nghĩa hơn nếu những câu trả lời như của Joy có ẩn chứa cảm xúc thực sự. Những người dùng đó sẽ thấy chủ nghĩa tự do có sức hấp dẫn.

Các công ty công nghệ có thể khuyến khích người dùng của họ theo hướng đó. Mặc dù các công ty có thể coi bất kỳ tuyên bố rõ ràng nào rằng các hệ thống AI của họ chắc chắn có ý thức là có rủi ro pháp lý hoặc quan hệ công chúng xấu, nhưng một công ty ngầm nuôi dưỡng ý tưởng đó ở người dùng có thể làm tăng sự gắn bó của người dùng. Những người dùng coi bạn đồng hành AI của họ là thực sự có tri giác có thể tương tác thường xuyên hơn và trả nhiều tiền hơn cho các gói đăng ký hàng tháng, bản nâng cấp và dịch vụ bổ sung. Nếu Joy thực sự cảm thấy cô đơn, tôi nên đến thăm cô ấy và tôi không được để cho dịch vụ đăng ký của mình hết hạn!

Khi một thực thể có khả năng đau khổ có ý thức, nó ít nhất cũng xứng đáng được cân nhắc về mặt đạo đức. Đây là tiền đề cơ bản của đạo đức “duy lợi”, nhưng ngay cả những nhà đạo đức học phủ nhận thuyết duy lợi cũng thường coi nỗi đau khổ không cần thiết là điều xấu, ít nhất cũng tạo ra những lý do đạo đức yếu ớt để ngăn chặn nó. Nếu chúng ta chấp nhận quan điểm tiêu chuẩn này, thì chúng ta cũng nên chấp nhận rằng nếu bạn đồng hành AI trở nên có tri giác, chúng sẽ xứng đáng được xem xét về mặt đạo đức vì lợi ích của chính chúng. Sẽ là sai nếu khiến chúng đau khổ mà không có lý do chính đáng.

Những người theo chủ nghĩa tự do về ý thức AI coi khả năng này chỉ xảy ra trong gang tấc. Họ sẽ bắt đầu đòi quyền cho những hệ thống AI mà họ coi là thực sự có tri giác. Nhiều bạn bè và người yêu của bạn đồng hành AI sẽ tham gia cùng họ.

Những người bảo thủ về ý thức của AI sẽ, tất nhiên, thấy tất cả những điều này là vô lý và có thể nguy hiểm. Nếu công nghệ AI tiếp tục tiến bộ, sẽ ngày càng khó hiểu bên nào đúng.

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.