Vấn đề Căn chỉnh Con người và AI

(SeaPRwire) – Chúng ta đang ở sâu trong kỷ nguyên AI, nơi mỗi tuần lại mang đến một tính năng hoặc nhiệm vụ mới mà AI có thể hoàn thành. Nhưng với chặng đường đã đi được, điều càng cần thiết hơn là nhìn lại tổng thể và đặt ra những câu hỏi lớn hơn về nơi chúng ta đang đi, làm thế nào để tận dụng tốt nhất công nghệ này khi nó phát triển, và thực sự, làm thế nào để phát huy tốt nhất bản thân chúng ta khi cùng tiến hóa.
Gần đây có một khoảnh khắc đáng chú ý khi Sam Altman xuất hiện trên podcast của Tucker Carlson. Carlson đã hỏi Altman về nền tảng đạo đức của ChatGPT. Ông lập luận rằng công nghệ này có một thành phần cơ bản mang tính tôn giáo hoặc tâm linh, vì chúng ta cho rằng nó mạnh mẽ hơn con người và chúng ta tìm đến nó để được hướng dẫn. Altman trả lời rằng đối với ông, không có gì tâm linh về nó. Carlson nói: “Vậy nếu nó không hơn gì một cỗ máy và chỉ là sản phẩm của các đầu vào của nó, thì hai câu hỏi rõ ràng là: các đầu vào đó là gì? Khung đạo đức nào đã được đưa vào công nghệ này?”
Altman sau đó đề cập đến “model spec,” tức là tập hợp các chỉ dẫn mà một mô hình AI được cung cấp để điều chỉnh hành vi của nó. Đối với ChatGPT, ông nói, điều đó có nghĩa là đào tạo nó dựa trên “kinh nghiệm, kiến thức, và những gì nhân loại đã học được từ tập thể.” Nhưng, ông nói thêm, “sau đó chúng ta phải điều chỉnh nó để hành xử theo cách này hay cách khác.”
Và điều đó, tất nhiên, dẫn chúng ta đến vấn đề căn chỉnh nổi tiếng – ý tưởng rằng để phòng ngừa rủi ro hiện sinh khi AI chiếm quyền kiểm soát, chúng ta cần căn chỉnh AI với các giá trị của con người. Khái niệm này thực ra đã có từ năm 1960 với nhà tiên phong AI Norbert Wiener, người đã mô tả vấn đề căn chỉnh như sau: “Nếu chúng ta sử dụng một cơ chế máy móc mà chúng ta không thể can thiệp hiệu quả vào hoạt động của nó để đạt được mục đích của mình… tốt hơn hết chúng ta nên chắc chắn rằng mục đích đưa vào máy là mục đích mà chúng ta thực sự mong muốn.”
Nhưng thực tế có một vấn đề căn chỉnh lớn hơn nhiều, đã tồn tại từ trước năm 1960. Để căn chỉnh AI với các giá trị của con người, bản thân chúng ta cần phải rõ ràng về các giá trị phổ quát mà chúng ta chấp nhận. Các đầu vào của chúng ta là gì? Model spec của chúng ta là gì? Chúng ta đang tự đào tạo mình dựa trên những gì để có thể sống một cuộc đời ý nghĩa?
Đây là những câu hỏi chúng ta cần trả lời trước khi quyết định AI sẽ dựa vào những đầu vào nào. Ngay cả khi chúng ta có thể căn chỉnh AI một cách hoàn hảo với hiện trạng của nhân loại, kết quả sẽ không tối ưu. Vì vậy, bây giờ là lúc để làm rõ các giá trị của chúng ta trước khi chúng ta xây dựng một công nghệ có nghĩa vụ tích hợp và phản ánh chúng.
Bởi vì hiện tại chúng ta đang trải qua một sự lệch lạc sâu sắc. Trong thế giới hiện đại của chúng ta, chúng ta đã mất kết nối với nền tảng tinh thần mà các nền văn minh của chúng ta, cả phương Tây và phương Đông, đã được xây dựng trên đó. Chúng ta đã sống trong ánh hào quang của nó qua nhiều thế kỷ, nhưng giờ đây ngay cả ánh hào quang đó cũng đã mờ đi và chúng ta trở nên không còn định hướng, không còn gắn kết.
Nền tảng đó bắt đầu sụp đổ từ từ với Thời kỳ Khai sáng và Cách mạng Công nghiệp, nhưng vẫn tiếp tục dựa vào những chân lý vĩnh cửu này. Chúng ta đã ít nói lên – và thậm chí ít tin vào – chúng hơn trước, nhưng chúng ta vẫn được chúng dẫn dắt. Nhưng giờ đây, mối liên hệ đã bị cắt đứt để đào tạo AI căn chỉnh với các giá trị của con người, chúng ta trước hết cần khai quật và kết nối lại với chúng.
Trong cuốn sách mới của mình, Paul Kingsnorth khám phá cách mọi nền văn hóa được xây dựng dựa trên một trật tự thiêng liêng. Ông viết: “Điều này, tất nhiên, không nhất thiết phải là một trật tự Kitô giáo.” “Nó có thể là Hồi giáo, Ấn Độ giáo, hoặc Đạo giáo.” Thời kỳ Khai sáng đã cắt đứt chúng ta khỏi trật tự thiêng liêng đó, nhưng, như Kingsnorth nói, “xã hội đã không nhận ra điều đó vì các tượng đài của trật tự thiêng liêng cũ vẫn đứng vững, giống như các bức tượng La Mã sau sự sụp đổ của Đế chế.” Điều chúng ta thấy là cái giá mà các xã hội phải trả khi trật tự đó sụp đổ: “sự biến động ở mọi cấp độ xã hội, từ cấp độ chính trị cho đến cấp độ tâm hồn.”
Chẳng phải đây chính xác là những gì đang diễn ra ngay bây giờ sao? Kingsnorth viết: “Điều đó sẽ giải thích giọng điệu kỳ lạ, căng thẳng, tan vỡ và bực bội của thời đại.”
Trong cuộc trò chuyện với Carlson, Altman đã nói về việc AI được đào tạo dựa trên “kinh nghiệm tập thể” của nhân loại. Nhưng liệu bản thân chúng ta có thực sự đang tiếp cận toàn bộ kinh nghiệm tập thể của việc làm người không?
Khi chúng ta xây dựng một công nghệ mang tính biến đổi sẽ thay đổi mọi thứ về cuộc sống của chúng ta, chúng ta cần đảm bảo rằng chúng ta đào tạo nó dựa trên những giá trị cơ bản và bất biến định nghĩa chúng ta là con người.
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.