Đối với AI, những gì chúng ta không biết có thể gây hại cho chúng ta

(SeaPRwire) – Trong vài năm qua, trí tuệ nhân tạo (AI) đã trở thành chủ đề được bàn tán sôi nổi. Mỗi mô hình AI mới đều hé lộ những đổi mới đáng kinh ngạc, vượt trội hơn phiên bản được phát hành chỉ vài tuần trước. Các chuyên gia, nhà phát triển và CEO của các công ty AI đưa ra những tuyên bố táo bạo về quỹ đạo tương lai, từ việc kết thúc lao động nặng nhọc và sự gia tăng tuổi thọ con người cho đến mối đe dọa tiềm tàng đối với nhân loại.
Nếu mọi người đều đang nói về AI, một phần là vì việc công khai những đổi mới đó đã tạo ra doanh thu tăng trưởng theo cấp số nhân cho các công ty phát triển các mô hình này. Nhưng khi AI trở nên nhanh hơn, có khả năng hơn, phức tạp hơn, cuộc trò chuyện công khai đó có thể nhanh chóng được chuyển ra sau cánh cửa đóng kín. Các công ty AI ngày càng triển khai các mô hình AI trong chính tổ chức của họ, và có khả năng họ sẽ sớm thấy có lợi khi dành những mô hình tương lai mạnh mẽ nhất của mình để sử dụng nội bộ. Nhưng những quyết định có vẻ vô hại này có thể gây ra mối đe dọa nghiêm trọng cho xã hội nói chung, như đã lập luận dưới đây.
Hầu hết các công ty AI hàng đầu đã công khai tuyên bố ý định phát triển các mô hình AI có năng lực ngang bằng con người trên tất cả các tác vụ nhận thức, điều này có thể tạo ra hàng nghìn tỷ đô la giá trị kinh tế. Với niềm tin phổ biến hiện nay về một lộ trình trực tiếp hướng tới trí tuệ nhân tạo tổng quát (AGI), lợi thế chiến lược tiềm năng của các mô hình rất tiên tiến có thể sớm dẫn các công ty tận dụng các mô hình của họ một cách bí mật và nội bộ để tăng tốc tiến bộ kỹ thuật – nhưng chỉ cung cấp rất ít tín hiệu tiến bộ cho các đối thủ cạnh tranh và thế giới bên ngoài rộng lớn hơn.
Các hệ thống AI hiện tại đã thường xuyên hoạt động theo những cách bất ngờ, không chủ ý và không mong muốn trong các bối cảnh mô phỏng thử nghiệm, ví dụ như đe dọa giết người dùng, tạo ra những kế hoạch quân sự tàn khốc hoặc tạo ra mã độc hại. Tuy nhiên, nếu các nhà phát triển hàng đầu bắt đầu giữ kín thông tin hơn, xã hội sẽ không còn một cửa sổ, dù hẹp, để tìm hiểu và đánh giá công khai về những mặt lợi và mặt hại, hồ sơ rủi ro và bảo mật, cũng như quỹ đạo của công nghệ nền tảng này. Một khi các hệ thống AI tương lai tiên tiến được triển khai và sử dụng, và có thể độc quyền, sau cánh cửa đóng kín, những mối nguy hiểm không lường trước được đối với xã hội có thể xuất hiện và phát triển mà không có sự giám sát hoặc cảnh báo – đó là một mối đe dọa mà chúng ta có thể và phải tránh.
Các phòng thí nghiệm hàng đầu đã và đang tăng cường tận dụng các hệ thống AI để đẩy nhanh quy trình nghiên cứu và phát triển (R&D) của riêng họ, bằng cách thiết kế các thuật toán mới, đề xuất các kiến trúc hoàn toàn mới hoặc tối ưu hóa mã. Google, chẳng hạn, tuyên bố rằng 50% mã của họ hiện được viết bởi AI. Như đã nêu bật trong cuộc phỏng vấn với CEO của DeepMind, Demis Hassabis, các hệ thống AI tiên tiến cuối cùng có thể được sử dụng để liên tục cải thiện những người kế nhiệm của chúng, có khả năng tạo ra một “vòng lặp phản hồi” mạnh mẽ của các mô hình ngày càng có năng lực. Kết quả này sẽ là tin tốt cho các công ty AI nhằm nhanh chóng đạt được trí tuệ nhân tạo tổng quát, hoặc thậm chí siêu trí tuệ, vượt lên đối thủ – nhưng chỉ khi họ tận dụng lợi thế chiến lược của mình tránh xa những ánh mắt tò mò.
Thoạt nhìn, tất cả những điều này có vẻ vô hại: một hệ thống AI chưa được phát hành có thể gây ra mối đe dọa gì?
Vấn đề là hai mặt: thứ nhất, khi các hệ thống AI tiên tiến ngày càng hữu ích nội bộ để xây dựng AI tốt hơn, có thể có động lực cạnh tranh và kinh tế mạnh mẽ, thậm chí hơn cả hiện nay, để ưu tiên tốc độ và lợi thế cạnh tranh hơn là sự thận trọng. Động lực cuộc đua này tiềm ẩn rủi ro, đặc biệt nếu các hệ thống AI ngày càng tiên tiến bắt đầu được nhân viên công ty sử dụng và triển khai vào các khu vực quan trọng về bảo mật như R&D AI, có thể tự động để giảm ma sát, đưa vào các điểm lỗi tiềm ẩn trước khi bất kỳ ai có thể hiểu đầy đủ hành vi của hệ thống AI.
Thứ hai, các đánh giá và can thiệp hiện có chủ yếu tập trung vào các hệ thống AI công khai. Đối với các hệ thống AI triển khai nội bộ, rất ít, nếu có, thông tin nào được cung cấp về việc ai có quyền truy cập đặc quyền vào chúng hoặc chúng được sử dụng để làm gì. Chính xác hơn, có rất ít thông tin được công bố về khả năng của chúng, liệu chúng có hoạt động theo những cách không mong muốn hay không; liệu chúng có được kiểm soát phù hợp với các cơ chế giám sát và biện pháp bảo vệ hay không; liệu chúng có thể bị lạm dụng bởi những người có quyền truy cập vào chúng hay hồ sơ rủi ro tổng thể của chúng hay không. Cũng không có đủ các yêu cầu cấp độ và chi tiết để đảm bảo rằng các hệ thống AI này được kiểm tra nghiêm ngặt và không gây ra mối đe dọa dây chuyền cho xã hội trước khi chúng được đưa vào sử dụng.
Nếu chúng ta không yêu cầu các công ty công nghệ cung cấp thông tin đủ chi tiết về cách họ thử nghiệm, kiểm soát và sử dụng nội bộ các mô hình AI mới, các chính phủ không thể chuẩn bị cho các hệ thống AI cuối cùng có thể có năng lực cấp quốc gia. Trong khi đó, các mối đe dọa phát triển sau cánh cửa đóng kín có thể tràn ra xã hội mà không có cảnh báo trước hoặc khả năng can thiệp. Chắc chắn rằng, ngay cả ngày nay, chúng ta không thể tin tưởng các hệ thống AI hiện tại sẽ hoạt động đáng tin cậy như dự định, cho dù chúng được triển khai bên ngoài hay nội bộ. Tuy nhiên, chúng ta vẫn còn thời gian để hành động.
Có những biện pháp thẳng thắn có thể được thực hiện ngay hôm nay. Phạm vi các chính sách an toàn AI tiên tiến tự nguyện của các công ty AI nên được mở rộng rõ ràng để bao gồm việc triển khai và sử dụng nội bộ có rủi ro cao, chẳng hạn như để đẩy nhanh R&D AI. Là một phần của điều này, việc triển khai nội bộ nên được xử lý với sự cẩn trọng như việc triển khai bên ngoài, và các đánh giá và thẩm định nghiêm ngặt để xác định các khả năng nguy hiểm, việc thiết lập hồ sơ rủi ro rõ ràng, và các cơ chế kiểm soát hoặc bảo vệ bắt buộc trước khi sử dụng nên được khuyến khích.
Các cơ quan chính phủ phụ trách công tác chuẩn bị quốc gia nên có khả năng hiển thị chủ động vào việc triển khai và sử dụng nội bộ các hệ thống AI rất tiên tiến và nhận tất cả thông tin quan trọng đối với an ninh quốc gia cần thiết. Điều này có thể bao gồm, ví dụ, thông tin về việc ai có quyền truy cập vào các hệ thống AI này và trong điều kiện nào, các hệ thống AI này được sử dụng để làm gì, sự giám sát nào đang được áp dụng cho chúng, và điều gì có thể xảy ra nếu sự giám sát này thất bại, để đảm bảo rằng lợi ích kinh tế và sở hữu trí tuệ được cân bằng với lợi ích an ninh quốc gia hợp pháp.
Các công ty AI và chính phủ nên hợp tác dẫn đầu trong việc áp dụng những thực tiễn tốt nhất thẳng thắn này để đảm bảo đổi mới đáng tin cậy và bảo vệ công chúng.
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.