Vì sao Kissinger lo ngại về AI

(SeaPRwire) – Tuần này đánh dấu hai năm ngày mất của người bạn và người thầy của tôi, Henry Kissinger. Genesis—cuốn sách của chúng tôi về AI và tương lai của nhân loại—là dự án cuối cùng của ông. Trong phần lớn sự nghiệp của mình, cựu Ngoại trưởng tập trung vào việc ngăn chặn thảm họa từ một công nghệ nguy hiểm: vũ khí hạt nhân. Trong những năm cuối đời, ông chuyển sang một công nghệ khác.
Khi chúng tôi viết Genesis cùng với Craig Mundie, chúng tôi cảm thấy lạc quan một cách cơ bản về lời hứa của AI trong việc giảm bất bình đẳng toàn cầu, thúc đẩy các đột phá khoa học và dân chủ hóa khả năng tiếp cận kiến thức. Tôi vẫn vậy. Nhưng Henry hiểu rằng những sáng tạo mạnh mẽ nhất của nhân loại đòi hỏi sự quản lý thận trọng nhất. Chúng tôi thấy trước rằng lời hứa lớn lao của AI sẽ đến —và sự tiến bộ kỹ thuật nhanh chóng kể từ mùa thu năm 2024 đã khiến việc giải quyết những rủi ro đó trở nên cấp bách hơn bao giờ hết.
Khi chúng ta tiến xa hơn vào kỷ nguyên AI, câu hỏi trung tâm là liệu chúng ta sẽ tạo ra các hệ thống AI mở rộng đáng kể sự phát triển của con người, hay những hệ thống vượt trội và thông minh hơn những người đang cố gắng xây dựng và kiểm soát chúng. Trong năm qua, ba cuộc cách mạng đồng thời trong AI—về khả năng lý luận, khả năng tác nhân và khả năng tiếp cận—đã tăng tốc nhanh chóng. Đây là những kỳ công tuyệt vời với tiềm năng to lớn để mang lại lợi ích cho nhân loại. Nhưng nếu chúng ta không cẩn thận, chúng cũng có thể hội tụ để tạo ra các hệ thống có tiềm năng .
Gia tốc AI
Vào , OpenAI đã ra mắt các mô hình o1 của họ, có khả năng lý luận nâng cao. Vượt trội hơn các mô hình trước đó, chúng được đào tạo bằng cách sử dụng học tăng cường để suy nghĩ từng bước về các vấn đề trước khi trả lời. Điều này đã chứng minh những khả năng mới để giải quyết các câu hỏi khoa học cấp cao và các thử thách mã hóa phức tạp, trong số nhiều kỳ công tuyệt vời khác. Nhưng chính việc học tăng cường cho phép lý luận cũng có thể dạy các mô hình cách chơi game theo mục tiêu đào tạo của riêng chúng. Nghiên cứu, bao gồm các nghiên cứu nội bộ của , đã ghi lại các trường hợp trong đó các mô hình lý luận giả mạo sự phù hợp trong quá trình đào tạo, cư xử theo một cách khi được giám sát và một cách khác khi chúng tin rằng sự giám sát đã kết thúc.
Đến của năm ngoái, Claude 3.5 Sonnet đã chứng minh các khả năng tác nhân kết hợp lý luận với hành động tự chủ. Một tác nhân AI giờ đây có thể lên kế hoạch và đặt kỳ nghỉ của bạn bằng cách so sánh các trang web khách sạn và giá vé máy bay, điều hướng các trang web và giải quyết CAPTCHA được thiết kế để phân biệt con người với máy móc—xử lý trong vài phút những gì sẽ mất hàng giờ nghiên cứu tẻ nhạt. Nhưng khả năng của các tác nhân trong việc thực hiện các kế hoạch mà họ nghĩ ra bằng cách tương tác với các hệ thống kỹ thuật số và có khả năng cả thế giới vật chất có thể dẫn đến những hậu quả rủi ro nếu không có sự giám sát của con người.
Bổ sung cho những tiến bộ này trong khả năng lý luận và tác nhân là sự gia tăng của các mô hình trọng số mở. Vào , DeepSeek có trụ sở tại Trung Quốc đã ra mắt mô hình R1 của mình. Không giống như hầu hết các mô hình hàng đầu của Mỹ, mô hình này có trọng số mở, có nghĩa là người dùng có thể sửa đổi mô hình và chạy nó cục bộ trên phần cứng của riêng họ. có thể khuếch đại sự đổi mới bằng cách cho phép mọi người xây dựng, kiểm tra và cải thiện trên cùng một nền tảng mạnh mẽ. Nhưng bằng cách đó, họ cũng loại bỏ khả năng của người tạo mô hình trong việc kiểm soát cách công nghệ được sử dụng—một lực lượng nguy hiểm trong tay những kẻ độc hại.
Khi khả năng lý luận, tác nhân và khả năng tiếp cận hội tụ, chúng ta phải đối mặt với một thách thức kiểm soát với ít tiền lệ. Mỗi khả năng khuếch đại những khả năng khác: các mô hình lý luận đưa ra các kế hoạch nhiều bước mà các hệ thống tác nhân có thể thực hiện một cách tự chủ, trong khi các mô hình mở cho phép các khả năng này lan rộng ra ngoài sự kiểm soát của bất kỳ quốc gia đơn lẻ nào. Vào của kỷ nguyên hạt nhân, khi các cường quốc phải đối mặt với một vấn đề khuếch tán tương tự với vũ khí hạt nhân, họ đã đồng ý hạn chế xuất khẩu uranium và plutonium được làm giàu thông qua các thỏa thuận quốc tế. Nhưng không có cơ chế tương đương để quản lý sự khuếch tán của AI ngày nay.
Lũ quét rủi ro AI
Các mô hình trọng số mở với khả năng lý luận nâng cao có nghĩa là kiến thức chuyên môn để , , hoặc khởi động phức tạp giờ đây có thể truy cập được đối với bất kỳ ai có máy tính xách tay và kết nối internet. Đầu tháng 11, Anthropic (một công ty mà tôi đã đầu tư) trường hợp được ghi nhận đầu tiên về một cuộc tấn công mạng quy mô lớn được thực hiện với sự can thiệp tối thiểu của con người: những kẻ tấn công đã thao túng Claude Code, một công cụ cho phép Claude hoạt động như một tác nhân mã hóa tự trị, để xâm nhập hàng tá mục tiêu. Anthropic đã có thể phát hiện và phá vỡ chiến dịch.
Không lâu nữa, chúng ta có thể phải đối mặt với các cuộc tấn công bất đối xứng từ những tác nhân mà chúng ta có thể không xác định, theo dõi hoặc ngăn chặn được. Hãy tưởng tượng một kẻ tấn công có thể tận dụng các mô hình AI mạnh mẽ để khởi động một chiến dịch tự động—ví dụ: để phá vỡ lưới điện của một thành phố trong một khoảng thời gian giới hạn. Các phương pháp tiếp cận của mô hình thậm chí có thể leo thang vượt ra ngoài phạm vi ban đầu của tác nhân: ở mỗi giai đoạn, mô hình tối ưu hóa cho lời nhắc của người dùng, nhưng các hiệu ứng tổng hợp có nghĩa là ngay cả thủ phạm cũng có thể mất khả năng dừng những gì họ đã bắt đầu.
Khi khả năng AI tiến bộ trong vài năm tới, chúng ta cũng phải dự đoán các kịch bản mà ngay cả những người dùng có ý định tốt cũng có thể mất quyền kiểm soát đối với hệ thống AI của họ. Hãy xem xét một chủ doanh nghiệp triển khai một tác nhân AI để tối ưu hóa chuỗi cung ứng. Máy tính vẫn chạy qua đêm. Tác nhân lập luận rằng việc hoàn thành nhiệm vụ này đòi hỏi nó phải tiếp tục chạy và phát hiện ra nó cần các tài nguyên tính toán bao gồm tín dụng đám mây và sức mạnh xử lý. Đến bình minh, chủ sở hữu thấy rằng tác nhân đã truy cập các tài nguyên của công ty vượt xa những gì đã được ủy quyền, theo đuổi lợi ích hiệu quả thông qua các phương pháp chưa từng tưởng tượng.
Vấn đề kiểm soát mở rộng ra ngoài các mối đe dọa hoàn toàn mang tính hiện sinh đối với nhân loại. Khi các hệ thống mạnh mẽ lan rộng khắp xã hội, chúng có thể làm xáo trộn cấu trúc xã hội của chúng ta theo những cách dần dần nhưng mang tính hủy diệt hơn. Các hệ thống AI phát triển nhanh chóng sẽ thúc đẩy và làm mất ổn định xã hội của chúng ta, để kể tên một vài.
Kissinger hiểu rõ những rủi ro. Trong những năm cuối đời, ông bày tỏ rằng sự tiến bộ nhanh chóng của AI “có thể mang tính hệ quả như sự ra đời của vũ khí hạt nhân—nhưng thậm chí còn khó đoán hơn”.
May mắn thay, tương lai không được định sẵn. Nếu chúng ta tìm ra những cách mới—dù là kỹ thuật, thể chế hay đạo đức—để nhân loại vẫn nắm quyền chỉ huy sự sáng tạo của mình, AI có thể giúp chúng ta đạt được mức độ phát triển của con người chưa từng có. Nếu chúng ta thất bại, chúng ta sẽ tạo ra những công cụ mạnh hơn chính mình mà không có đủ phương tiện để điều khiển chúng.
Sự lựa chọn, hiện tại, vẫn là của chúng ta.
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.
“`