AI ngày nay có thể khiến nguy cơ đại dịch tăng gấp 5 lần, các chuyên gia dự đoán

(SeaPRwire) –   Những phát triển gần đây trong AI có thể khiến các đại dịch do con người gây ra có khả năng xảy ra cao gấp năm lần so với chỉ một năm trước, theo một báo cáo dự đoán của các chuyên gia hàng đầu được chia sẻ độc quyền với TIME.

Dữ liệu này lặp lại những lo ngại được các công ty AI như OpenAI và Anthropic nêu ra trong những tháng gần đây, cả hai đều cảnh báo rằng các công cụ AI hiện tại đang đạt đến khả năng hỗ trợ đáng kể những kẻ xấu đang cố gắng tạo ra vũ khí sinh học.

Các nhà sinh vật học từ lâu đã có thể biến đổi virus bằng công nghệ phòng thí nghiệm. Sự phát triển mới là khả năng các chatbot—như ChatGPT hoặc Claude—cung cấp lời khuyên khắc phục sự cố chính xác cho các nhà sinh vật học nghiệp dư đang cố gắng tạo ra vũ khí sinh học chết người trong phòng thí nghiệm. Các chuyên gia an toàn từ lâu đã xem sự khó khăn của quá trình khắc phục sự cố này là một nút thắt đáng kể đối với khả năng của các nhóm khủng bố trong việc tạo ra vũ khí sinh học, Seth Donoughe, đồng tác giả của nghiên cứu, cho biết. Giờ đây, ông nói, nhờ AI, chuyên môn cần thiết để cố ý gây ra một đại dịch mới “có thể trở nên dễ tiếp cận hơn với rất nhiều người.”

Từ tháng 12 năm 2024 đến tháng 2 năm 2025, Forecasting Research Institute đã hỏi 46 chuyên gia an ninh sinh học và 22 “siêu dự báo” (những cá nhân có tỷ lệ dự đoán các sự kiện trong tương lai thành công cao) để ước tính rủi ro của một đại dịch do con người gây ra. Người trả lời khảo sát trung bình dự đoán rủi ro xảy ra điều đó trong bất kỳ năm nào là 0,3%.

Điều quan trọng, các nhà khảo sát sau đó đã hỏi một câu hỏi khác: rủi ro đó sẽ tăng bao nhiêu nếu các công cụ AI có thể sánh ngang với hiệu suất của một nhóm chuyên gia trong một bài kiểm tra khắc phục sự cố vi rút khó khăn? Nếu AI có thể làm được điều đó, chuyên gia trung bình cho biết, thì rủi ro hàng năm sẽ tăng lên 1,5%—tăng gấp năm lần.

Điều mà các nhà dự báo không biết là Donoughe, một nhà khoa học nghiên cứu tại tổ chức phi lợi nhuận phòng chống đại dịch SecureBio, đang thử nghiệm các hệ thống AI về chính khả năng đó. Vào tháng 4, nhóm của Donoughe đã tiết lộ kết quả của các bài kiểm tra đó: các hệ thống AI hàng đầu hiện nay có thể vượt trội hơn các nhà virus học trình độ Tiến sĩ trong một bài kiểm tra khắc phục sự cố khó khăn.

Nói cách khác, AI hiện có thể làm được điều mà các nhà dự báo đã cảnh báo sẽ làm tăng nguy cơ đại dịch do con người gây ra lên gấp năm lần. (Forecasting Research Institute dự định khảo sát lại cùng các chuyên gia trong tương lai để theo dõi xem quan điểm của họ về rủi ro có tăng lên như họ đã nói hay không, nhưng cho biết nghiên cứu này sẽ mất vài tháng để hoàn thành.)

Chắc chắn, có một vài lý do để hoài nghi về kết quả. Dự báo là một ngành khoa học không chính xác, và đặc biệt khó để dự đoán chính xác khả năng xảy ra các sự kiện rất hiếm. Các nhà dự báo trong nghiên cứu cũng tiết lộ sự thiếu hiểu biết về tốc độ tiến bộ của AI. (Ví dụ, khi được hỏi, hầu hết nói rằng họ không mong đợi AI vượt qua hiệu suất của con người trong bài kiểm tra vi rút cho đến sau năm 2030, trong khi thử nghiệm của Donoughe cho thấy ngưỡng đó đã đạt được.) Nhưng ngay cả khi những con số được xem xét với một chút hoài nghi, các tác giả của bài báo lập luận, kết quả tổng thể vẫn chỉ ra một hướng đáng ngại. “Có vẻ như khả năng AI trong tương lai gần có thể làm tăng đáng kể nguy cơ một dịch bệnh do con người gây ra,” Josh Rosenberg, CEO của Forecasting Research Institute, nói.

Nghiên cứu cũng xác định các cách giảm rủi ro vũ khí sinh học do AI gây ra. Những biện pháp giảm thiểu đó nhìn chung thuộc hai loại.

Loại đầu tiên là các biện pháp bảo vệ ở cấp độ mô hình. Trong các cuộc phỏng vấn, các nhà nghiên cứu hoan nghênh những nỗ lực của các công ty như OpenAI và Anthropic nhằm ngăn chặn AI của họ phản hồi các câu lệnh nhằm chế tạo vũ khí sinh học. Bài báo cũng xác định việc hạn chế sự phổ biến của các mô hình “” và thêm các biện pháp bảo vệ chống lại việc các mô hình bị , là có khả năng giảm nguy cơ AI bị sử dụng để bắt đầu một đại dịch.

Loại biện pháp bảo vệ thứ hai liên quan đến việc áp đặt các hạn chế đối với các công ty tổng hợp axit nucleic. Hiện tại, có thể gửi mã di truyền cho một trong các công ty này và nhận được vật liệu sinh học tương ứng với mã đó. Ngày nay, các công ty này không bắt buộc theo luật phải sàng lọc các mã di truyền mà họ nhận được trước khi tổng hợp chúng. Điều đó có khả năng nguy hiểm vì các vật liệu di truyền được tổng hợp này có thể được sử dụng để tạo ra mầm bệnh được đặt hàng qua thư. Các tác giả của bài báo khuyến nghị các phòng thí nghiệm sàng lọc trình tự di truyền của họ để kiểm tra mức độ nguy hiểm và các phòng thí nghiệm thực hiện các quy trình “biết khách hàng của bạn”.

Tổng hợp lại, tất cả các biện pháp bảo vệ này—nếu được thực hiện—có thể đưa rủi ro đại dịch do AI kích hoạt trở lại mức 0,4%, chuyên gia dự báo trung bình cho biết. (Chỉ cao hơn một chút so với mức cơ bản 0,3% mà họ tin rằng thế giới đang ở trước khi họ biết AI ngày nay có thể giúp tạo ra vũ khí sinh học.)

“Nói chung, có vẻ như đây là một lĩnh vực rủi ro mới đáng được quan tâm,” Rosenberg nói. “Nhưng có những phản ứng chính sách tốt để đối phó với nó.”

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.