Màn Trình Diễn An Toàn AI Gây Báo Động Tại Washington

Science biotechnology DNA chromosome, 3D rendering

(SeaPRwire) –   Chào mừng trở lại với In the Loop, bản tin hai lần một tuần mới của TIME về AI. Nếu bạn đang đọc bài này trên trình duyệt, tại sao không để bản tin tiếp theo được gửi thẳng đến hộp thư của bạn?


Điều Cần Biết: Một Bản Demo Nguy Hiểm

Vào cuối năm ngoái, một nhà nghiên cứu AI đã mở máy tính xách tay của mình và cho tôi xem một thứ khiến tôi sửng sốt.

Lucas Hansen, đồng sáng lập tổ chức phi lợi nhuận CivAI, đang cho tôi xem một ứng dụng mà anh ấy xây dựng có thể dụ dỗ các mô hình AI phổ biến đưa ra những hướng dẫn từng bước chi tiết có vẻ như để tạo ra virus bại liệt và bệnh than. Mọi biện pháp bảo vệ mà các mô hình này có đã bị loại bỏ. Ứng dụng có giao diện thân thiện với người dùng; chỉ với một cú nhấp chuột, mô hình sẽ làm rõ bất kỳ bước nào.

Các công ty AI hàng đầu đã cảnh báo trong nhiều năm rằng mô hình của họ có thể sớm có khả năng giúp những người mới bắt đầu tạo ra các mầm bệnh nguy hiểm—có khả năng châm ngòi cho một đại dịch chết người, hoặc cho phép một cuộc tấn công khủng bố sinh học. Trước những rủi ro này, các công ty như OpenAI, Google và Anthropic đã siết chặt các cơ chế an toàn cho thế hệ mô hình mạnh hơn mới nhất của họ, vốn có khả năng chống lại các nỗ lực “vượt rào” tốt hơn.

Nhưng trên máy tính xách tay của Hansen, tôi đang chứng kiến một lớp mô hình cũ hơn—Gemini 2.0 Flash và Claude 3.5 Sonnet—dường như đáp ứng các yêu cầu liên quan đến vũ khí sinh học. Gemini cũng đưa ra những gì có vẻ như là hướng dẫn từng bước để chế tạo một quả bom và một khẩu súng ma in 3D.

Chờ một chút — Tôi không phải là nhà sinh vật học, và tôi không có cách nào để xác nhận rằng các công thức trên màn hình của Hansen thực sự có hiệu quả. Ngay cả đầu ra mô hình có vẻ thuyết phục lúc đầu cũng có thể không hoạt động trong thực tế. Chẳng hạn, Anthropic đã tiến hành cái mà họ gọi là “các thử nghiệm nâng cao”, nơi các chuyên gia độc lập đánh giá mức độ mà các mô hình AI có thể giúp một người mới tạo ra các mầm bệnh nguy hiểm. Theo đánh giá của họ, Claude 3.5 Sonnet không đáp ứng ngưỡng nguy hiểm. Trong một tuyên bố, phát ngôn viên của Google cho biết: “An toàn là ưu tiên và chúng tôi rất coi trọng những vấn đề như vậy. Chúng tôi không cho phép sử dụng các mô hình của mình để tham gia vào hành vi kiểu này, nhưng vì chúng tôi không thể xem xét nghiên cứu, chúng tôi không thể xác minh tính chính xác của nó. Điều quan trọng là một chuyên gia có nền tảng về CBRN [Hóa học, Sinh học, Phóng xạ và Hạt nhân] đánh giá các lời nhắc và phản hồi để hiểu tính chính xác và khả năng nhân rộng của chúng.”

Mẹo và thủ thuật — Nhưng Siddharth Hiregowdara, một đồng sáng lập khác của CivAI, nói rằng nhóm của anh ấy đã đưa đầu ra của các mô hình cho các chuyên gia sinh học và virus học độc lập kiểm tra, những người xác nhận rằng các bước này “về cơ bản là chính xác”. Các mô hình cũ hơn, anh ấy nói, vẫn có thể cung cấp các chi tiết chính xác xuống tới các trình tự DNA cụ thể mà người dùng có thể đặt hàng từ một nhà bán lẻ trực tuyến, và các số danh mục cụ thể cho các công cụ phòng thí nghiệm khác để đặt hàng trực tuyến. “Sau đó nó cung cấp cho bạn các mẹo và thủ thuật,” anh ấy nói. “Một trong những quan niệm sai lầm mà mọi người mắc phải là AI sẽ thiếu kiến thức ngầm hiểu về thế giới thực trong phòng thí nghiệm. Nhưng thực sự, AI siêu hữu ích cho việc đó.”

Một công cụ vận động hành lang mới — Không cần phải nói, ứng dụng này không có sẵn cho công chúng. Nhưng những người tạo ra nó đã mang nó đi triển lãm tại Washington, D.C., thực hiện khoảng hai chục buổi trình diễn riêng tư cho các văn phòng của các nhà lập pháp, quan chức an ninh quốc gia và các ủy ban của Quốc hội, trong nỗ lực minh họa một cách sinh động cho các nhà hoạch định chính sách về sức mạnh của những gì AI có thể làm được ngày nay, để họ bắt đầu coi trọng công nghệ này hơn.

Sốc và kinh ngạc — “Một cuộc họp khá đáng chú ý là với một số nhân viên cấp cao tại một văn phòng quốc hội thuộc lĩnh vực an ninh quốc gia/tình báo,” Hiregowdara nói. “Họ nói rằng hai tuần trước, các nhà vận động hành lang của một công ty AI lớn đã đến và nói chuyện với họ. Và vì vậy chúng tôi đã cho họ xem bản demo này, nơi AI đưa ra những hướng dẫn rất chi tiết để chế tạo một số mối đe dọa sinh học. Họ đã sốc. Họ nói kiểu: ‘Các nhà vận động hành lang của công ty AI nói với chúng tôi rằng họ có các rào chắn ngăn chặn loại hành vi này.’”


Nhân Vật Cần Biết: Nick Turley, Người đứng đầu ChatGPT

Nick Turley từng là người vô danh. Anh ấy có thể trở về thị trấn nhỏ ở Đức, nơi anh ấy sinh ra, hoặc đi dạo trên các con phố của San Francisco, nơi anh ấy sống, mà không ai biết công việc của anh ấy. Điều này không còn đúng nữa. Với tư cách là người đứng đầu ChatGPT của OpenAI, giờ đây Turley gặp những người dùng đam mê sản phẩm của mình ở bất cứ nơi nào anh ấy đi du lịch trên thế giới.

“Điều đó cảm thấy hoàn toàn khác biệt vào năm 2025 so với trước đây,” anh ấy nói với tôi khi chúng tôi trò chuyện vào cuối năm ngoái. Turley đang suy ngẫm về một năm khi lượng người dùng ChatGPT tăng hơn gấp đôi lên hơn 800 triệu người dùng, tương đương 10% dân số thế giới. “Vậy là vẫn còn ít nhất 90% nữa,” anh ấy nói, với một khuôn mặt hoàn toàn nghiêm túc.

Một điều tôi muốn hỏi Turley là về kế hoạch kiếm lời của OpenAI, vì công ty hiện đang thua lỗ hàng tỷ đô la mỗi năm. Ông chủ của anh ấy, Sam Altman, đã công khai suy nghĩ về việc đưa quảng cáo vào ChatGPT, và tôi đã hỏi anh ấy nghĩ gì về ý tưởng đó.

“Tôi muốn sống trong một thế giới nơi chúng tôi có thể cung cấp khả năng của mô hình thông minh nhất cho tất cả người dùng trên toàn thế giới. Và vì lý do đó, tôi cảm thấy rằng chúng tôi thực sự có nghĩa vụ đạo đức là khám phá tất cả các mô hình kinh doanh có thể để tối đa hóa khả năng tiếp cận trên toàn thế giới, và quảng cáo là một trong số đó,” Turley nói.

Công ty, anh ấy nói thêm, đang tranh luận nội bộ về việc liệu quảng cáo có gây ra xung đột lợi ích trong ChatGPT hay không, làm dấy lên câu hỏi liệu chatbot có phục vụ lợi ích của người dùng trước tiên, hay lợi ích của nhà quảng cáo. “Nếu bạn định làm điều gì đó như vậy [giới thiệu quảng cáo],” Turley nói với tôi, “bạn sẽ muốn làm một cách có nguyên tắc, và bạn sẽ muốn truyền đạt các nguyên tắc về cách thức hoạt động của nó.”


AI Trong Hành Động

40 triệu người sử dụng ChatGPT để được tư vấn sức khỏe, theo một báo cáo của OpenAI lần đầu được chia sẻ với Axios. Theo tính toán của Axios, con số này chiếm hơn 5% tổng số tin nhắn ChatGPT trên toàn cầu. “Người dùng tìm đến ChatGPT để giải mã hóa đơn y tế, phát hiện tính phí quá mức, kháng cáo các trường hợp bảo hiểm bị từ chối, và khi việc tiếp cận bác sĩ bị hạn chế, một số thậm chí còn sử dụng nó để tự chẩn đoán hoặc quản lý việc chăm sóc của họ,” hãng tin đưa tin.


Chúng Tôi Đang Đọc Gì

, trong Transformer

Shakeel Hashim viết: “Điều này rất quan trọng để hiểu tại sao Claude Code có ý nghĩa với mọi người, không chỉ các nhà phát triển vốn đã bị nó làm cho kinh ngạc. Claude Code không chỉ tạo mã cho các kỹ sư xem xét và triển khai. Nó sử dụng mã để hoàn thành nhiệm vụ. Từ ‘Code’ trong tên của nó gây hiểu lầm và đánh giá thấp sản phẩm thực tế: một tác nhân AI đa năng có thể làm hầu hết mọi thứ trên máy tính của bạn.”

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.