Độc quyền: Anthropic đã để lộ chi tiết của một mô hình chưa ra mắt và một cuộc nghỉ dưỡng chỉ dành cho người được mời dành cho CEO nằm trong một kho dữ liệu không được bảo mật, trong một sự sơ suất bảo mật nghiêm trọng

(SeaPRwire) –   Công ty AI Anthropic đã vô tình tiết lộ chi tiết về việc phát hành mô hình sắp tới, một sự kiện CEO độc quyền và các dữ liệu nội bộ khác, bao gồm hình ảnh và PDF, trong một lỗi bảo mật đáng kể. 

Thông tin chưa được công bố đã có thể truy cập qua hệ thống quản lý nội dung (CMS) của công ty, mà Anthropic sử dụng để xuất bản thông tin lên các phần của trang web của công ty.

Tổng cộng, có khoảng 3.000 tài sản liên kết với blog của Anthropic chưa từng được xuất bản lên trang tin tức hoặc nghiên cứu hướng ra công chúng của công ty nhưng vẫn có thể truy cập công khai trong bộ nhớ đệm dữ liệu này, theo Alexandre Pauwels, một nhà nghiên cứu an ninh mạng tại Đại học Cambridge, người đã đề nghị đánh giá và xem xét tài liệu.

Sau khi thông báo cho Anthropic về vấn đề vào thứ Năm, công ty đã thực hiện các bước để bảo mật dữ liệu để nó không còn có thể truy cập công khai.

Trước khi thực hiện các biện pháp này, Anthropic lưu trữ tất cả nội dung cho trang web của mình — như bài blog, hình ảnh và tài liệu — trong một hệ thống trung tâm có thể truy cập mà không cần đăng nhập. Bất kỳ ai có kiến thức kỹ thuật đều có thể gửi yêu cầu đến hệ thống hướng ra ngoài công chúng đó, yêu cầu nó trả về thông tin về các tệp mà nó chứa.

Mặc dù một số nội dung này chưa được xuất bản lên trang web của Anthropic, hệ thống nền vẫn sẽ trả về các tài sản số mà nó đang lưu trữ cho bất kỳ ai biết cách yêu cầu. Điều này có nghĩa là các tài liệu chưa xuất bản — bao gồm các trang nháp và tài sản nội bộ — có thể được truy cập trực tiếp.

Vấn đề dường như bắt nguồn từ cách hoạt động của hệ thống quản lý nội dung (CMS) mà Anthropic sử dụng. Tất cả các tài sản — như logo, đồ họa hoặc bài nghiên cứu — được tải lên kho dữ liệu trung tâm đều là công khai theo mặc định, trừ khi được đặt rõ là riêng tư. Công ty dường như đã quên hạn chế truy cập vào một số tài liệu không nên công khai, dẫn đến bộ nhớ đệm lớn các tệp có sẵn trong hồ dữ liệu công khai của công ty, những chuyên gia an ninh mạng phân tích dữ liệu nói với . Một số tài sản của công ty cũng có địa chỉ trình duyệt công khai. 

“Một vấn đề với một trong các công cụ CMS bên ngoài của chúng tôi dẫn đến nội dung nháp có thể truy cập,” một người phát ngôn của Anthropic nói với . Người phát ngôn cho rằng vấn đề do “lỗi con người trong cấu hình CMS” gây ra.

Gần đây đã có một số trường hợp nổi bật của các công ty công nghệ gặp lỗi kỹ thuật và sự cố do vấn đề với mã nguồn do AI tạo ra hoặc với các tác nhân AI. Nhưng Anthropic, công ty sản xuất các mô hình AI Claude phổ biến và tự hào đã tự động hóa phần lớn quá trình phát triển phần mềm nội bộ của riêng mình bằng cách sử dụng các tác nhân lập trình AI dựa trên Claude, cho biết AI không phải là nguyên nhân trong trường hợp này.

Vấn đề với CMS của nó “không liên quan đến Claude, Cowork hoặc bất kỳ công cụ AI nào của Anthropic,” người phát ngôn của Anthropic nói.

Công ty cũng cố gắng giảm bớt tầm quan trọng của một số tài liệu đã bị để trống không bảo mật. “Những tài liệu này là các bản nháp sớm của nội dung đang xem xét để xuất bản và không liên quan đến cơ sở hạ tầng cốt lõi, hệ thống AI, dữ liệu khách hàng hoặc kiến trúc bảo mật của chúng tôi,” người phát ngôn nói.

Mặc dù nhiều tài liệu dường như là các tài sản đã bị loại bỏ hoặc không sử dụng cho các bài blog trước đây, như hình ảnh, biểu ngữ và logo, một số dữ liệu dường như chi tiết thông tin nhạy cảm. 

Các tài liệu bao gồm chi tiết về các thông báo sản phẩm sắp tới, bao gồm thông tin về một mô hình AI chưa được phát hành mà Anthropic nói trong các tài liệu là mô hình mạnh nhất mà công ty từng huấn luyện.

Sau khi được liên hệ, công ty đã thừa nhận rằng đang phát triển và thử nghiệm với các khách hàng truy cập sớm một mô hình mới mà nó cho là đại diện cho một “biến đổi bước” trong năng lực AI, với hiệu suất đáng kể tốt hơn trong “lý luận, lập trình và an ninh mạng” so với các mô hình Anthropic trước đây.

Dữ liệu có thể truy cập công khai cũng bao gồm thông tin về một cuộc tập trung chỉ mời sắp tới dành cho các CEO của các công ty lớn châu Âu diễn ra tại Vương quốc Anh mà CEO của Anthropic, Dario Amodei, dự định tham dự. Một người phát ngôn của Anthropic nói rằng cuộc tập trung là “một phần của loạt sự kiện liên tục mà chúng tôi đã tổ chức trong năm qua” và công ty đang “phát triển một mô hình đa năng với tiến bộ có ý nghĩa trong lý luận, lập trình và an ninh mạng.”

Trong số các tài liệu cũng có hình ảnh dường như dùng cho mục đích nội bộ, bao gồm một hình ảnh có tiêu đề mô tả “nghỉ nuôi con” của một nhân viên. 

Đây không phải là lần đầu tiên một công ty công nghệ vô tình tiết lộ tài sản nội bộ hoặc trước khi phát hành bằng cách để chúng có thể truy cập công khai trước khi công bố chính thức.

Apple đã hai lần rò rỉ thông tin thông qua trang web của riêng mình — một lần vào năm 2018, khi tên của iPhone sắp ra mắt xuất hiện trong một tệp bản đồ trang web có thể truy cập công khai vài giờ trước khi ra mắt, và lần nữa vào cuối năm 2025, khi một nhà phát triển phát hiện ra rằng Apple đã cung cấp App Store được thiết kế lại với các tệp gỡ lỗi vẫn hoạt động, khiến toàn bộ mã nguồn nội bộ của trang web có thể đọc được bởi bất kỳ ai có trình duyệt.

Các công ty game như Epic Games và Nintendo cũng đã chứng kiến các hình ảnh trước khi phát hành, tài sản trong game và các phương tiện truyền thông khác bị rò rỉ qua hệ thống mạng phân phối nội dung (CDNs) hoặc máy chủ thử nghiệm, tương tự như hồ dữ liệu mà Anthropic sử dụng trong trường hợp này. Ngay cả các công ty lớn như Google cũng đã vô tình tiết lộ tài liệu nội bộ tại các URL công khai, và dữ liệu liên quan đến xe Tesla đã bị tiết lộ thông qua các máy chủ bên thứ ba được cấu hình sai.

Tuy nhiên, vấn đề có thể được làm trầm trọng hơn bởi các công cụ lập trình AI hiện có sẵn trên thị trường — bao gồm Claude Code của Anthropic.  

Các công cụ này có thể tự động hóa quá trình thu thập, phát hiện mẫu và tương quan các tài sản có thể truy cập công khai, khiến việc phát hiện loại nội dung này dễ dàng hơn nhiều và làm giảm rào cản để làm điều đó. Các công cụ AI như Claude Code hoặc Codex cũng có thể tạo ra các tập lệnh hoặc truy vấn quét toàn bộ tập dữ liệu, nhanh chóng xác định các mẫu hoặc quy tắc đặt tên tệp mà con người có thể bỏ lỡ. 

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.