Tại sao Sam Altman rời khỏi Ủy ban An toàn của OpenAI

US-TECHNOLOGY-AI-MICROSOFT-COMPUTERS

(SeaPRwire) –   Giám đốc điều hành của OpenAI, Sam Altman, đang từ chức khỏi ủy ban nội bộ mà công ty đã thành lập để tư vấn cho hội đồng quản trị về các quyết định “an toàn và bảo mật quan trọng” trong bối cảnh cuộc đua phát triển công nghệ trí tuệ nhân tạo ngày càng mạnh mẽ.

Ủy ban được thành lập vào tháng 5 đã đánh giá quy trình và biện pháp bảo vệ của OpenAI trong một khoảng thời gian 90 ngày. OpenAI đã thông báo về các khuyến nghị của ủy ban sau khi đánh giá vào ngày 16 tháng 9. Đầu tiên trong danh sách: thiết lập quản trị độc lập cho an toàn và bảo mật.

Do đó, Altman, người ngoài việc phục vụ hội đồng quản trị của OpenAI, còn giám sát hoạt động kinh doanh của công ty với vai trò Giám đốc điều hành, sẽ không còn phục vụ trong ủy ban an toàn. Theo khuyến nghị của ủy ban, OpenAI cho biết ủy ban độc lập mới sẽ do Zico Kolter, Giám đốc Khoa học máy học tại Đại học Carnegie Mellon, người đã gia nhập hội đồng quản trị của OpenAI vào tháng 8, làm chủ tịch. Các thành viên khác của ủy ban bao gồm các thành viên hội đồng quản trị của OpenAI, đồng sáng lập và Giám đốc điều hành của Quora, Adam D’Angelo, tướng quân đội Hoa Kỳ về hưu Paul Nakasone và cựu chủ tịch Sony Entertainment Nicole Seligman. Cùng với Altman, chủ tịch hội đồng quản trị của OpenAI, Bret Taylor, và một số chuyên gia kỹ thuật và chính sách của công ty cũng sẽ từ chức khỏi ủy ban.

Các khuyến nghị khác của ủy ban bao gồm tăng cường biện pháp bảo mật, minh bạch về công việc của OpenAI và thống nhất khung an toàn của công ty. Ủy ban cũng cho biết sẽ khám phá thêm các cơ hội hợp tác với các tổ chức bên ngoài, giống như những tổ chức được sử dụng để giảm thiểu khả năng nguy hiểm.

Ủy ban An toàn và Bảo mật không phải là nỗ lực đầu tiên của OpenAI trong việc tạo ra sự giám sát độc lập. Nhánh có lợi nhuận của OpenAI, được thành lập vào năm 2019, được kiểm soát bởi một thực thể phi lợi nhuận với một hội đồng quản trị “độc lập”, có nhiệm vụ đảm bảo rằng nó hoạt động phù hợp với sứ mệnh phát triển an toàn và có lợi cho xã hội rộng rãi (AGI)—một hệ thống vượt trội hơn con người trong hầu hết các khía cạnh.

Vào tháng 11, hội đồng quản trị của OpenAI đã sa thải Altman, với lý do ông ta “không nhất quán trong việc chia sẻ thông tin với hội đồng quản trị, cản trở khả năng thực hiện trách nhiệm của mình”. Sau khi các nhân viên và nhà đầu tư phản đối—và thành viên hội đồng quản trị kiêm chủ tịch công ty, Greg Brockman từ chức—ông ta đã được phục chức nhanh chóng , Tasha McCauley và Ilya Sutskever từ chức. Brockman sau đó trở lại với vai trò chủ tịch của công ty.

Sự việc này đã làm nổi bật một thách thức chính đối với công ty đang phát triển nhanh chóng. Các nhà phê bình bao gồm Toner và McCauley lập luận rằng việc có một hội đồng quản trị độc lập chính thức không đủ để cân bằng với động lực lợi nhuận mạnh mẽ mà công ty phải đối mặt. Đầu tháng này, đã đưa tin rằng nỗ lực gây quỹ liên tục của OpenAI, có thể đưa mức định giá của nó lên , có thể phụ thuộc vào việc thay đổi cấu trúc công ty.

Toner và McCauley cho biết sự độc lập của hội đồng quản trị là chưa đủ và chính phủ phải đóng vai trò tích cực trong việc quản lý AI. “Ngay cả với những ý định tốt nhất, mà không có sự giám sát bên ngoài, loại tự quản lý này sẽ trở nên không thể thực thi”, hai cựu thành viên hội đồng quản trị trong tạp chí Economist vào tháng 5, phản ánh về cuộc khủng hoảng trong phòng họp của OpenAI vào tháng 11.

Trong quá khứ, Altman đã ủng hộ việc quản lý các hệ thống AI, nhưng OpenAI cũng đã vận động chống lại dự luật AI của California, dự luật sẽ yêu cầu các nhà phát triển tuân thủ các quy định về an toàn. Đi ngược lại với lập trường của công ty, hơn 30 nhân viên hiện tại và trước đây của OpenAI đã ủng hộ dự luật này.

Việc thành lập Ủy ban An toàn và Bảo mật vào cuối tháng 5 là kết quả của một tháng đặc biệt hỗn loạn đối với OpenAI. và , hai lãnh đạo của nhóm “an toàn chung”, tập trung vào việc đảm bảo rằng nếu các hệ thống AI vượt quá khả năng của con người, chúng vẫn nằm dưới sự kiểm soát của con người, đã từ chức. Leike đã chỉ trích OpenAI vì đã ưu tiên “các sản phẩm hấp dẫn” hơn là an toàn trong một bài đăng trên X. Nhóm đã bị giải tán sau khi họ rời đi. Cùng tháng đó, OpenAI đã bị chỉ trích vì yêu cầu các nhân viên rời đi phải ký vào các thỏa thuận ngăn cản họ chỉ trích công ty hoặc sẽ mất cổ phần đã được cấp. (OpenAI sau đó đã cho biết các điều khoản này chưa và sẽ không được thực thi và sẽ được loại bỏ khỏi tất cả các giấy tờ rời đi trong tương lai).

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.