Luật AI mới của California bảo vệ những người tố giác như thế nào
(SeaPRwire) – Các CEO của những công ty đang chạy đua để xây dựng AI thông minh hơn—Google DeepMind, OpenAI, xAI, và Anthropic—đã nói rõ về những rủi ro. Mỗi công ty, đôi khi, đã cảnh báo rằng AI mạnh mẽ có thể gây ra thảm họa cho nhân loại. Tuy nhiên, trong một ngành công nghiệp bị che giấu bởi bí mật thương mại và thỏa thuận bảo mật, những người tố giác tiềm năng đã phải đối mặt với một lựa chọn khó khăn: giữ im lặng, hoặc lên tiếng và đối mặt với những hậu quả pháp lý tiềm tàng.
Một đạo luật mang tính bước ngoặt của California nhằm mục đích giúp lựa chọn đó dễ dàng hơn. Đạo luật Minh bạch trong Trí tuệ Nhân tạo Tiên tiến (SB 53), được Thống đốc Gavin Newsom ký vào ngày 29 tháng 9, cung cấp lá chắn pháp lý mà những người trong cuộc từ lâu đã yêu cầu, bảo vệ những người tố giác khỏi các hành động trả đũa từ chủ lao động của họ.
Đạo luật áp dụng cho bất kỳ công ty nào hoạt động tại California sử dụng lượng lớn sức mạnh tính toán để đào tạo mô hình, một ngưỡng được thiết kế để chỉ điều chỉnh các nhà phát triển tiên tiến trong khi miễn trừ các công ty nhỏ hơn. Nó kết hợp các biện pháp bảo vệ người tố giác mới này với các yêu cầu về tính minh bạch, bắt buộc các nhà phát triển phải công bố kế hoạch giảm thiểu rủi ro và chia sẻ kết quả kiểm tra an toàn, hệ thống hóa những lời hứa mà các nhà phê bình cho rằng đã Các công ty cũng phải báo cáo “sự cố an toàn nghiêm trọng” cho Văn phòng Dịch vụ Khẩn cấp California (OES).
Tại Sao Những Người Tố Giác Kêu Gọi Bảo Vệ
Trong khi “Cha đẻ của AI” Geoffrey Hinton từ chức khỏi Google vào năm 2023 để về những rủi ro hiện sinh của công nghệ, những lời kêu gọi bảo vệ người tố giác đã không xuất hiện cho đến tháng 5 năm 2024, khi Vox việc OpenAI sử dụng “các thỏa thuận chấm dứt hợp đồng cực kỳ hạn chế” để bóp nghẹt chỉ trích. Nhân viên của OpenAI nhận phần lớn khoản bồi thường dưới dạng cổ phần, như thường thấy ở Thung lũng Silicon. Nhưng khi rời công ty, để giữ lại số cổ phần đã được cấp, họ được yêu cầu ký một thỏa thuận có các điều khoản cấm vĩnh viễn họ chỉ trích chủ cũ, và ngăn cản họ đề cập đến sự tồn tại của thỏa thuận. Điều này được đưa ra ánh sáng sau khi một cựu nhân viên, Daniel Kokotajlo, đăng lên một diễn đàn trực tuyến về việc anh từ chối ký – tin rằng anh đã mất hàng triệu đô la giá trị cổ phần đã được cấp.
Ngày hôm sau, CEO của OpenAI, Sam Altman để phủ nhận mọi kiến thức về những điều khoản này, nói rằng, “Đây là lỗi của tôi và là một trong số ít lần tôi thực sự cảm thấy xấu hổ khi điều hành OpenAI; tôi không biết điều này đang xảy ra và đáng lẽ tôi phải biết.” OpenAI sau đó đã xác nhận, trong các tin nhắn gửi đến nhân viên hiện tại và cũ, rằng những điều khoản này sẽ không còn được thực thi, và họ sẽ loại bỏ ngôn ngữ gây khó chịu khỏi tất cả các giấy tờ chấm dứt hợp đồng trong tương lai. Nhưng uy tín trong lời phủ nhận của Altman đã bị nghi ngờ khi, vào ngày 22 tháng 5, dường như cho thấy chữ ký của ông – cũng như chữ ký của các giám đốc điều hành cấp cao khác – trên các tài liệu đã ủy quyền rõ ràng các điều khoản. Vào tháng 6 năm 2024, sau cuộc tranh cãi về các thỏa thuận chấm dứt hợp đồng đã bị OpenAI hủy bỏ, Kokotajlo và 13 nhân viên hiện tại và cũ của OpenAI và Google DeepMind đã kêu gọi bảo vệ người tố giác mạnh mẽ hơn trong một bức thư ngỏ.
Luật Mới Bảo Vệ Điều Gì
Thực hiện một khuyến nghị quan trọng từ bức thư ngỏ, luật mới của California vượt xa các biện pháp bảo vệ người tố giác thông thường chỉ bao gồm các hoạt động bất hợp pháp. Nó cấm các nhà phát triển AI áp đặt các quy tắc ngăn cản nhân viên chịu trách nhiệm đánh giá rủi ro báo cáo vi phạm đạo luật hoặc “rủi ro thảm khốc”—được định nghĩa là gây nguy hiểm cho 50 sinh mạng hoặc gây thiệt hại 1 tỷ đô la—với Tổng chưởng lý, các cơ quan quản lý, hoặc quản lý của họ. Nhân viên không cần phải chắc chắn về một rủi ro thảm khốc, chỉ cần có “lý do hợp lý” để tin vào điều đó, để được bảo vệ bởi luật mới.
Các Biện Pháp Bảo Vệ Người Tố Giác Của California Chỉ Có Giới Hạn
Các biện pháp bảo vệ mới đánh dấu “một bước tiến quan trọng,” Jacob Hilton, một cựu nhà nghiên cứu của OpenAI và là một trong những người ký bức thư ngỏ, cho biết. Tuy nhiên, ông nói rằng ông muốn thấy các biện pháp bảo vệ được thông qua ở cấp liên bang, chỉ ra “Đạo luật Bảo vệ Người tố giác AI” lưỡng đảng được đưa ra trước Quốc hội vào tháng Năm. Hilton lưu ý rằng ngưỡng “rủi ro thảm khốc” có nghĩa là những tổn hại nhỏ hơn nhưng vẫn nghiêm trọng sẽ không được bảo vệ. Một người ký khác của bức thư ngỏ, phát biểu với điều kiện giấu tên, nói với TIME rằng mặc dù giải quyết rủi ro thảm khốc là trọng tâm, “có thể có những lĩnh vực rủi ro khác mà chúng tôi muốn có các biện pháp bảo vệ khác.”
Việc vượt ra ngoài những tiết lộ đơn thuần về hoạt động bất hợp pháp là một điều khoản quan trọng, Lawrence Lessig, giáo sư luật tại Đại học Harvard, người đã cung cấp lời khuyên pháp lý miễn phí cho Kokotajlo và các người ký khác của bức thư, cho biết. Mặc dù Lessig lo ngại về sự không chắc chắn về những gì được bảo vệ có thể ngăn cản nhân viên lên tiếng. Ông nói rằng ông muốn tiêu chuẩn được hạ xuống thành “thiện chí,” tập trung vào niềm tin chân thành của nhân viên hơn là sức mạnh của bằng chứng của họ. Như Lessig đã nói, đây sẽ là “một tiêu chuẩn đơn giản hơn nhiều để một người làm công nghệ có thể dựa vào” hơn là buộc họ phải hành động như một luật sư hay một nhà phân tích rủi ro. Theo luật mới, tiêu chuẩn “thiện chí” thấp hơn được dành riêng cho một kênh báo cáo nội bộ, ẩn danh trong các công ty AI lớn.
Lessig nói rằng những rủi ro mà những người tố giác trước đây đã chấp nhận nhấn mạnh sự cần thiết của các biện pháp bảo vệ như vậy. “Khi bạn có những người bên trong sẵn sàng từ bỏ 2 triệu đô la chỉ để có quyền tự do phát biểu, chúng ta nên sốt sắng muốn hiểu điều họ muốn nói,” ông nói.
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.