Cấm Quy Định về AI Sẽ Gây Nguy Hiểm cho Trẻ Em Hoa Kỳ

US-SAUDI ARABIA-POLITICS-TECHNOLOGY-ENERGY

(SeaPRwire) –   Phiên điều trần ngày 19 tháng 11 của Tiểu ban Giám sát và Điều tra Năng lượng & Thương mại về rủi ro chatbot là một lời nhắc nhở đáng sợ về cái giá khủng khiếp mà con người phải trả do sự thiếu hành động pháp lý đối với AI. Tuy nhiên, bất chấp sau , các công ty AI vẫn được toàn quyền bán các sản phẩm mà không có bất kỳ tiêu chuẩn an toàn hoặc giám sát có ý nghĩa nào. Không ngành công nghiệp nào khác được trao quyền tự do gây nguy hiểm cho người dân một cách hoàn toàn vô tội như vậy.

Vì vậy, thật là ghê tởm khi ban lãnh đạo đảng Cộng hòa tại Hạ viện đã chọn đúng ngày đó để thông báo rằng họ muốn nhồi nhét quyền ưu tiên liên bang, điều này sẽ cấm gần như tất cả các quy định về AI ở cấp tiểu bang, vào Đạo luật Ủy quyền Quốc phòng (NDAA). Và tổng thống Donald Trump đã và về việc ký một sắc lệnh hành pháp trao cho chính phủ liên bang quyền đơn phương đối với quy định về AI.

Một loạt các tiểu bang bao gồm Utah, Texas và California đã tăng cường đưa ra các quy định quan trọng về AI, những quy định này sẽ bị xóa bỏ bởi quyền ưu tiên. Cử tri ở các tiểu bang này và các tiểu bang khác xứng đáng được hưởng những điều tốt đẹp hơn. Và nếu Quốc hội chậm trễ trong việc ban hành các biện pháp bảo vệ có ý nghĩa để bảo vệ các gia đình, thì việc ngăn cản các nhà lập pháp tiểu bang can thiệp vào vị trí của họ là thái quá, phản dân chủ và nguy hiểm. 

Điều này có vấn đề sâu sắc theo ba cách. Thứ nhất, nó hạn chế đáng kể khả năng các tiểu bang ban hành các quy định thông thường để bảo vệ con cái, cộng đồng và công việc của chúng ta khỏi sự tàn phá của các công ty công nghệ lớn. Không có lý do gì để tin tưởng Big Tech sẽ coi trọng mối quan tâm của phụ huynh và người lao động trong cuộc chạy đua kiếm càng nhiều tiền càng tốt với các sản phẩm AI ngày càng nguy hiểm của họ. Trên thực tế, chúng được thiết kế, về mặt kinh tế và văn hóa, để “di chuyển nhanh và phá vỡ mọi thứ”.

Thứ hai, việc cấm quy định về AI đi ngược lại ý muốn của người dân Mỹ. sau đã chỉ ra rằng sự ủng hộ đối với các biện pháp bảo vệ AI hợp lý là rất phổ biến ở cả cánh hữu và cánh tả. Điều đặc biệt đáng mừng là số lượng cử tri đảng Cộng hòa kêu gọi các biện pháp bảo vệ như vậy. cho thấy rằng hơn 70% cả đảng viên Cộng hòa và đảng viên Dân chủ đều muốn quy định AI mạnh mẽ. Điều này đã được minh họa vào lần cuối cùng Quốc hội xem xét quyền ưu tiên vào tháng Bảy: Thượng viện ý tưởng này với tỷ lệ đáng kinh ngạc là 99 trên 1. Ngay cả Thượng nghị sĩ đưa ra sửa đổi cuối cùng cũng đã bỏ phiếu chống lại đề xuất của chính mình. Vậy tại sao tiếp tục buộc người dân Mỹ phải nuốt một thứ gì đó không được ưa chuộng như vậy? 

Thứ ba, việc nhồi nhét một điều khoản ưu tiên tùy tiện vào NDAA vào phút cuối khiến quá trình dân chủ của chúng ta trở thành trò hề, vì điều khoản được đề xuất này chưa bao giờ được tranh luận bởi Hạ viện hoặc Thượng viện. Người dân Mỹ xứng đáng được hưởng các biện pháp bảo vệ AI mạnh mẽ, hợp lý. Mục tiêu đã nêu của Tổng thống Trump là thiết lập . Tuy nhiên, cách đúng đắn để phát triển một tiêu chuẩn như vậy là thông qua quy trình lập pháp thông thường. Big Tech và những người ủng hộ nó trong Quốc hội đang cố gắng phá vỡ các thủ tục lập pháp và dân chủ thông thường của chúng ta. Thay vì tổ chức một cuộc tranh luận có ý nghĩa dẫn đến một tiêu chuẩn liên bang cân bằng tốt, Quốc hội đang được yêu cầu xem xét và bỏ phiếu về vấn đề trọng đại này trong khoảng thời gian một tuần duy nhất. Hơn nữa, điều quan trọng cần lưu ý là loại thao tác này cũng đặt quân đội của chúng ta vào tình thế rủi ro, giữ NDAA làm con tin cho mong muốn của Big Tech để tránh quy định. 

Những người ủng hộ lệnh cấm như vậy viện dẫn sự cần thiết của một luật liên bang mạnh mẽ về AI, thay vì một “mảnh vá” các luật AI cấp tiểu bang. Lập luận này có thể đáng được xem xét nếu trên thực tế có bất kỳ luật liên bang nào về AI. Trong thực tế, một lệnh cấm như vậy sẽ chỉ đơn giản là pháp điển hóa giấy thông hành miễn phí của Big Tech để triển khai các hệ thống AI nguy hiểm nhanh nhất có thể, để kiếm càng nhiều tiền càng tốt, mà ít quan tâm đến sự an toàn của công chúng. 

Những người ủng hộ cũng lập luận rằng quy định có thể có “tác động tiêu cực” đến sự đổi mới AI, nhưng điều này không có cơ sở trong kinh nghiệm. Tất cả các công ty khác đều buộc phải đáp ứng các tiêu chuẩn an toàn cơ bản, từ các hãng hàng không đến các công ty dược phẩm đến cửa hàng bánh sandwich địa phương của bạn. Tuy nhiên, sự đổi mới của Hoa Kỳ là niềm ghen tị của thế giới. Các công ty cạnh tranh để đổi mới và kiếm lợi nhuận; khu vực công can thiệp để ngăn mọi người bị tổn hại. Việc đưa ra một ngoại lệ hạng nhất như vậy cho ngành công nghiệp AI không khác gì phúc lợi doanh nghiệp và nên được coi như vậy. 

Đầu năm nay, các tài liệu chính sách nội bộ từ Meta đã tuyên bố rõ ràng rằng việc chatbot của họ “tham gia vào các cuộc trò chuyện mang tính lãng mạn hoặc gợi cảm với trẻ em” là có thể chấp nhận được. Ít nhất hiện đang kiện ChatGPT vì những cách mà họ tin rằng mô hình ngôn ngữ lớn có liên quan đến cái chết của con cái họ. Kumma the Bear, đồ chơi mới nhất được hỗ trợ bởi OpenAI, đã bị khỏi kệ sau khi nó đưa ra lời khuyên về các tư thế quan hệ tình dục và nơi mua dao. Không khó để thấy tại sao phần lớn người Mỹ muốn quy định AI để bảo vệ trẻ em và hơn thế nữa. 

Điều bí ẩn là tại sao một số người trong Quốc hội lại không làm như vậy. 

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 

“`