Tại sao những người biểu tình khắp nơi trên thế giới đang đòi hỏi một sự dừng lại trong việc phát triển trí tuệ nhân tạo

Pause AI protest in London

(SeaPRwire) –   Tuần trước cuộc họp thượng đỉnh thế giới về AI, những người biểu tình của phong trào nhỏ nhưng đang phát triển gọi là “Pause AI” đã yêu cầu chính phủ trên toàn cầu quy định các công ty AI và đóng băng sự phát triển các mô hình trí tuệ nhân tạo tiên tiến mới. Họ nói rằng sự phát triển của những mô hình này chỉ nên được phép tiếp tục nếu các công ty đồng ý cho phép chúng được kiểm soát. Các cuộc biểu tình diễn ra trên 13 quốc gia khác nhau, bao gồm Mỹ, Anh, Brazil, Đức, Australia và Na Uy vào thứ Hai tuần trước.

Tại London, một nhóm khoảng 20 người biểu tình đứng bên ngoài Bộ Khoa học, Đổi mới và Công nghệ Anh hô vang những câu như “dừng cuộc đua, nó không an toàn” và “tương lai ai? tương lai chúng ta” với hy vọng thu hút sự chú ý của các nhà hoạch định chính sách. Những người biểu tình nói rằng mục tiêu của họ là buộc chính phủ quy định các công ty phát triển các mô hình trí tuệ nhân tạo tiên tiến bao gồm Chat GPT của OpenAI. Họ nói rằng các công ty không đủ biện pháp để đảm bảo các mô hình trí tuệ nhân tạo của họ an toàn để được phát hành ra thế giới.

“[Các công ty AI] đã chứng minh lần lần… thông qua cách đối xử với nhân viên của các công ty, với cách họ đối xử với công việc của người khác bằng cách đơn giản là đánh cắp và ném vào các mô hình của họ, họ đã chứng minh rằng không thể tin tưởng họ,” Gideon Futerman, một sinh viên đại học Oxford đã phát biểu tại cuộc biểu tình.

Một người biểu tình, Tara Steele, một tác giả tự do làm việc trên blog và nội dung SEO, nói rằng cô đã thấy công nghệ ảnh hưởng đến sinh kế của chính mình. “Tôi đã nhận thấy kể từ khi ChatGPT ra mắt, nhu cầu về công việc tự do đã giảm đáng kể,” cô nói. “Tôi thích viết cá nhân… Tôi thực sự yêu thích nó. Và nó thật buồn, về mặt cảm xúc.”

Cô nói rằng lý do chính của việc biểu tình là bởi vì cô lo sợ có thể có những hậu quả nguy hiểm hơn từ các mô hình trí tuệ nhân tạo tiên tiến trong tương lai. “Chúng tôi có một lực lượng chuyên gia được đào tạo bài bản, giải thưởng Turing, các nhà nghiên cứu AI được trích dẫn nhiều nhất và các CEO của các công ty AI đều [nói rằng AI có thể cực kỳ nguy hiểm].” (Giải thưởng Turing là một giải thưởng hàng năm được trao cho các nhà khoa học máy tính vì đóng góp quan trọng cho lĩnh vực này và đôi khi được gọi là “Giải Nobel” của ngành công nghệ thông tin.)

Cô đặc biệt lo ngại về số lượng chuyên gia ngày càng tăng cảnh báo rằng AI không được kiểm soát đúng cách có thể dẫn đến hậu quả thảm khốc. Một báo cáo do chính phủ Mỹ ủy nhiệm công bố vào tháng 3 cảnh báo rằng “sự nổi lên của trí tuệ nhân tạo tiên tiến và AI trí tuệ nhân tạo có thể gây mất ổn định an ninh toàn cầu theo cách tương tự như việc giới thiệu vũ khí hạt nhân”. Hiện tại, các phòng thí nghiệm AI lớn nhất đang cố gắng xây dựng hệ thống có thể vượt trội con người trong hầu hết mọi nhiệm vụ, bao gồm lập kế hoạch dài hạn và suy nghĩ phê phán. Nếu thành công, nhiều khía cạnh hoạt động của con người có thể tự động hóa, từ những điều nhỏ như mua sắm trực tuyến đến việc triển khai vũ khí tự động có thể hành động theo cách mà chúng ta không thể dự đoán. Điều này có thể dẫn đến một “cuộc chạy đua vũ trang” làm tăng khả năng xảy ra “tai nạn toàn cầu và có vũ khí hủy diệt hàng loạt, xung đột liên quốc gia và leo thang,” .

Các chuyên gia vẫn chưa hiểu rõ cách hoạt động bên trong của hệ thống AI như Chat GPT, và họ lo ngại rằng trong các hệ thống phức tạp hơn, sự thiếu hiểu biết của chúng ta có thể dẫn đến việc chúng ta sai lầm khi tính toán cách các hệ thống mạnh mẽ hơn sẽ hành động. Tùy thuộc vào mức độ tích hợp của các hệ thống AI vào cuộc sống con người, chúng có thể gây ra thiệt hại lớn và kiểm soát các hệ thống vũ khí nguy hiểm, khiến nhiều chuyên gia lo ngại khả năng xảy ra . “Những cảnh báo đó không lan truyền đến công chúng nói chung, và họ cần phải biết,” cô nói.

Hiện tại, các chuyên gia học sâu, một loại học máy cho phép hệ thống AI mô phỏng tốt hơn quá trình ra quyết định của não người, có phần chia rẽ về mức độ nguy hiểm của việc phát triển công nghệ trí tuệ nhân tạo tiếp theo. Hai trong ba cha đẻ của học sâu, Geoffrey Hinton và Yoshua Bengio, đã công khai tuyên bố rằng họ tin rằng có nguy cơ công nghệ này có thể dẫn đến sự tuyệt chủng của loài người.

Cha đẻ thứ ba, Yann LeCun, người cũng là Giám đốc Khoa học AI tại Meta, kiên quyết không đồng ý với hai người kia. Ông tin rằng “AI sẽ mang lại nhiều lợi ích cho thế giới. Nhưng mọi người đang lợi dụng nỗi sợ hãi về công nghệ này, và chúng ta đang có nguy cơ làm sợ hãi mọi người khỏi nó.”

Anthony Bailey, một người biểu tình Pause AI khác, nói rằng trong khi ông hiểu có thể có lợi ích từ các hệ thống AI mới, ông lo ngại rằng các công ty công nghệ sẽ bị khuyến khích xây dựng các công nghệ mà con người dễ mất kiểm soát, bởi vì những công nghệ đó cũng có tiềm năng lợi nhuận khổng lồ. “Đó là những gì có giá trị kinh tế. Đó là loại mô-đun tự nhiên sẽ được xây dựng nếu mọi người không bị răn đe rằng chúng nguy hiểm.”

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.