Để Ngăn AI Tiêu Diệt Chúng Ta, Trước Tiên Cần Quy Định Deepfakes, Theo Nghiên Cứu Viên Connor Leahy

(SeaPRwire) –   Connor Leahy nhớ lại lần đầu tiên anh nhận ra trí tuệ nhân tạo sẽ giết chết chúng ta.

Đó là năm 2019, và GPT-2 của OpenAI vừa ra mắt. Leahy tải xuống mô hình ngôn ngữ lớn sơ khai này lên máy tính xách tay của mình, và mang theo nó đến một cuộc hackathon tại Đại học Kỹ thuật Munich, nơi anh đang học tập. Trong một căn phòng nhỏ chật hẹp, ngồi trên một cái ghế sofa bao quanh bởi bốn người bạn, anh bật lên hệ thống trí tuệ nhân tạo. Mặc dù nó gần như không thể ghép các câu nói liền mạch lại với nhau, Leahy nhận ra trong GPT-2 điều gì đó đã thiếu trong mọi mô hình trí tuệ nhân tạo cho đến thời điểm đó. “Tôi thấy một tia sáng tổng quát,” anh nói, trước khi cười khi nhớ lại rằng hiện nay GPT-2 có vẻ thông minh hơn nhiều so với lúc đó. “Bây giờ tôi có thể nói như vậy mà không bị coi là điên. Lúc trước, tôi bị coi là điên.”

Trải nghiệm đó đã thay đổi ưu tiên của anh. “Trước đây tôi nghĩ mình vẫn còn thời gian cho cả một sự nghiệp bình thường, gia đình, những thứ như vậy,” anh nói. “Nhưng tất cả điều đó đã biến mất. Không, thời điểm gấp rút bây giờ là.”

Ngày nay, Leahy là Giám đốc điều hành của Conjecture, một công ty an toàn trí tuệ nhân tạo. Với bộ râu dài và mái tóc dài đến vai như một người Messiah, anh cũng là một trong những gương mặt dễ nhận biết nhất trong giới nghiên cứu về “rủi ro tồn tại” trong thế giới trí tuệ nhân tạo, khi cảnh báo rằng trí tuệ nhân tạo đang trên đà vượt qua khả năng kiểm soát của con người. Vào ngày 17 tháng 1, anh đã phát biểu tại một sự kiện ngoài lề tại hội nghị kinh tế thế giới hàng năm ở Davos, Thụy Sĩ, nơi các nhà hoạch định chính sách toàn cầu họp hàng năm để thảo luận về các rủi ro đối với hành tinh. Phần lớn sự chú ý tại Davos năm nay đều tập trung vào xung đột leo thang ở Trung Đông và tác động ngày càng trầm trọng của biến đổi khí hậu, nhưng Leahy lập luận rằng rủi ro từ trí tuệ nhân tạo tiên tiến nên được thảo luận ngay ở đầu chương trình nghị sự.

Bất chấp cảnh báo của anh rằng kết thúc có lẽ đang đến gần, Leahy không phải là người bi quan. Anh đến Davos với cả các giải pháp chính sách và một chiến lược chính trị. Chiến lược đó: tập trung trước tiên vào việc cấm sử dụng deepfake, hay các hình ảnh do trí tuệ nhân tạo tạo ra một cách không có sự đồng ý, hiện đang được sử dụng trên quy mô lớn để tạo ra hình ảnh tình dục không đồng ý của phụ nữ và trẻ em gái. Theo Leahy, deepfake là một bước đi tốt bởi đây là điều gần như mọi người đều có thể đồng thuận là xấu. Nếu chính trị gia có thể kiểm soát được deepfake, họ có thể có cơ hội đối phó với những rủi ro do trí tuệ nhân tạo có khả năng tổng quát gây ra.

TIME đã phỏng vấn Leahy ngay trước khi anh đến Davos. Cuộc trò chuyện này đã được rút gọn và chỉnh sửa lại cho rõ ràng hơn.

Anh đến Davos để làm gì?

Tôi sẽ tham gia một hội thảo để nói về deepfake và chúng ta có thể làm gì với chúng, cũng như các rủi ro khác từ trí tuệ nhân tạo. Deepfake là một trường hợp cụ thể của một vấn đề tổng quát hơn nhiều. Nếu bạn muốn đối phó với những thứ như vậy, việc chỉ nhắm vào người dùng cuối là không đủ. Những người hưởng lợi tài chính từ sự tồn tại của deepfake thường đẩy mạnh việc đó. Nếu xã hội muốn giải quyết các vấn đề có hình dạng như deepfake – mà deepfake là một ví dụ cụ thể và trí tuệ nhân tạo có khả năng tổng quát là một ví dụ khác – chúng ta phải có khả năng nhắm vào toàn bộ chuỗi cung ứng. Chỉ trừng phạt những người sử dụng công nghệ gây hại là không đủ. Bạn cũng phải nhắm tới những người xây dựng công nghệ này.

Tôi nghĩ cơ bản là nên áp dụng trách nhiệm pháp lý. Chúng ta có thể bắt đầu từ deepfake, bởi đây là quan điểm chính trị rất phổ biến. Nếu bạn phát triển một hệ thống có thể sử dụng để tạo ra deepfake, phân phối hệ thống đó, lưu trữ hệ thống đó, v.v., bạn nên chịu trách nhiệm về thiệt hại và tiềm năng bị truy tố hình sự. Nếu bạn gây ra chi phí cho xã hội, thì bạn phải chịu trách nhiệm thanh toán. Nếu bạn xây dựng sản phẩm mới và làm tổn thương một triệu người, thì những triệu người đó nên được bồi thường một cách nào đó, hoặc bạn không được phép làm điều đó. Hiện tại, những gì đang xảy ra trong lĩnh vực trí tuệ nhân tạo là mọi người đang làm việc ngày đêm để tránh chịu trách nhiệm về những gì họ thực sự đang làm và ảnh hưởng của nó đối với mọi người. Deepfake chỉ là một ví dụ cụ thể. Nhưng đây là một lớp vấn đề rộng hơn nhiều. Và xã hội hiện tại chưa xử lý tốt lớp vấn đề này, chúng ta cần xử lý tốt hơn nếu muốn hy vọng với trí tuệ nhân tạo có khả năng tổng quát.

Với deepfake, một trong những vấn đề chính là bạn thường không thể phân biệt, chỉ từ hình ảnh, hệ thống nào đã được sử dụng để tạo ra nó. Và nếu bạn yêu cầu trách nhiệm, làm thế nào để kết nối hai điểm đó một cách có thể thực thi pháp lý?

Điều tốt về trách nhiệm pháp lý và áp dụng hình sự là nếu thực hiện đúng, bạn không cần phải bắt được mọi lần, đủ là nguy cơ tồn tại. Do đó, bạn đang cố gắng định giá rủi ro vào quyết định của những người sản xuất công nghệ như vậy. Hiện tại, khi một nhà nghiên cứu phát triển một hệ thống deepfake mới và tốt hơn, không có chi phí, không có rủi ro, đối với quyết định việc liệu nên đăng tải lên internet hay không. Họ không quan tâm, họ không quan tâm đến việc điều này sẽ ảnh hưởng đến mọi người như thế nào, và sẽ không có gì xảy ra với họ. Nếu chỉ thêm mối đe dọa rằng nếu xảy ra điều gì đó xấu, và chúng tôi tìm thấy bạn, thì bạn sẽ gặp rắc rối, điều này sẽ thay đổi cân bằng rất nhiều.

Nhiều người làm quyết định tại Davos rất lạc quan về trí tuệ nhân tạo, cả về mặt an ninh quốc gia và kinh tế. Thông điệp của anh gửi tới họ là gì?

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác. 

Nếu bạn chỉ tiếp tục phát triển trí tuệ nhân tạo một cách vô tư, bạn sẽ không nhận được điều tốt. Điều này sẽ không d