Các công ty công nghệ đang hành động về thông tin sai lệch AI trong bầu cử. Liệu điều đó có quan trọng không?
Meta thông báo vào ngày thứ Tư (8/11) rằng họ sẽ yêu cầu các nhãn cho quảng cáo chính trị đã bị sửa đổi kỹ thuật số, sử dụng AI hoặc công nghệ khác, theo cách có thể gây hiểu lầm.
Thông báo đến một ngày sau khi Microsoft thông báo rằng họ cũng đang thực hiện một số bước để bảo vệ cuộc bầu cử, bao gồm cung cấp công cụ đánh dấu nội dung được tạo bởi AI và triển khai “Đội Thành công Chiến dịch” để tư vấn cho các chiến dịch chính trị về AI, an ninh mạng và các vấn đề liên quan.
Năm sau sẽ là năm quan trọng nhất cho các cuộc bầu cử trong thế kỷ này, với Mỹ, Ấn Độ, Vương quốc Anh, Mexico, Indonesia và Đài Loan đều sẽ đi bầu. Mặc dù nhiều người lo ngại về tác động của deepfake và thông tin sai lệch có thể gây ra cho cuộc bầu cử, nhiều chuyên gia nhấn mạnh bằng chứng về tác động của chúng đối với các cuộc bầu cử cho đến nay chỉ ở mức hạn chế nhất. Các chuyên gia hoan nghênh các biện pháp mà các công ty công nghệ đang thực hiện nhằm bảo vệ tính toàn vẹn của cuộc bầu cử nhưng nói rằng các thay đổi cơ bản hơn đối với hệ thống chính trị sẽ cần thiết để đối phó với thông tin sai lệch.
Làm thế nào AI có thể ảnh hưởng đến cuộc bầu cử
Các công ty công nghệ đã bị đặt dưới ánh mắt chỉ trích sau vai trò mà chúng đóng góp trong các cuộc bầu cử trước. Một báo cáo được công bố vào năm 2021 bởi nhóm vận động trực tuyến Avaaz tìm thấy rằng bằng cách chờ đến tháng trước cuộc bầu cử tổng thống Mỹ năm 2020 để thay đổi thuật toán của mình, Meta đã cho phép thông tin sai lệch lan truyền trên nền tảng của mình. Meta cũng bị chỉ trích vì quảng bá nội dung đặt câu hỏi về tính hợp pháp của cuộc bầu cử Brazil năm 2022 và vì làm nổi bật nội dung có thể đã góp phần vào vi phạm nhân quyền được thực hiện chống lại nhóm dân tộc Rohingya của Myanmar.
Trong những năm gần đây, sự phát triển của AI đã tiến triển nhanh chóng. Trí tuệ nhân tạo tạo ra – cho phép người dùng tạo ra văn bản, âm thanh và video – đã xuất hiện từ vô danh với việc phát hành ChatGPT của OpenAI vào tháng 11 năm 2022.
Trí tuệ nhân tạo tạo ra đã được sử dụng nhiều lần trong quảng cáo chính trị của Mỹ, mặc dù trong mỗi trường hợp đều được hiểu rằng AI đã được sử dụng. Vào tháng 4, Đảng Cộng hòa phát hành một quảng cáo được tạo bởi AI nhằm cho thấy những gì có thể xảy ra nếu Tổng thống Joe Biden được bầu lại. Vào tháng Sáu, một tài khoản chiến dịch X cho Ron DeSantis, thống đốc Cộng hòa của Florida và ứng cử viên tổng thống, đã đăng một video bao gồm hình ảnh AI tạo ra của cựu Tổng thống Donald Trump ôm Dr. Anthony Fauci.
Tuy nhiên, các nghiên cứu liên tục cho thấy thông tin sai lệch không thay đổi đáng kể kết quả của các cuộc bầu cử Mỹ trước, nói Andreas Jungherr, giáo sư khoa học chính trị tại Đại học Bamberg ở Đức, người lưu ý rằng các học giả từ các lĩnh vực khác, chẳng hạn như nghiên cứu truyền thông và tâm lý học, thường cho rằng tác động của thông tin sai lệch đối với các cuộc bầu cử lớn hơn.
Ví dụ, một bài báo được xuất bản trên Nature vào năm 2023 không tìm thấy “bằng chứng về mối quan hệ có ý nghĩa giữa việc tiếp xúc với chiến dịch ảnh hưởng nước ngoài của Nga [năm 2016] và sự thay đổi thái độ, cực đoan hóa hoặc hành vi bỏ phiếu”.
Thông thường, mọi người đánh giá quá cao tác động của thông tin sai lệch vì họ đánh giá quá cao cả khả năng thay đổi quan điểm của mọi người về các vấn đề gay gắt như hành vi bỏ phiếu và khả năng của công nghệ như AI trong việc tạo điều kiện cho thông tin sai lệch, theo Jungherr.
Mặc dù khả năng một mảnh thông tin sai lệch do AI tạo ra có thể ảnh hưởng đến quan điểm công chúng đủ để làm thay đổi kết quả bầu cử rất thấp, AI vẫn có thể gây tác động xấu đến các cuộc bầu cử và chính trị rộng hơn trong tương lai, theo Elizabeth Seger, một nhà nghiên cứu tại Trung tâm Quản trị AI Toàn cầu, một tổ chức nghiên cứu có trụ sở tại Vương quốc Anh. Trong tương lai, việc nhắm mục tiêu cá nhân cao cấp kết hợp với các đại lý AI cực kỳ thuyết phục có thể được sử dụng để thực hiện các chiến dịch thuyết phục hàng loạt. Và vào năm 2024, chính sự tồn tại của deepfake có thể làm suy giảm lòng tin của mọi người vào các nguồn thông tin chính, theo Seger.
Điều này đã xảy ra. Vào năm 2019, một cáo buộc rằng một video của Ali Bongo, lúc đó là tổng thống Gabon, là giả đã được sử dụng để biện minh cho một cuộc đảo chính bất thành. Cuối năm đó, tác động của một video nghi ngờ về một bộ trưởng nội các Malaysia tham gia vào hành vi tình dục với một trợ lý chính trị đã bị làm mờ bởi các cáo buộc rằng video đã bị sửa đổi bằng AI.
“Một rủi ro thường bị bỏ qua, có khả năng xảy ra nhiều hơn trong cuộc bầu cử năm nay, không phải là trí tuệ nhân tạo tạo ra sẽ được sử dụng để sản xuất deepfake khiến mọi người tin rằng ứng cử viên này đó đã làm điều gì đó tồi tệ,” theo Seger. “Nhưng rằng chính sự tồn tại của các công nghệ này được sử dụng để làm suy yếu giá trị của bằng chứng và làm suy yếu lòng tin vào các dòng thông tin chính.”
Bảo vệ cuộc bầu cử
Cho đến nay, chính phủ đã có hành động hạn chế để giảm thiểu tác động của AI đối với các cuộc bầu c