Chính sách AI chống ‘Woke’ của Trump gây nguy hiểm đến tính mạng bệnh nhân

(SeaPRwire) – Vào ngày 23 tháng 7, Tổng thống Donald Trump đã ký một đạo luật sâu rộng có tiêu đề “Đạo luật ngăn chặn AI ‘woke’ trong Chính phủ Liên bang.” Đây là một đòn nữa trong cuộc chiến văn hóa chính trị đang diễn ra, và một nỗ lực có chủ ý nhằm loại bỏ các thuật ngữ như đa dạng, công bằng, hòa nhập (DEI) và đảo ngược công việc của những người đang giải quyết vấn đề phân biệt chủng tộc có hệ thống trong các hệ thống trí tuệ nhân tạo của liên bang.
Nhưng đối với những người làm trong ngành y như tôi, đặc biệt là những người ủng hộ sự công bằng về sức khỏe, đây không chỉ là sự thể hiện chính trị. Lệnh này đe dọa đến mạng sống. Nó gây nguy hiểm cho nhiều năm nỗ lực để xác định và điều chỉnh những thành kiến cấu trúc đã từ lâu gây hại cho các cộng đồng bị gạt ra ngoài lề, đặc biệt là người Mỹ gốc Phi.
AI đang rất phổ biến. Nó đã và đang được dùng để phân loại bệnh nhân tại phòng cấp cứu, ưu tiên chăm sóc theo dõi và dự đoán nguy cơ bệnh tật. Nhưng các thuật toán này không xuất phát từ nền tảng trung lập. Chúng được đào tạo dựa trên dữ liệu thực tế. Dữ liệu mà không hề khách quan chút nào.
Bảo vệ độ chính xác y tế
Một trong những ví dụ nổi bật nhất xuất hiện trong một nghiên cứu năm 2019 được công bố trên Science, do các nhà nghiên cứu từ UC Berkeley và University of Chicago thực hiện. Họ đã kiểm tra một thuật toán chăm sóc sức khỏe thương mại được sử dụng rộng rãi, được thiết kế để gắn cờ các bệnh nhân cần quản lý chăm sóc có rủi ro cao. Bề ngoài, nó có vẻ khách quan và dựa trên dữ liệu. Nhưng các nhà nghiên cứu đã phát hiện ra rằng thuật toán không hề đánh giá nhu cầu lâm sàng. Thay vào đó, nó âm thầm sử dụng một yếu tố thay thế: số tiền đã chi trước đó cho việc chăm sóc bệnh nhân.
Bởi vì bệnh nhân da đen thường nhận được ít sự chăm sóc hơn, ngay cả khi có cùng triệu chứng, yếu tố thay thế về chi tiêu đó đã khiến thuật toán đánh giá thấp đáng kể nhu cầu của họ. Trong khi gần 46,5% bệnh nhân da đen đáng lẽ phải được gắn cờ để chăm sóc bổ sung, thuật toán chỉ xác định được 17,7%. Đó không phải là một ghi chú thống kê. Đó là một hệ thống đã được dạy để làm ngơ.
Đây không phải là một trường hợp cá biệt. Hãy xem xét hai thuật toán điều chỉnh theo chủng tộc khác vẫn được sử dụng ngày nay:
Chức năng thận, được tính toán bằng các phương trình Tốc độ lọc cầu thận (GFR), từ lâu đã bao gồm một “yếu tố điều chỉnh” cho bệnh nhân da đen, dựa trên những giả định phi khoa học về khối lượng cơ bắp. Các nhà nghiên cứu đã nhiều lần phát hiện ra rằng sự điều chỉnh này làm tăng điểm thận một cách không chính xác, có nghĩa là nhiều bệnh nhân da đen bị coi là không đủ điều kiện để ghép tạng hoặc bị trì hoãn trong việc nhận chăm sóc chuyên khoa.
Và các Xét nghiệm Chức năng Phổi (PFTs), được sử dụng để chẩn đoán hen suyễn và các bệnh phổi, thường áp dụng một điều chỉnh dựa trên chủng tộc mà giả định rằng người da đen tự nhiên có dung tích phổi thấp hơn, làm giảm ngưỡng phát hiện và góp phần vào việc chẩn đoán dưới mức.
Đây không chỉ là những di tích lịch sử. Chúng là những ví dụ về cách phân biệt chủng tộc có thể được nhúng vào mã. Một cách thầm lặng, lan tỏa và gây chết người.
Trong những năm gần đây, các bác sĩ lâm sàng và nhà nghiên cứu như tôi đã phản đối. Nhiều bệnh viện đang loại bỏ các điều chỉnh dựa trên chủng tộc khỏi các phương trình y tế. Các công cụ AI lấy công bằng làm trung tâm đang được phát triển để phát hiện và giảm thiểu sự bất bình đẳng, chứ không phải bỏ qua chúng. Công việc này không phải là về việc trở nên “woke.” Đó là về sự chính xác, cải thiện kết quả và cứu sống.
Mối nguy hiểm của cuộc chiến văn hóa chống “woke” của Trump
Sắc lệnh hành pháp của Trump đe dọa chấm dứt công việc quan trọng đã được thực hiện để làm cho các thuật toán y tế chính xác hơn.
Bằng cách cấm các cơ quan liên bang xem xét phân biệt chủng tộc có hệ thống hoặc công bằng trong phát triển AI, sắc lệnh này trên thực tế đã đặt ngoài vòng pháp luật những nỗ lực cần thiết để khắc phục các vấn đề này. Nó làm im lặng các nhà khoa học dữ liệu đang cố gắng xây dựng và nuôi dưỡng một hệ thống công bằng hơn. Nó cho chúng ta biết rằng gọi tên sự bất bình đẳng còn tệ hơn là duy trì nó.
Những người ủng hộ sắc lệnh này tuyên bố nó thúc đẩy “tính trung lập.” Nhưng tính trung lập, trong một hệ thống được xây dựng trên sự bất bình đẳng, không phải là công lý. Đó là sự củng cố chính những thành kiến mà nó giả vờ bỏ qua.
Mối nguy hiểm không phải là giả định. Bệnh nhân da đen đã ít có khả năng được đề nghị phẫu thuật, nhiều khả năng bị bỏ qua, và nhiều khả năng tử vong từ các tình trạng có thể phòng ngừa được. AI được thiết kế có đạo đức có thể giúp phát hiện những bất bình đẳng này sớm hơn. Nhưng chỉ khi chúng ta được phép xây dựng nó theo cách đó.
Và thành kiến trong AI không chỉ gây hại cho cộng đồng người da đen. Các nghiên cứu đã chỉ ra rằng các hệ thống nhận dạng khuôn mặt nhận diện sai phụ nữ và người da màu với tỷ lệ cao hơn nhiều so với nam giới da trắng. Trong một trường hợp, một thuật toán được sử dụng trong tuyển dụng đã hạ thấp một cách có hệ thống các hồ sơ từ phụ nữ. Trong một trường hợp khác, một công cụ chăm sóc sức khỏe đã đánh giá thấp nguy cơ mắc bệnh tim ở phụ nữ vì dữ liệu lịch sử ban đầu đã chẩn đoán dưới mức họ. Đây là cách sự bất bình đẳng tự tái tạo. Các đầu vào có thành kiến trở thành các quyết định tự động mà không có sự giám sát hoặc bối cảnh.
Việc xóa bỏ DEI khỏi AI không phải là về tính trung lập. Đó là về trí nhớ có chọn lọc. Đó là một nỗ lực nhằm loại bỏ ngôn ngữ chúng ta cần để chẩn đoán vấn đề, chưa nói đến việc khắc phục nó. Nếu chúng ta buộc AI bỏ qua lịch sử, nó sẽ viết lại lịch sử. Không chỉ các sự kiện, mà còn cả những người mà các sự kiện đó đại diện.
Sắc lệnh hành pháp của Trump đã chính trị hóa và vũ khí hóa AI. Và đối với hàng triệu người Mỹ vốn đã bị bỏ qua bởi các hệ thống pháp luật, y tế và công nghệ của chúng ta, cái giá phải trả sẽ được đo bằng mạng sống.
Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.
Lĩnh vực: Tin nổi bật, Tin tức hàng ngày
SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.