3 Hiểu Lầm Phổ Biến Về AI Năm 2025

Daimler Continues Artificial Intelligence Self-Driving Race

(SeaPRwire) –   Vào năm 2025, những quan niệm sai lầm về AI nở rộ khi mọi người vật lộn để hiểu được sự phát triển và ứng dụng nhanh chóng của công nghệ này. Dưới đây là ba quan niệm phổ biến cần bỏ lại trong năm mới.

Các mô hình AI đang chạm trần

Khi GPT-5 được phát hành vào tháng Năm, mọi người đã tự hỏi (không phải lần đầu tiên) liệu AI có đang chạm trần hay không. Bất chấp việc được nâng cấp tên gọi đáng kể, sự cải thiện dường như chỉ là tăng dần. Tạp chí The New Yorker đã chạy một bài viết có tiêu đề, “Điều gì sẽ xảy ra nếu A.I. Không Trở Nên Tốt Hơn Nhiều So Với Hiện Tại?” tuyên bố rằng GPT-5 là “sản phẩm mới nhất cho thấy tiến bộ trên các mô hình ngôn ngữ lớn đã bị đình trệ.”

Chẳng bao lâu sau, người ta nhận ra rằng, bất chấp cột mốc về tên gọi, GPT-5 chủ yếu là một bài tập nhằm cung cấp hiệu suất với chi phí thấp hơn. Năm tháng sau, OpenAI, Google và Anthropic đều đã phát hành các mô hình cho thấy sự cải thiện đáng kể về các nhiệm vụ có giá trị kinh tế. “Trái ngược với niềm tin phổ biến rằng việc mở rộng quy mô đã kết thúc,” bước nhảy về hiệu suất trong mô hình mới nhất của Google là “lớn như chúng tôi từng thấy,” Oriol Vinyals, trưởng nhóm học sâu của Google DeepMind cho biết sau khi Gemini 3 được phát hành. “Không thấy bức tường nào cả.”

Có lý do để tự hỏi làm thế nào chính xác các mô hình AI sẽ cải thiện. Trong các lĩnh vực mà việc thu thập dữ liệu để đào tạo là tốn kém—ví dụ như triển khai các tác nhân AI làm người mua sắm cá nhân—tiến bộ có thể chậm. “Có thể AI sẽ tiếp tục trở nên tốt hơn cũng có thể AI sẽ tiếp tục tệ theo những cách quan trọng,” Helen Toner, giám đốc điều hành tạm thời tại Trung tâm An ninh và Công nghệ Mới nổi nói. Nhưng ý tưởng rằng tiến bộ đang đình trệ là khó có thể biện minh.

Xe tự lái nguy hiểm hơn tài xế con người

Khi AI cung cấp năng lượng cho một chatbot bị trục trặc, điều đó thường có nghĩa là ai đó mắc lỗi trên báo cáo của họ, hoặc đếm sai số chữ “r” trong từ “strawberry”. Khi AI cung cấp năng lượng cho một chiếc xe tự lái bị trục trặc, người ta có thể thiệt mạng. Không có gì ngạc nhiên khi nhiều người do dự thử công nghệ mới này.

Tại Vương quốc Anh, một cuộc khảo sát với 2.000 người trưởng thành cho thấy chỉ 22% cảm thấy thoải mái khi di chuyển trong một chiếc xe không người lái. Ở Mỹ, con số đó là 13%. Vào tháng Mười, một chiếc xe Waymo đã cán phải một con mèo ở San Francisco, gây ra sự phẫn nộ.

Tuy nhiên, đã nhiều lần xe tự hành chứng minh an toàn hơn tài xế con người, theo một phân tích dữ liệu về 100 triệu dặm lái xe không người lái từ Waymo. Xe của Waymo liên quan đến số vụ va chạm gây thương tích ít hơn gần năm lần và số vụ va chạm gây “thương tích nghiêm trọng hoặc tệ hơn” ít hơn 11 lần so với tài xế con người.

AI không thể tạo ra kiến thức mới

Năm 2013, Sébastien Bubeck, một nhà toán học, đã công bố một bài báo trên một tạp chí uy tín về lý thuyết đồ thị. “Chúng tôi để lại một vài câu hỏi mở, và sau đó tôi làm việc về chúng với các nghiên cứu sinh tại Princeton,” Bubeck, hiện là nhà nghiên cứu tại OpenAI, nói. “Chúng tôi đã giải quyết hầu hết các câu hỏi mở, ngoại trừ một câu.” Sau hơn một thập kỷ, Bubeck đã đưa vấn đề đó cho một hệ thống được xây dựng trên nền tảng GPT-5.

“Chúng tôi để nó suy nghĩ trong hai ngày,” ông nói. “Có một đẳng thức kỳ diệu trong đó mà mô hình đã tìm thấy, và nó thực sự đã giải quyết được vấn đề.”

Các nhà phê bình đã lập luận rằng các mô hình ngôn ngữ lớn, chẳng hạn như GPT-5, không thể nghĩ ra bất cứ điều gì độc đáo, và chỉ sao chép thông tin mà chúng đã được đào tạo—khiến LLMs có biệt danh mỉa mai “máy photocopy ngẫu nhiên”. Vào tháng Sáu, Apple đã xuất bản một bài báo tuyên bố cho thấy bất kỳ khả năng suy luận nào của LLMs chỉ là một “ảo giác”.

Chắc chắn, cách mà LLMs tạo ra phản hồi của chúng khác với lý luận của con người. Chúng có thể gặp khó khăn trong việc giải thích các biểu đồ đơn giản, ngay cả khi chúng giành huy chương vàng trong các cuộc thi toán học và lập trình hàng đầu, và “tự chủ” khám phá ra “các cấu trúc toán học mới”. Nhưng việc vật lộn với những nhiệm vụ dễ dàng rõ ràng không ngăn cản chúng nảy ra những ý tưởng hữu ích và phức tạp.

“LLMs chắc chắn có thể thực hiện các chuỗi bước logic để giải quyết các vấn đề đòi hỏi sự suy diễn và quy nạp,” Dan Hendrycks, giám đốc điều hành của Trung tâm An toàn AI nói với TIME. “Việc ai đó chọn gắn nhãn quá trình đó là ‘suy luận’ hay thứ gì khác là việc giữa họ và từ điển của họ.”

Bài viết được cung cấp bởi nhà cung cấp nội dung bên thứ ba. SeaPRwire (https://www.seaprwire.com/) không đưa ra bảo đảm hoặc tuyên bố liên quan đến điều đó.

Lĩnh vực: Tin nổi bật, Tin tức hàng ngày

SeaPRwire cung cấp phát hành thông cáo báo chí thời gian thực cho các công ty và tổ chức, tiếp cận hơn 6.500 cửa hàng truyền thông, 86.000 biên tập viên và nhà báo, và 3,5 triệu máy tính để bàn chuyên nghiệp tại 90 quốc gia. SeaPRwire hỗ trợ phân phối thông cáo báo chí bằng tiếng Anh, tiếng Hàn, tiếng Nhật, tiếng Ả Rập, tiếng Trung Giản thể, tiếng Trung Truyền thống, tiếng Việt, tiếng Thái, tiếng Indonesia, tiếng Mã Lai, tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Tây Ban Nha, tiếng Bồ Đào Nha và các ngôn ngữ khác.