Phản biện bằng AI bùng nổ trước thềm hội nghị khoa học về AI
Một cuộc tranh luận gay gắt đang lan rộng trong cộng đồng khoa học sau khi có bằng chứng cho thấy hơn 1/5 số bản phản biện khoa học gửi tới một hội nghị quốc tế lớn về trí tuệ nhân tạo được tạo ra bằng... trí tuệ nhân tạo (AI).

Những nghi ngờ ban đầu xuất phát từ phản ánh của nhiều nhà nghiên cứu tham gia Hội nghị Quốc tế về ICLR 2025 (International Conference on Learning Representations) - một trong những hội nghị quốc tế uy tín hàng đầu trong lĩnh vực trí tuệ nhân tạo.
Trên các nền tảng mạng xã hội, họ chỉ ra hàng loạt dấu hiệu bất thường trong phản biện, từ trích dẫn không tồn tại, nhận xét dài dòng nhưng thiếu trọng tâm, cho tới những yêu cầu phân tích không phù hợp với thông lệ chuyên môn.
Sự việc không chỉ làm dấy lên lo ngại về chất lượng đánh giá học thuật, mà còn đặt ra câu hỏi căn bản về niềm tin và tính liêm chính trong quy trình phản biện khoa học.
Phản biện mang dáng dấp học thuật nhưng thiếu nền tảng chuyên môn
Một trong những người lên tiếng sớm là Graham Neubig, nhà nghiên cứu AI tại Đại học Carnegie Mellon (Mỹ).
Theo ông, các bản phản biện mà ông nhận được có cấu trúc cứng nhắc, liệt kê dày đặc các gạch đầu dòng và đề xuất những phân tích “không phải là yêu cầu thống kê tiêu chuẩn trong các bài báo AI hay học máy”.
Dù mang dáng dấp học thuật, các nhận xét này khiến ông nghi ngờ chúng được tạo ra bởi mô hình ngôn ngữ lớn (LLM).
Tuy nhiên, việc chứng minh phản biện do AI tạo ra là một thách thức không nhỏ. Neubig đã công khai kêu gọi cộng đồng hỗ trợ và treo thưởng cho bất kỳ ai có thể rà soát toàn bộ dữ liệu phản biện của hội nghị. Lời kêu gọi này nhanh chóng thu hút sự chú ý của Pangram Labs, một công ty công nghệ tại New York chuyên phát triển công cụ phát hiện văn bản do AI tạo sinh.
Pangram đã tiến hành phân tích quy mô lớn đối với 19.490 bản thảo và 75.800 bản phản biện gửi tới ICLR 2026.
Theo Giám đốc điều hành Pangram Labs, Max Spero, chỉ trong vòng 12 giờ, nhóm của ông đã xây dựng mã nguồn để trích xuất và phân tích toàn bộ nội dung văn bản của các bài nộp hội nghị, điều mà trước đó cộng đồng chỉ mới dừng lại ở mức nghi ngờ cảm tính.

Kết quả cho thấy khoảng 21% phản biện được tạo hoàn toàn bởi AI, trong khi hơn một nửa còn lại mang dấu hiệu sử dụng AI ở các mức độ khác nhau.
Không chỉ phản biện, nhiều bản thảo gửi tới ICLR cũng bị phát hiện có yếu tố AI. Phân tích cho thấy 1% bài nộp được tạo hoàn toàn bởi AI, 61% chủ yếu do con người viết, trong khi 9% chứa hơn một nửa nội dung do AI tạo sinh.
Đáng chú ý, chính Pangram cũng đã gửi mô hình phát hiện của mình dưới dạng một bản thảo tiền công bố tới ICLR 2026, và trong bốn phản biện nhận được, có một bản bị xác định là hoàn toàn do AI tạo ra.

Đối với nhiều nhà khoa học, kết quả này đã xác nhận những linh cảm trước đó. Desmond Elliott, nhà khoa học máy tính tại Đại học Copenhagen, cho biết một trong ba phản biện mà ông nhận được dường như không hiểu trọng tâm của bài báo.
Bản phản biện này đề cập tới các kết quả số liệu sai lệch và sử dụng những cách diễn đạt bất thường.
Khi Pangram công bố phân tích, Elliott lập tức kiểm tra bài báo của mình và phát hiện phản biện nghi vấn đó đã cho điểm thấp nhất, đẩy bài nghiên cứu vào tình trạng lưng chừng giữa chấp nhận và từ chối. “Điều đó thực sự gây nản lòng”, Elliott bày tỏ.
Phản ứng của ban tổ chức và những hệ lụy ban đầu
Trước làn sóng phản ứng, ban tổ chức ICLR 2026 khẳng định hội nghị cho phép sử dụng AI ở mức hỗ trợ, chẳng hạn như chỉnh sửa văn bản, viết mã thí nghiệm hoặc phân tích dữ liệu, với điều kiện phải công khai minh bạch.
Ngược lại, mọi hình thức sử dụng AI làm sai lệch nội dung, vi phạm bảo mật bản thảo hoặc thay thế vai trò phản biện học thuật đều bị cấm.
Theo Bharath Hariharan, nhà khoa học máy tính tại Đại học Cornell và Chủ tịch chương trình cấp cao của ICLR 2026, đây là lần đầu tiên hội nghị phải đối mặt với vấn đề này ở quy mô lớn.
Ban tổ chức sẽ kết hợp phân tích của Pangram với các công cụ tự động khác để rà soát vi phạm, đồng thời áp dụng biện pháp xử lý đối với tác giả và phản biện không tuân thủ quy định.
Tuy nhiên, ông nhấn mạnh việc loại bỏ phản biện viên sẽ được cân nhắc thận trọng, do các hệ thống phát hiện AI vẫn có nguy cơ đưa ra kết quả dương tính giả.

Kết quả là một số tác giả quyết định rút bài khỏi hội nghị vì phản biện chứa thông tin sai. Những người khác lúng túng trong việc phản hồi các nhận xét vừa dài dòng vừa thiếu logic.
Elliott cho rằng, trong khoa học, phản biện kém chất lượng là điều không thể tránh khỏi, nhưng phản biện do AI tạo ra thường rất nhiều chữ, trong đó chỉ một phần nhỏ là hữu ích, phần còn lại gần như vô nghĩa.
Vụ việc tại ICLR 2026 phơi bày áp lực ngày càng lớn đối với hệ thống phản biện khoa học trong bối cảnh lĩnh vực AI và học máy tăng trưởng nhanh chóng.
Theo Neubig, chỉ trong vòng 5 năm, quy mô nghiên cứu đã mở rộng theo cấp số nhân, trong khi nguồn lực phản biện không theo kịp.
Hariharan cho biết mỗi phản biện viên của ICLR hiện phải đánh giá trung bình 5 bài báo trong vòng hai tuần, một khối lượng công việc vượt xa thông lệ trước đây./.
