Are current AI Conferences being overloaded?

13 minute read

Published:

This post is adapted from a short social media reflection I previously shared about the explosive growth of AI research submissions and the mounting pressure it places on the conference review system, mentioned by a post on Reddit.

In this post, I expand that reflection into a more structured discussion in Vietnamese first, followed by an English version.


Table of Contents


Bản Tiếng Việt

Khi “bùng nổ” không còn là tin vui tuyệt đối

Nếu có một từ khóa để mô tả ngành Trí Tuệ Nhân Tạo (AI), Học Máy (ML), và Học Sâu (DL) trong những năm gần đây, thì “bùng nổ” chắc chắn là một trong những từ đầu tiên xuất hiện trong đầu nhiều người.

Số lượng bài nộp vào các hội nghị hàng đầu tăng rất nhanh. Nhìn từ bên ngoài, đây có vẻ là một tín hiệu tích cực: cộng đồng của các ngành này ngày càng mở rộng hơn, càng ngày có nhiều nhóm nghiên cứu mới tham gia hơn, và tốc độ tạo ra tri thức cũng nhanh hơn.

Nhưng đằng sau sự tăng trưởng đó là một câu hỏi đáng lo:

Liệu hệ thống hội nghị AI hiện nay có còn đủ sức hấp thụ quy mô tăng trưởng này một cách công bằng và bền vững hay không?

Theo mình, đây là lúc “bùng nổ” bắt đầu tiến gần đến trạng thái “vỡ trận”.


Vấn đề không chỉ là số lượng bài nộp

Khi số lượng bài nộp tăng mạnh, điều đầu tiên mọi người nghĩ đến thường là:

  • Tỷ lệ cạnh tranh cao hơn,
  • Tỷ lệ chấp nhận thấp hơn,

Điều đó đúng, nhưng chưa đủ.

Điều đáng lo hơn là hệ quả dây chuyền phía sau:

  1. Khó tìm đủ những bình duyệt viên (reviewer) chất lượng
  2. Tăng nguy cơ xuất hiện các bình duyệt (review) hời hợt hoặc thiếu chuyên môn phù hợp
  3. Gia tăng áp lực cho Ban Tố Chức ở các cấp độ khác nhau
  4. Tăng nguy cơ xuất hiện nhiều quyết định chấp nhận hoặc từ chối đăng bài gây tranh cãi
  5. Làm suy yếu trải nghiệm học thuật của cả tác giả lẫn người phản biện

Nói cách khác, khi lượng bài nộp cho các hội nghị tăng quá nhanh, bài toán không còn chỉ là “lọc ra bài nghiên cứu chất lượng”, mà là duy trì chất lượng của chính quá trình đánh giá và phản biện.


Vì sao điều này đặc biệt nghiêm trọng trong AI?

Khác với nhiều lĩnh vực khác, AI/ML/DL hiện nay có ít nhất ba đặc điểm khiến vấn đề này trở nên căng hơn.

1. Tốc độ tăng trưởng của cộng đồng quá nhanh

AI/ML/DL hiện nay không còn là sân chơi của một nhóm nghiên cứu nhỏ nữa. Giờ đây, nó đã mở rộng sang rất nhiều hướng (mình sẽ liệt kê các hướng bằng tên gốc trong tiếng Anh): traditional ML, deep learning, multimodal models, LLMs, optimization, scientific machine learning, AI for healthcare, AI safety, robotics, và nhiều nhánh khác.

Sự mở rộng đó là một tín hiệu tốt; song, nó cũng làm cho việc ghép đúng bài với reviewer phù hợp ngày càng khó hơn.

2. Động lực công bố ngày càng mạnh

Gần như ở mọi nơi trên thế giới (từ đại học cho tới các viện nghiên cứu và các tập đoàn lớn), số lượng bài báo vẫn là một tín hiệu quan trọng trong tuyển dụng, xin học bổng, xin tài trợ, hoặc thăng tiến.

Điều đó khiến áp lực “phải nộp bài” tăng lên rất mạnh, đặc biệt ở các hội nghị có độ nhận diện cao như NeurIPS, ICML, ICLR, hay AAAI.

3. Hội nghị AI đang gánh quá nhiều vai trò cùng lúc

Một hội nghị lớn hiện nay không chỉ là nơi công bố kết quả nghiên cứu.

Nó còn là:

  • Nơi xây dựng danh tiếng học thuật,
  • Nơi gặp gỡ cộng đồng và xây dựng các mối quan hệ và kết nối,
  • Nơi tuyển dụng,
  • Nơi định hình xu hướng nghiên cứu của năm tiếp theo.

Khi quá nhiều chức năng dồn vào cùng một hệ thống, thì chỉ cần một mắt xích quá tải — ví dụ như quá trình bình duyệt đồng cấp (peer-review)— toàn bộ cấu trúc sẽ bắt đầu lộ vấn đề.


Dấu hiệu của một hệ thống đang quá tải

Theo mình, có một vài dấu hiệu rất rõ cho thấy hệ thống hiện tại đang chịu áp lực lớn.

1. Bình duyệt viên ngày càng quá tải

Một bình duyệt viên giỏi không chỉ cần đọc nhanh. Họ cần đủ thời gian để:

  • Hiểu rõ bài nghiên cứu được nhận,
  • Kiểm tra lập luận và phương pháp nghiên cứu,
  • Đối chiếu với các nghiên cứu từ trước (literature review),
  • Đánh giá thí nghiệm hoặc chứng minh,
  • Viết phản hồi có trách nhiệm.

Khi lượng bài cần bình duyệt trở nên quá lớn, chất lượng phần việc này khó tránh khỏi bị ảnh hưởng.

2. Trải nghiệm của các tác giả nộp bài cho hội nghị trở nên bất ổn hơn

Nhiều tác giả cho rằng kết quả bình duyệt mà họ nhận được ngày càng phụ thuộc mạnh vào chuyện “có đúng người đọc được bài của mình hay không”.

Dĩ nhiên, quá trình bình duyệt chưa bao giờ hoàn hảo. Nhưng một khi quy mô tăng quá nhanh, cảm giác bất định này càng lớn hơn.


Đây có phải chỉ là câu chuyện riêng của các tác giả có nghiên cứu bị từ chối đăng bài?

Mình nghĩ là không.

Nếu chỉ nhìn vấn đề này từ góc độ “bài tôi có được nhận hay không”, thì mình nghĩ chúng ta đang nhìn quá hẹp.

Đây là câu chuyện rộng hơn về:

  • Mức độ tin cậy của quá trình bình duyệt,
  • Tính hiệu quả của cơ chế mô hình hội nghị tập trung,
  • Chất lượng của tri thức mà các cộng đồng nghiên cứu hiện tại đang cố gắng xây dựng cho các thế hệ sau.

Một hệ thống quá tải không chỉ làm người nộp bài trờ nên mệt mỏi. Nó còn có thể:

  • Bỏ sót những ý tưởng tốt,
  • Chấp nhận những nghiên cứu chưa thật sự đủ chiều sâu, hay nói một cách văn vở hơn, chưa thật sự chín muồi.
  • Bào mòn niềm tin của cộng đồng vào cơ chế bình duyệt, đánh giá, và phản biện.

Vậy chúng ta nên nhìn chuyện này như thế nào?

Theo mình, có ít nhất ba cách nhìn nhận vấn đề một cách công bằng hơn.

1. Tăng trưởng không phải lúc nào cũng đồng nghĩa với khỏe mạnh

Bất kì lĩnh vực nào có sự tăng trưởng quá nhanh, thoạt nhìn bên ngoài có thể sẽ thấy rất là năng động, nhưng đồng thời cũng tạo ra những áp lực mà hạ tầng học thuật chưa kịp thích nghi.

2. Quá trình Bình duyệt không phải một tài nguyên vô hạn

Chúng ta thường nói về compute, data, và model scale. Nhưng ít khi nói đủ về một loại “hạ tầng” khác: thời gian và năng lực đánh giá của con người.

Nếu hạ tầng này không được mở rộng tương ứng, chất lượng khoa học sẽ khó mà giữ được sự ổn định cần có.

3. Cần phân biệt giữa “nhiều bài hơn” và “nhiều tri thức tốt hơn”

Số lượng bài tăng chưa chắc đồng nghĩa với việc chất lượng tri thức tăng tương ứng.
Trong một hệ thống quá tải, đôi khi điều tăng nhanh nhất lại là sự nhiễu (noise).


Kết

Mình không nghĩ sự bùng nổ của AI là điều xấu. Ngược lại, nó phản ánh sức sống mãnh liệt của lĩnh vực này.

Nhưng mình cũng nghĩ rằng đã đến lúc cộng đồng cần nhìn thẳng vào một thực tế:

Nếu tốc độ tăng trưởng tiếp tục vượt xa sức chịu đựng của hệ thống phản biện, thì “bùng nổ” sẽ không còn chỉ là dấu hiệu của phát triển — nó có thể trở thành dấu hiệu của sự quá tải.

Và khi đó, câu hỏi không còn là:

“Năm nay có bao nhiêu bài nộp?”

mà sẽ là:

“Chúng ta còn đang đánh giá khoa học theo cách đáng tin cậy hay không?”


English Version

When “explosive growth” starts to look like overload

If there is one phrase that captures the AI/ML/DL landscape in recent years, it is probably explosive growth.

Top conferences are receiving extraordinary numbers of submissions. At first glance, that sounds like good news: the field is expanding, more researchers are joining, and knowledge is being produced at an incredible pace.

But behind that growth lies a more uncomfortable question:

Can the current AI conference system still absorb this scale in a fair and sustainable way?

In my view, this is where “growth” begins to edge toward overload.


The issue is not just the number of submissions

When submission counts rise sharply, most people immediately think of:

  • Tougher competition,
  • Lower acceptance rates,
  • A smaller chance of getting accepted.

That is true, but it misses the deeper problem.

The bigger issue is the chain reaction underneath:

  1. It becomes harder to recruit enough qualified reviewers.
  2. The risk of shallow or mismatched reviews increases.
  3. The burden on area chairs (ACs), and program chairs (PCs) grows substantially.
  4. Final decisions become more chaotic.
  5. The academic experience deteriorates for both authors and reviewers.

In other words, once submission volume grows too quickly, the challenge is no longer only about selecting qualifying papers. It becomes a question of preserving the quality of reviewing and evaluation process itself.


Why this is especially serious in AI

I think this pressure is particularly intense in the field of AI for at least three reasons.

1. The community is expanding extremely fast

AI is no longer a narrow research area. It now spans a vast range of topics: traditional machine learning, deep learning, multimodal systems, LLMs, optimization, scientific machine learning, AI for healthcare, AI safety, robotics, and more.

That breadth is exciting, but it also makes reviewer matching much harder.

2. The incentive to publish is very strong

In many settings, publication count still plays a major role in hiring, funding, scholarships, promotions, and academic visibility.

That creates enormous pressure to submit (the notorious “publish or perish” culture we have heard and seen so far) — especially to flagship venues such as NeurIPS, ICML, ICLR, and AAAI.

3. Major AI conferences now serve too many functions at once

A top conference today is not just a place to publish research.

It is also:

  • A networking hub,
  • A recruiting space,
  • A bridge to industry and academia,
  • Most importantly, a signal of what topics matter next.

When so many functions are concentrated in one system, any overloaded component — especially peer-review — can strain the whole structure.


Signs that the system is under pressure

To me, there are several clear warning signs.

1. Reviewers are carrying too much load

A good reviewer needs more than time to skim.

They need enough time to:

  • understand the paper,
  • evaluate the reasoning,
  • compare it with prior works,
  • inspect experiments or proofs,
  • write a responsible review.

Once reviewing load becomes too heavy, that quality is difficult to maintain.

2. The author experience becomes more unstable

Many authors increasingly feel that outcomes depend heavily on whether the “right” person happened to read their paper.

Peer-review has never been perfect. But when scale rises too quickly, the sense of randomness becomes harder to ignore.


Is this only a complaint from rejected authors?

I do not think so.

If we frame this only as “my paper got rejected,” we miss the bigger issue.

This is really a broader question about:

  • The reliability of peer review,
  • The sustainability of the centralized conference model,
  • The quality of the knowledge base the community is building on.

An overloaded system does not just frustrate authors. It can also:

  • miss strong ideas,
  • accept papers that are not fully mature,
  • increase noise in the literature,
  • gradually weaken trust in the evaluation process itself.

How should we think about this?

I think there are at least three useful perspectives.

1. Growth is not always a good indicator

A field can be vibrant and fast-growing, yet still place unsustainable stress on its academic infrastructure.

2. Peer-review is an unlimited resource

We often talk about compute, data, and model scale.
But we talk less about another kind of infrastructure: human evaluation capacity.

If that infrastructure does not scale with the field, scientific quality becomes harder to stabilize.

3. More papers do not automatically mean more good knowledge

Rising submission counts do not necessarily translate into a proportional rise in research quality. In an overloaded system, what may grow fastest is simply noise.


Final thoughts

I do not think the growth of AI is a bad thing. On the contrary, it reflects the extraordinary energy of the field.

But I do think the community needs to face one uncomfortable reality:

If the growth in submissions continues to outpace the capacity of the review system, then “explosive growth” will stop being only a sign of success — and start becoming a sign of overload.

And at that point, the real question is no longer:

“How many papers were submitted this year?”

but rather:

“Are we still evaluating science in a way that the community can trust?”