Alibaba Cloud đã công bố một mô hình AI tập trung vào lập luận mới, có khả năng đạt được hiệu suất tương đương với các đối thủ lớn hơn nhiều mặc dù kích thước của nó chỉ bằng một phần nhỏ.
Bộ phận điện toán đám mây của gã khổng lồ công nghệ Trung Quốc đưa ra sản phẩm mới này thách thức quan niệm rằng kích thước lớn hơn luôn tốt hơn trong thế giới AI.
Được gọi là QwQ-32B, mô hình được xây dựng trên nền tảng Qwen2.5-32B của Alibaba và sử dụng 32,5 tỷ tham số trong khi cung cấp hiệu suất tương đương với DeepSeek r1, mô hình sở hữu 671 tỷ tham số khổng lồ.
“Kết quả đáng chú ý này nhấn mạnh hiệu quả của RL khi được áp dụng cho các mô hình nền tảng mạnh mẽ đã được tiền huấn luyện trên kiến thức thế giới rộng lớn,” nhóm Qwen của Alibaba cho biết trong bài đăng thông báo hôm nay.
> Hôm nay, chúng tôi ra mắt QwQ-32B, mô hình lập luận mới của chúng tôi chỉ với 32 tỷ tham số mà cạnh tranh với các mô hình lập luận tiên tiến, ví dụ, DeepSeek-R1.
>
> Blog: https://t.co/zCgACNdodj
> HF: https://t.co/pfjZygOiyQ
> ModelScope: https://t.co/hcfOD8wSLa
> Demo: https://t.c
o/DxWPzAg6g8
> Qwen Chat:… pic.twitter.com/kfvbNgNucW
>
> — Qwen (@Alibaba_Qwen) March 5, 2025
QwQ-32B, theo công ty, đặc biệt nổi bật trong các nhiệm vụ lý thuyết toán học và lập trình.
“Chúng tôi thấy rằng việc đào tạo RL có thể cải thiện liên tục hiệu suất, đặc biệt trong toán học và lập trình, và chúng tôi quan sát rằng việc mở rộng liên tục của RL có thể giúp một mô hình có kích thước trung bình đạt được hiệu suất cạnh tranh so với mô hình MoE khổng lồ,” Alibaba đã viết trong tweet thông báo của họ.
Nó đạt điểm 65.2% trên GPQA (một bài kiểm tra lý luận khoa học ở trình độ cao), 50% trên AIME (toán học nâng cao), và ấn tượng 90.6% trên MATH-500, bao gồm một loạt các vấn đề toán học, theo kết quả benchmark nội bộ.
Cộng đồng AI đã phản ứng bằng sự hào hứng. “Tôi hoàn toàn yêu thích điều này!,” ghi chú Vaibhav Srivastav, một nhà khoa học dữ liệu và nhà nghiên cứu AI, trong khi Julien Chaumond, CTO tại Huggin Face, cho biết mô hình “thay đổi mọi thứ.”
Và tất nhiên, cũng có một vài meme hài hước.
d another AI model pic.twitter.com/ZXH0UGt9RU
>
> — 🔮 metaschool (@0xmetaschool) March 6, 2025
Ngoài ra, Ollama và Groq đã thông báo rằng họ đã triển khai hỗ trợ cho mô hình, nghĩa là người dùng hiện có thể lập trình các tác nhân mã nguồn mở và sử dụng mô hình này trên các ứng dụng của bên thứ ba cũng như đạt được tốc độ suy diễn kỷ lục với cơ sở hạ tầng của Groq.
Sự gia tăng hiệu suất này đánh dấu một sự chuyển mình tiềm năng trong ngành, nơi xu hướng đã hướng đến các mô hình ngày càng lớn hơn. QwQ-32B thay vào đó áp dụng một cách tiếp cận tương tự như DeepSeek R1, cho thấy rằng các kỹ thuật đào tạo thông minh có thể quan trọng không kém so với số lượng tham số thô khi xem xét đến hiệu suất AI.
QwQ-32B thực sự có những hạn chế. Nó đôi khi gặp khó khăn với việc pha trộn ngôn ngữ và có thể rơi vào các vòng lặp lý luận đệ quy ảnh hưởng đến hiệu suất của nó.
Ngoài ra, giống như các mô hình AI Trung Quốc khác, nó tuân thủ các yêu cầu quy định địa phương có thể hạn chế các phản hồi về các chủ đề nhạy cảm về chính trị và có một cửa sổ ngữ cảnh token 32K hơi hạn chế.
Mở
sốt
Không giống như nhiều hệ thống AI tiên tiến—đặc biệt là từ Mỹ và các nước phương Tây—hoạt động phía sau paywalls, QwQ-32B được cung cấp dưới dạng phần mềm mã nguồn mở theo giấy phép Apache 2.0.
Sự phát hành này diễn ra sau khi Alibaba ra mắt Qwen 2.5-Max vào tháng Giêng, mà công ty tuyên bố vượt trội hơn các đối thủ “gần như trên mọi phương diện.”
Sự phát hành trước đó diễn ra trong bối cảnh lễ hội Tết Nguyên Đán, làm nổi bật áp lực cạnh tranh mà các công ty công nghệ Trung Quốc phải đối mặt trong bối cảnh AI phát triển nhanh chóng.
Ảnh hưởng của các mô hình Trung Quốc trong ngành công nghiệp AI là rất lớn đến nỗi trong một tuyên bố trước đây về chủ đề này, Tổng thống Donald Trump đã mô tả hiệu suất của họ như một “cuộc gọi thức tỉnh” đến Silicon Valley, nhưng xem chúng là “một cơ hội hơn là một mối đe dọa.”
Khi DeepSeek R1 được phát hành, nó đã kích hoạt một sự sụt giảm mạnh trên thị trường chứng khoán, nhưng QwQ-32B không ảnh hưởng đến các nhà đầu tư theo cách tương tự.
Chỉ số Nasdaq đang giảm tổng thể, chủ yếu vì lý do chính trị hơn là do một FUD phân bổ.
ảnh hưởng của Alibaba.
Tuy nhiên, Alibaba coi đây chỉ là khởi đầu.
“Điều này đánh dấu bước đầu tiên của Qwen trong việc mở rộng Học Tăng Cường để nâng cao khả năng lập luận,” công ty cho biết trong bài viết trên blog của họ.
“Chúng tôi tự tin rằng việc kết hợp các mô hình nền mạnh hơn với RL được hỗ trợ bởi các nguồn tài nguyên tính toán mở rộng sẽ đưa chúng tôi gần hơn đến việc đạt được Trí thông minh Nhân tạo Tổng quát (AGI).”
Biên tập bởi Sebastiaan Sinclair
Bình luận (0)