阿里開源了其最新推理模型:QwQ-32B,可媲美DeepSeek-R1
2025年3月6日凌晨,阿里巴巴正式對外發布并開源了他們最新的推理模型——通義千問QwQ - 32B。
通義千問QwQ - 32B是用大規模強化學習訓練出來的。和以往的預訓練、后訓練方法不一樣,強化學習能讓模型在和環境互動的過程中去學習知識。就因為這樣,它在數學推理、編程還有通用能力這些方面都特別出色,推理能力也能得到更有效的提升。
另外,這個模型里面還加入了和Agent有關的能力。有了這個能力,模型在使用工具的時候,就能夠進行批判性思考,還能根據環境給出的反饋,隨時調整推理的過程 。
通義千問QwQ-32B模型概述
通義千問QwQ - 32B是一款推理模型,有320億個參數。雖然它的參數量比DeepSeek - R1(有6710億參數,其中370億被激活)少很多,但性能卻能和DeepSeek - R1滿血版相媲美。
這個模型采用Apache 2.0開源協議,用戶能免費下載,還能用于商業用途。模型開源平臺有兩個,分別是Hugging Face(https://huggingface.co/Qwen/QwQ - 32B )和ModelScope(https://modelscope.cn/models/Qwen/QwQ - 32B )。
通義千問QwQ-32B模型性能
性能表現突出:在數學推理、編程以及通用能力方面,QwQ - 32B都相當厲害。在aiME24評測集和LiveCodeBench測試里,它的表現和DeepSeek - R1差不多,比其他同尺寸的模型都要好。
強化學習與智能體助力:QwQ - 32B通過大規模強化學習,推理能力有了很大提升,能夠深入思考和處理復雜問題。而且模型里集成了智能體能力,在使用工具的時候,它能進行批判性思考,還會根據環境反饋來調整推理過程。
多領域都能適應:QwQ - 32B在數學、編程和通用任務處理上表現都很出色,還支持多模態任務,像語音轉寫、圖像識別這些都不在話下。在LiveBench、IFEval和BFCL等基準測試中,它的得分超過了DeepSeek - R1 。另外,它對硬件資源需求不高,消費級顯卡就能實現本地部署,很適合硬件資源有限的應用場景。
通義千問QwQ-32B模型應用
數學與邏輯推理:在數學推理任務,比如AIME24里,QwQ - 32B成績優異,在教育和科研領域都能派上用場。
編程與代碼生成:在LiveCodeBench測試中,它能生成高質量的代碼,適合軟件開發和編程教育工作。
通用任務處理:在指令遵循(IFEval)、多模態任務處理等方面,QwQ - 32B表現卓越,能應對多種通用任務。
智能體相關任務:因為它支持智能體能力,能進行動態決策和適應環境,所以適用于復雜任務的自動化處理 。
HF:https://huggingface.co/Qwen/QwQ-32B
模型:https://modelscope.cn/models/Qwen/QwQ-32B
演示:https://huggingface.co/spaces/Qwen/QwQ-32B-Demo
聊天:https://chat.qwen.ai