8月21日,DeepSeek正式發布V3.1版本,并將其稱為“邁向 Agent 時代的第一步”。與以往的大模型迭代不同,它最大的特征是混合推理架構,一個模型同時支持思考模式與非思考模式。這意味著模型在保持性能穩定的同時,能夠根據需求選擇是快速給出答案,還是展開更長鏈路的推理。
更重要的是,經過思維鏈壓縮訓練,新版模型在生成結果時的token數量減少了20%至 50%(同前代模型DeepSeek-R1-0528相比),這不僅帶來響應速度的提升,也直接降低了使用成本。
配合128K的上下文擴展和FP8精度推理,V3.1在工程層面強化了吞吐效率與能耗表現,為大規模應用打下基礎。
除了推理效率上的改進,V3.1在智能體能力上的進化尤為關鍵。官方測試顯示,在代碼修復和命令行任務等編程智能體場景中,新模型展現出更強的執行力和穩定性,能夠在真實環境中完成多輪迭代修正,避免“越改越亂”的問題。
在復雜搜索任務上,V3.1則展現了更成熟的檢索與整合能力:它可以規劃搜索步驟、篩選證據并綜合多源信息,在高難度的多學科題目測試中,性能已經遠超前代模型。
在商業與生態層面,DeepSeek選擇了“雙軌”策略:一方面繼續提供API服務,但將于 9月6日起調整價格并取消夜間優惠;另一方面,V3.1的Base模型與后訓練版本已在 Hugging Face和魔搭同步開源。
值得一提的是,在這一次的官方發布說明中,DeepSeek提到“V3.1 使用了 UE8M0 FP8 Scale的參數精度”,更為通俗的說,它設置了一個適配于即將發布的新一代國產芯片的技術規范與設計標準。“建議有部署需求的用戶仔細閱讀新版說明文檔。”而在此之前,國產芯片部署DeepSeek通常會有一定性能減弱,除非再做專門的軟件適配。
本次DeepSeek-V3.1的發布也似有與GPT5對壘的意味,都支持超長上下文,都有更強的復雜任務處理能力,基礎模型調用更為靈活,成本更為彈性。