DeepSeek今年春節再爆「驚奇」? 官方披露正測試新模型結構
▲Deepseek。(圖/路透)
記者陳冠宇/綜合報導
DeepSeek去年春節期間橫空出世,震撼全球人工智慧(AI)行業。官方披露,目前正在測試新的長文本模型結構。這意味着,DeepSeek或將在今年春節再次發佈新模型,可能再度引爆市場話題。
《澎湃新聞》報導,2月13日,DeepSeek的網頁與APP正在測試新的長文本模型結構,支持1M上下文。其API服務不變,仍爲V3.2,僅支持128K上下文。
今年1月12日,DeepSeek曾發佈一篇新論文《ConditionalMemoryviaScalableLookup:ANewAxisofSparsityforLargeLanguageModels》(基於可擴展查找的條件記憶:大語言模型稀疏性的新維度),深度求索(DeepSeek)創始人兼執行長樑文鋒位列作者名單中,這篇論文爲北京大學和DeepSeek共同完成。
據分析,這篇論文的核心直指當前大語言模型存在的記憶力問題,提出了「條件記憶」這一概念。當時行業就普遍猜測,DeepSeek的下一代模型V4或將在今年春節前後正式發佈。
去年12月1日,DeepSeek曾經同時發佈兩個正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale,官方網頁端、App和API均已更新爲正式版DeepSeek-V3.2,Speciale版本目前僅以臨時API服務形式開放,以供社區評測與研究。
據介紹,DeepSeek-V3.2的目標是平衡推理能力與輸出長度,適合日常使用,例如問答場景和通用Agent(代理)任務場景。在公開的推理類Benchmark測試中,DeepSeek-V3.2達到GPT-5的水準,僅略低於Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的輸出長度大幅降低,顯著減少計算開銷與用戶等待時間。
作爲大陸大模型風向球,DeepSeek一舉一動都受到行業整體關注。網易有道詞典發佈2025年度詞彙「deepseek」以867萬2940次年度搜尋量成功當選。據介紹,「deepseek」在詞典內部的搜尋曲線呈現明顯的爆發式特徵,從年初因「低成本」突破算力封鎖起,幾乎每個重要進展都會帶動搜尋量上漲。
不過,近期DeepSeek傳出爭議,OpenAI指控DeepSeek透過「模型蒸餾」方式複製美國技術。根據路透取得的一份備忘錄內容,OpenAI已向美國國會提出警告,指稱DeepSeek試圖規避存取限制,藉此取得模型輸出進行訓練。