DeepSeek V4 Lite悄然更新:2000億小參數性能逼近美國頂流

DeepSeek V4 Lite悄然更新:2000億小參數性能逼近美國頂流

文章圖片

DeepSeek V4 Lite悄然更新:2000億小參數性能逼近美國頂流

文章圖片

DeepSeek V4 Lite悄然更新:2000億小參數性能逼近美國頂流

文章圖片

【DeepSeek V4 Lite悄然更新:2000億小參數性能逼近美國頂流】雖然春節檔DeepSeek V4沒有發布 , 但DeepSeek在2月11日發了一個新模型 , 被稱為DeepSeek V4 Lite , 只有2000億參數 , 規模比較小 。
DeepSeek V4 Lite主要特色是1M上下文 , 之前網友測試其表現除了超長上下文之外也沒太驚艷的地方 , 畢竟參數規模跟主流的大模型差很多 。
然而DeepSeek V4 Lite發布之后一直在悄悄升級 , 2月27日已經有網友測試發現其性能越來越強大 , 昨天又升級了一波 , Linux Do社區大佬HCPTangHY測試之后也大為震驚 , 稱其有點神 , 在他的測試中已經是國模SOTA(注:SOTA簡單認為是第一就行) 。
不僅如此 , 如果繼續訓練下去 , 還有可能開源撬動閉源 。

從他的測試來看 , DeepSeek V4 Lite的0302升級之后分數比之前的0227版更高一層樓 , 已經逼近目前最頂流的大模型Sonnet 4.6了 。
帖子中還有其他的游戲及前端測試 , 包括業內很有名的天氣卡測試 , DeepSeek V4 Lite 0302版不論審美還是功能都是在線的 。
回顧這一年來的AI大模型來看 , 國產大模型在對話聊天方面已經跟閉源模型差別不大 , 但在多模態、編程、數學及智能體等方面是被甩開的 , 最近發布的GLM5、MiniMax 2.5、Qwen 3.5系列有所提升 , 但Anthropic、OpenAI及谷歌也發布了最新的模型 , 差距又拉開了 。
在追趕頂流閉源模型上 , 國內的公司面臨著多方面的不利因素 , 投入沒有美國公司的多 , 而且算力不夠 , 數據資料方面也不如谷歌、OpenAI , 畢竟他們要么有此前多年的積累 , 要么有大量用戶 。
而且Anthrpoic之前為了搜集數據 , 竟然從盜版網站上下載了大量書籍 , 還被判賠償15億美元 , 由此可見他們在這方面的投入之大 , 不要臉程度之深 。
作為全村的希望 , DeepSeek在技術探索上已經樹立了標桿 , 如果2000億小參數的DeepSeek V4 Lite就有如此表現 , 那完整版的DeepSeek V4確實非常值得期待 , 發布之后免不了又要對美國AI造成巨大沖擊了 。





    推薦閱讀