發布時間:2025-08-02 02:31:44 來源:奉天承運網 作者:綜合
自從深度求索發布DeepSeek開源大模型以來,開源這一股風就席卷了全球,就連曾經一直高叫著“開源其實是一種智商稅”的百度CEO李彥宏,也在DeepSeek爆火之后坦言“DeepSeek讓我們明白要將最優秀的模型開源?!弊罱?,開源這股風刮到了韓國。
昨日,LG旗下的人工智能研究中心“LG AI Research”宣布推出韓國首個開源AI推理模型——EXAONE Deep,其團隊宣傳其擅長數學和代碼編程。值得一提是,EXAONE Deep“滿血版”的體積十分小巧,僅有320億參數(32B),而DeepSeek-R1“滿血版”則擁有6710億參數(671B),此外EXAONE Deep還擁有兩個輕量化模型,分別為EXAONE Deep-7.8B、EXAONE Deep-2.4B。
雖然參數少,但是膽子大啊。開發團隊進行了多項測試,依據測試結果宣稱EXAONE Deep擁有3大顯著優勢:
1、EXAONE Deep-2.4B優于同等規模的其他模型。2、EXAONE Deep-7.8B不僅優于同等規模的開放權重模型,還優于專有推理模型OpenAI o1-mini。3、EXAONE Deep-32B表現出與領先的開源模型相比的性能。
在第一組測試中,EXAONE Deep-32B對比了深度求索開發的DeepSeek-R1 (671B)、DeepSeek-R1-70B、DeepSeek-R1- 32B以及阿里最新開發的QwQ-32B。
測試結果顯示,EXAONE Deep-32B的數學推理能力較強,在AIME 2024/2025(美國數學邀請賽)中和其他模型不相上下,在CSAT Math 2025(韓國大學修學能力考試)中,甚至超過了DeepSeek-R1“滿血版”,不過在GPQA Diamond(跨學科博士級測試鉆石組)和LiveCodeBench編程測試中則要明顯弱于DeepSeek-R1“滿血版”。
在第二組測試中,開發團隊使用的是7.8B參數的小模型,同步對比了DeepSeek-R1-7B和8B,也加入了OpenAI-o1-mini模型,結果顯示EXAONE Deep-7.8B均勝過參數量相近的其他模型。
目前EXAONE Deep已經正式發布,可通過Ollama之類的框架工具進行部署,因為體積較小,大家可以本地部署實測一下。
相關文章