DeepSeek這條“鯰魚”,讓全球大模型競賽進一步提速。
北京時間2月1日凌晨,OpenAI釋出全新推理模型o3-mini。據介紹,o3-mini是其推理模型系列中最新、最具成本效益的模型,包含low、medium和high三個版本,已經上線了ChatGPT和API。值得注意的是,ChatGPT免費使用者可以透過在訊息編輯器中選擇“推理(Reason)”或重新生成響應來試用o3-mini模型,這也是OpenAI首次向免費使用者提供推理模型。
此前,DeepSeek因推出了效能良好、開源且免費的V3和R1模型而受到廣泛關注,也由於低廉的模型訓練成本而走出了一條獨特的道路,透過開源重構了全球的AI競爭格局,使低成本創新成為顛覆行業的創新路徑。過去一週多的時間裡,國內外大模型廠商從“緊急上線”新模型,到降價、免費,種種措施表明,在DeepSeek的刺激下,AI大模型行業的競爭正變得越來越激烈。
OpenAI緊急上線新模型
據介紹,o3-mini是其最新、最具成本效益的模型,複雜推理和對話能力顯著提升,在科學、數學、程式設計等領域的效能超越了o1模型,並保持了低成本及低延遲的特點。
具體來看,o3-mini在GPQA Diamond(理化生)、AIME2022-2024(數學)、Codeforces ELO(程式設計)基準測試中,得分分別為0.77、0.80、2036,比肩或是超過了o1推理模型。在中等(medium)推理能力下,o3-mini在額外的數學和事實性評估中表現更為出色。同時,o3-mini的平均響應速度為7.7秒,比o1-mini的10.16秒平均響應速度快24%。
值得注意的是,DeepSeek的網頁及移動應用端均實現了模型與網路的連線,支援聯網搜尋功能,而o1模型則尚未實現聯網搜尋功能。另外,與其他模型直接提供問題答案不同,DeepSeek的R1推理模型可以向使用者展示出具體的思考過程。不少使用者表示,在與DeepSeek互動的過程中,欣賞其思考的過程甚至比最終得到的答案更具有啟發性。
或是受DeepSeek的影響,o3-mini可與聯網搜尋功能搭配使用,並展示完整的思考過程。奧特曼在其社交平臺上介紹o3-mini時候不僅表示這是一款“聰明、反應快速的模型”,還專門強調,“它能夠搜尋網頁,還可以展示搜尋過程”。
使用許可權方面,ChatGPT首次向所有使用者免費提供推理模型,使用者可以透過在訊息編輯器中選擇“推理(Reason)”或重新生成響應來試用o3-mini模型。ChatGPT Pro使用者可以無限訪問,Plus和Team使用者的速率限制從原來o1-mini的每天50條訊息增加3倍到o3-mini的每天150條訊息。
在定價方面,o3-mini每百萬token的輸入(快取未命中)/輸出價格為1.10美元/4.40美元,比完整版o1便宜93%。不過,o3-mini的價效比或依然比不上DeepSeek。作為對比,DeepSeek的API提供的R1模型,每百萬token的輸入(快取未命中)/輸出價格僅為0.55美元/2.19美元。
美國知名播客主持人Lex Fridman在其個人社交平臺上表示,雖然OpenAI的o3-mini表現不錯,但是DeepSeek的R1以更低成本實現了同等的效能,並開創了開放模型透明度的先河。
DeepSeek讓大模型“卷”起來了
記者注意到,早在幾天以前,奧特曼在回應DeepSeek的爆火時就指出,DeepSeek R1讓人印象深刻,尤其考慮到成本方面,“但我們無疑將帶來更好的模型,我們很快會發布新的模型”。業內人士分析稱,o3-mini模型的緊急上線,或表明OpenAI已感受到了來自競爭對手的壓力,需要加快釋出效能更強的模型證明自身的領先優勢。
值得注意的是,在o3-mini推出後,OpenAI執行長山姆·奧特曼與一眾高管在reddit上回答網友的問題。奧特曼承認,中國競爭對手DeepSeek的崛起削弱了OpenAI的技術領先優勢。“DeepSeek是個非常優秀的模型。我們將繼續推出更優質的模型,但將無法維持往年的領先優勢”。
對於“更優質的模型”,奧特曼透露,下一代推理模型o3將在“數週至月內”釋出。但被業界期待了許久的旗艦模型GPT-5,則尚無釋出的時間表。
除此以外,奧特曼罕見地對開源與閉源的問題進行了回應。他指出,OpenAI過去在開源方面站在“歷史錯誤的一邊”,公司曾經開源部分模型,但主要採用閉源的開發模式,未來將重新制定開源戰略。
OpenAI首席產品官Kevin Well還表示,公司正考慮將非前沿的舊模型如GPT-2、GPT-3等開源。
在OpenAI釋出新模型的同時,國產大模型的降價浪潮仍在持續。1月30日,阿里雲釋出百鍊qwen-max系列模型調整通知,qwen-max、qwen-max-2025-01-25、qwen-max-latest三款模型輸入輸出價格調整,qwen-max batch和cache同步降價。
而就在1月29日凌晨,阿里雲才正式釋出升級了通義千問旗艦版模型Qwen2.5-Max,據介紹,Qwen2.5-Max模型是阿里雲通義團隊對MoE模型的最新探索成果,預訓練資料超過20萬億tokens,展現出極強勁的綜合效能,在多項公開主流模型評測基準上錄得高分,全面超越了包括DeepSeek-V3在內在目前全球領先的開源MoE模型以及最大的開源稠密模型。
天風國際分析師認為,目前從生成式AI趨勢中獲利的方式,主要還是“賣鏟子”和降低成本,而不是創造新業務或提升既有業務的附加值。而DeepSeek-R1的定價策略,會帶動生成式AI的整體使用成本下降,這有助於增加AI算力需求,並且可以降低投資人對AI投資能否獲利的疑慮。不過,使用量的提升程度能否抵消價格降低帶來的影響仍然有待觀察。同時,郭明錤表示,只有大量部署者才會遇到Scaling law邊際效益的放緩,因此當邊際效益再度加速時,英偉達將依然是贏家。
源自證券時報官微
責編:彭勃
校對 :廖勝超