國產大模型在春節期間的一輪輪產品更新,終於讓OpenAI坐不住了。
北京時間2月1日,OpenAI加急上線了o3-mini新推理模型,且首次向ChatGPT免費使用者開放。
來自國產大模型的這波競爭壓力,甚至重新讓部分海外同行擔憂起美國AI的競爭力問題。
近期,前OpenAI高管、AI初創鉅頭Anthropic創始人達里奧·阿莫迪 (Dario Amodei),罕見釋出了一篇萬字長文。在肯定DeepSeek-R1模型在特定基準測試中已逼近美國頂尖水平之外,阿莫迪認為DeepSeek的突破,更加印證了美國對華晶片出口管制政策的必要性和緊迫性。
而這輪國產AI力量中,在DeepSeek釋出DeepSeek-R1模型的幾乎同一時間,月之暗面也推出了Kimi k1.5新模型。
上述兩款推理模型,均全面對標OpenAI o1完整版。其中,Kimi k1.5憑藉同時支援文字和視覺推理的特性,成為首個可以比肩o1完整版水平的多模態模型。
儘管OpenAI展現了下一階段大模型的技術演進路線,但直到DeepSeek-R1和Kimi k1.5釋出之前,國內一眾大模型廠商均尚未推出能夠對標OpenAI o1完整版的模型。它們的出現,成了國產大模型攻破OpenAI技術黑匣子的又一次實力展示。
更重要的是,相比OpenAI o1模型付費使用的限制,無論DeepSeek-R1,還是Kimi k1.5,都支援使用者免費無限呼叫。
堪比OpenAI o1完整版的模型效能,加上免費呼叫的差異化競爭優勢,DeepSeek-R1和Kimi k1.5新模型,成了春節期間國內大模型對OpenAI發起突然襲擊的兩把尖刀。
藉助春節舞臺,完成某種後來居上式的戰略調整,已演變為中國科技公司的保留節目。
2014年春節前夕,微信首度推出紅包功能,未能掀起太多水花。轉折發生在2015年,藉助與春晚合作,斥資5億元推出“搖一搖”紅包的微信,在除夕當天使得微信紅包收發總量超10億次,並在2天內完成了支付寶此前花費10年完成的工作——2億張銀行卡繫結。
微信紅包的此番逆襲,後來被馬雲在阿里內部稱為是對支付寶的一場“偷襲珍珠港”,並促使阿里在2016也開始重金贊助春晚,透過“集五福”的形式大撒紅包。
現在,被DeepSeek-R1和Kimi k1.5新模型突襲過後的OpenAI,也不得不調整了自己的新品釋出節奏。
在國產大模型的快速技術迭代和模型效能追趕壓力之下,即便是OpenAI,恐怕也受不了幾次這樣的突襲了。“我們會開發出更好的模型,但我們不會像往年那樣保持那麼大的領先優勢了。”OpenAI CEO奧特曼在o3-mini釋出後的問答環節中說道。
A
DeepSeek-R1和Kimi k1.5新模型一經發布,便在海外使用者群中引發熱議。
英偉達AI科學家Jim Fan第一時間發帖總結兩大模型的相似之處,認為兩者都簡化了強化學習框架,同時提升了推理效能和效率,並評價兩家公司所發表的技術論文,都堪稱“重磅”級別。
伯克利人工智慧博士,Huggingface機器學習科學家Nathan Lambert、科技大V AK等也紛紛試用kimi,還有不少業內人士對這兩款來自中國的產品進行了測評。
與DeepSeek-R1一樣,Kimi k1.5新模型同樣展現出了詳細的思考過程。
北京時間1月31日,蘋果釋出了新一季度財報,以此為契機,選中Kimi k1.5推理模型,輸入提示詞“寫一篇蘋果財報分析稿,其中尤其要關注中國市場的變化,以及蘋果AI何時在國產iPhone中上線的情況”。
經過一段時間思考,Kimi給出了蘋果2025財年第一財季的業績報告資料,並特意指出其中大中華區營收為185.13億美元,同比下降11%。
除了給出聯網參考的94個網頁資訊之外,Kimi還列出了自己的詳細思考過程。
如果將大模型看作一個數學家,沒有加入推理功能之前,大模型在證明了一個新的定理,或者解了一道新的數學題時,只會把答案寫出來,不會把思考的過程寫出來。但是,有了推理功能的加入,現在大模型就可以把原本只存在於數學家個人頭腦中的思考過程,給儘可能完整呈現出來。
Kimi k1.5推理模型的思考過程,頗有點“授人以魚不如授人以漁”的作用,將其用來指導學生學習,或者輔助程式設計師編寫程式碼等,都有了更強的實際用途,大模型從有用,逐漸變得真正好用起來。
更重要的是,相比DeepSeek-R1,Kimi k1.5還是OpenAI之外首個實現o1完整版水平的多模態模型。
在Kimi k1.5推理模式下,上傳一張蘋果最新一季財報的資料圖表,並給出提示詞“給出圖中大中華區的營收情況,以及同比變化,並分析大中華區營收佔比”。
Kimi不僅讀懂了圖片中的營收數字,還透過列出數學公式的方式,準確算出了大中華的營收同比下降了11%,且營收佔比也從去年同期的17%,下降至今年的15%。
楊植麟曾在一次採訪中解釋道,長文字就是某種意義上的長推理,“如果我們想讓AI從完成一兩分鐘的任務變成完成長週期的任務,那必然要在一個很長的context(上下文)裡,才有可能真正把AI進一步往下推進。”
加入圖片識別等多模態功能,在某種程度上也可以看作是對長文字準確率的一種提升,這種提升,未來還可能隨著無失真壓縮影片多模態的融入,變得更加強大。
B
對人才的重視和培養,成為DeepSeek和月之暗面能夠率先做出對標OpenAI最新模型o1的共性之一。
在DeepSeek目前約150人左右的團隊中,大多是一幫Top高校的應屆畢業生、沒畢業的博四、博五實習生,以及一些畢業才幾年的年輕人。
從2023年初成立至今,月之暗面更是長期被視為中國大模型創業公司中,技術人才密度最高的玩家之一。
在Kimi k1.5中,月之暗麵糰隊找到了一種提升推理效率的原創技術,即Long2Short高效思維鏈。
在o1模型中,OpenAI一般依賴於邏輯鏈條(Chain-of-Thought,CoT)來逐步推匯出解決方案,這是一種用時間換取精準答案的方法。
月之暗麵糰隊開發的long2short技術途徑,把長思維鏈(複雜的推理過程)的推理結果“教給”短思維鏈(簡單高效的推理過程),兩者進行合併,最後針對“短模型”進行強化學習微調,從而達到提升token利用率以及訓練效率的目的。
在Short CoT(短文字)模式下,Kimi k1.5的能力同樣大幅領先GPT-4o和Claude 3.5,領先幅度高達550%。
良好的產品使用體驗正在給Kimi帶來使用者量的增長。根據SimilarWeb 2024年12月的資料,Kimi在web端排名全球前五,僅次於ChatGPT、Google Gemini、Claude和Microsoft Copilot。
C
在DeepSeek和Kimi們的突襲之下,來自OpenAI等對手的一輪新競爭,已經在趕來的路上。
奧特曼預告中的OpenAI 新模型o3-mini緊急上線,甚至新一代高階語音模型也釋出在即,為了在追求AGI道路上走得更快,奧特曼更是聯手軟銀孫正義,搞起了5000億美元的算力開發大計劃。
可以預見,追趕的壓力,或許很快便會再次來到國產AI們的頭上。
但透過DeepSeek-R1和Kimi k1.5新模型的這番突襲,一個值得關注的新變動是,國產大模型正在向外界越來越多地證明其自主創新能力,甚至不排除有一天完成對OpenAI的真正超越。
近期,Meta首席AI科學家楊立昆(Yann LeCun)在達沃斯“技術辯論”會議上再次提醒道,“我認為當前LLM(大語言模型)正規化的生命週期相當短,可能只有三到五年。五年內,任何清醒的人都不會再使用它們了,至少不會作為AI系統的核心組成部分……我們將看到一種新的AI架構正規化的出現,它可能不會有當前AI系統的那些侷限性。”
對於任何立志於實現AGI的大模型玩家而言,追趕OpenAI都絕不是公司成立的初衷和目標,OpenAI與國產大模型之間的差距,正在逐漸縮小已是不爭的客觀現實。
斯坦福大學電腦科學系客座教授、谷歌大腦聯合創始人(Andrew Ng)近期發文指出,DeepSeek的討論讓許多人認識到一些顯而易見的重要趨勢,其中之一便是中國在生成式AI領域正趕超美國。
2022年11月ChatGPT剛剛推出之際,美國在生成式AI領域遠遠領先中國,這一領先差距被業內認為在2-3年之間。但經過兩年發展,OpenAI對國產大模型的領先優勢已經被收縮到6個月。
透過Kimi、DeepSeek等模型的持續突破,“中國企業展現出強大的創新能力,在影片生成等特定領域甚至已經實現了區域性領先。”吳恩達點評道。
國產大模型在技術上的快速迭代能力,甚至引得奧特曼在o3-mini的問答環節中,也不得不正視道,OpenAI的領先優勢不會再像往年那麼大了。
歸根結底,大模型所蘊藏的無限技術創新空間,為國產大模型玩家們,在打造產品差異化方面提供著無限機遇。
更廣闊的AI創新前景,也將孕育出更多國產大模型的奇襲時刻。