文|數智前線 趙豔秋 周享玥
2月5日開工第一天,業界傳來大訊息,智慧雲成功點亮自研崑崙芯三代萬卡叢集,這也是國內首個正式點亮的自研萬卡叢集。除了解決自身算力供應問題之外,有望進一步降低大模型成本。
此前,DeepSeek推出V3和R1模型,以可媲美OpenAI領先模型的效果和極大的成本降低,在春節期間引爆全球市場。
在陸續取得突破的背後,AI大模型競爭也進入新時期——不再侷限於技術,而是成本、使用者體驗、生態體系的綜合較量。"每天一杯奶茶錢就能養AI"不再是夢,AI加速走向普惠化。
DeepSeek之後,國產自研萬卡叢集亮相
實際上,在DeepSeek新模型推出後,最近幾天,海內外晶片行業動作頻出。海外如、AMD、英特爾,國內如華為昇騰、沐曦、天數智芯、摩爾執行緒、海光等,紛紛宣佈支援DeepSeek模型部署、推理服務。
而在2月5日新春後開工首日,百度智慧雲也宣佈,成功點亮崑崙芯三代萬卡叢集,萬卡叢集的建成,將進一步推動模型降本。
此前,海外的、亞馬遜AWS和特斯拉都自研部分晶片,來降低成本,提升價效比。在中國,過去一年,算力緊張是大模型成本居高不下的重要因素之一。透過自研晶片和大規模叢集的建設,不僅解決了自身算力供應問題,也有望進一步降低大模型成本。
崑崙芯是百度自研的AI晶片,初代於2018年推出。
最近兩年,崑崙芯對外鮮有報道。但在點亮萬卡叢集之前,業界已經聽到了一些風聲。外界推測,崑崙三代晶片於2024年量產。也有行業內企業告訴數智前線,2024年下半年,他們曾評估購買基於崑崙三代晶片的伺服器。
百度董事長李彥宏曾在一些場合強調,崑崙芯是百度AI技術棧的"基石",自研能力保障了在生成式AI時代的技術主權。
在2024年的一些對外介紹中,百度稱崑崙芯,與飛槳深度學習框架、文心大模型深度協同,形成"晶片-框架-模型-應用"的端到端最佳化,提升整體效能。
數智前線獲悉,此前兩代崑崙晶片,主要用於AI的部署和推理服務。崑崙芯三代則更進一步,是為大模型和訓練最佳化的AI雲端晶片。
這次點亮的萬卡叢集,可將千億引數模型的訓練週期大幅降低,同時能支援更大模型與複雜任務和多模態資料,支撐Sora類應用的開發。此外,萬卡叢集能支援多工併發能力,透過動態資源切分,單叢集可同時訓練多個輕量化模型,透過通訊最佳化與容錯機制減少算力浪費,實現訓練成本指數級下降。
值得關注的是,今年推理市場也將是重頭戲。數智前線獲悉,國內外晶片企業,都在鉚足勁拼搶英偉達的市場份額。一位AI算力資深人士告訴數智前線,推理追求的是"能效比",比拼每瓦的計算效能。
預計百度崑崙芯叢集也將加入這一市場的爭奪。而針對推理市場,業界的策略是圍繞主流模型,做好適配服務。毫無疑問,除了自身的文心一言,崑崙芯也適配了DeepSeek等一眾模型。
在百度官宣中也提及,隨著國產大模型的興起,萬卡叢集逐漸從"單任務算力消耗"到"叢集效能最大化"過渡,"將訓練、微調、推理任務混合部署",從而提升叢集綜合利用率,降低單位算力成本。
接下來,海內外大廠面臨如何突破英偉達的CUDA護城河。在過去10多年,英偉達利用CUDA生態,既把持訓練市場,又圍獵推理市場。CUDA的厲害之處,是面向生命科學、量化、自動駕駛等場景持續開發應用庫。"你要完成一個藥物分子、自動駕駛的應用,CUDA上可能已寫了10萬行程式碼,你可能再寫幾百行,就解決問題了。"上述人士說。
目前,不少國家如英國、法國、加拿大和中國企業在AI晶片生態上表現出倔強和韌性,開展基礎生態建設。另外,全球一些國家的高校實驗室和科研機構,在政府的支援下,也持續在做基礎工作。
"每天一杯奶茶錢就能養AI"
在最新的晶片進展之外,DeepSeek掀起的大模型風暴也在繼續,而各大雲端計算大廠已紛紛宣佈支援DeepSeek模型呼叫或部署,並捲起價格戰,爭奪市場。
大廠的積極性,與DeepSeek模型在全球掀起的巨大流量相關。這個春節假期,"神秘的東方力量"、"AI界拼多多"、"每天一杯奶茶錢就能養的AI"……國產大模型DeepSeek,不管是在國內,還是國外,都賺足了關注度。
2月4日,AI產品榜公佈,根據最新統計資料,上線20天,DeepSeek應用(不包含網站資料)日活已破2000萬,上線5天時日活就已超過ChatGPT上線同期日活,成為全球增速最快的AI應用。
在微博,2月4日,"DeepSeek回答如何過好這一生"一度登上熱搜第一位。在小紅書,DeepSeek相關筆記已迅速超49萬,各類教程、測評帖密集湧現,甚至有人玩起了"AI算命"。
"免費使用+更好的效果"是吸引普通使用者嚐鮮的關鍵。
更為關鍵的是,Deepseek給了OpenAI價格體系一記重擊。多項資料測算,如果以平均使用情況計算,DeepSeek-R1 的整體成本,約為OpenAI o1模型的1/30,讓人們可以用極低的成本應用AI。
隨著 DeepSeek 的爆火,科技大廠之間的大模型價格戰愈發激烈。海外的微軟 Azure、AWS和英偉達NIM服務,接入DeepSeek模型,試圖透過更具吸引力的價效比來搶奪市場份額。國內的運營商、阿里雲、百度智慧雲、火山引擎等也不甘示弱,以各種形式接入DeepSeek模型後,展開了價格博弈。
一些雲端計算企業的價格與Deepseek官方刊例價一致,或在此基礎上有一定優惠或免費額度。
其中,2月3日,百度智慧雲打出的價格最低,百度智慧雲R1呼叫價格,是Deepseek官方刊例價的5折,V3呼叫價格是官方刊例價的3折,並限時免費兩週。
大模型呼叫價格的大幅下降,降低了高質量模型的使用門檻,企業決策阻力驟減,也快速引爆了開發者的熱情。
在全球各個技術論壇上,"DeepSeek"是最燃的話題。在開發者社群CSDN上,全站綜合熱榜前十名中,有四條都與DeepSeek有關,相關應用迅速湧現。有網友用DeepSeek將老照片修復成彩色的,期間沒寫一行程式碼。
在金融行業,江蘇銀行將DeepSeek引入到自身服務平臺"智慧小蘇"中,並將DeepSeek-VL2多模態模型、輕量DeepSeek-R1推理模型,分別運用到了智慧合同質檢和自動化估值對賬場景中。
某跨國藥企基於DeepSeek-R1模型構建藥物副作用預測系統,結合患者歷史資料與實時監測,降低臨床試驗風險。
上海交通大學已開始用DeepSeek-V3生成合成資料,開發垂類大模型。
事實上,OpenAI為了應對DeepSeek的競爭,已迅速推出新模型o3-mini,其定價也被打下來了。
儘管這一價格仍高於DeepSeek的定價,但這是一個顯著的降價趨勢。
實際上,DeepSeek這輪大火,也標誌著AI大模型競爭不再侷限於技術,而是成本、使用者體驗、生態體系的綜合較量。
"每天一杯奶茶錢就能養AI"不再是夢。業界這一輪動作,以極具競爭力的價格優勢,不僅改變了普通使用者對 AI 的使用習慣,更在行業內掀起了一股變革的浪潮,推動著 AI行業朝著更普惠的方向發展。
大模型普及程序將加速
一旦各方科技大廠和平臺力量加入,由DeepSeek引發的大模型普惠的程序將加速。
2月3日,我們體驗了公有云的DeepSeek API呼叫,用Deepseek R1,特別體驗了兩個玩法:
玩法一:秦始皇AI軍師體驗卡
玩法二:老照片時光染色機
可以看到,即便之前沒有任何技術背景,登入百度智慧雲網站,只需要點選線上體驗,進行實名認證,在"模型廣場"就可以輕鬆呼叫DeepSeek-R1和DeepSeek-V3模型。
使用者還可在千帆提供的67個模型中,一次性選擇六個模型,讓他們同時幹一件事,直觀對比模型的效果,最終用腳投票。
這也是平臺的優勢所在,整合各種模態的開閉源模型,就好比AI界的"滴滴打車",既能比價比質,讓使用者自由選擇最高效價比模型服務,也能智慧"拼車"、多模態協同,互補模型能力,增強應用深度。
在各種配套服務上,頭部雲平臺們,在一站式開發工具鏈、全生命週期安全機制、行業解決方案等各項能力的搭建和完善上,也有著極快的反應速度。
在工具鏈上,儘管大模型爆發已兩年,但門檻依然較高,需輔以各種好用的工具。比如我們發現,在Github社群上,按Star數排序,其中最受歡迎的DeepSeek專案,一個是幫助開發者使用DeepSeek的工具集——DeepSeek-Tools,另一是幫助開發者自動選擇和最佳化DeepSeek模型超引數的DeepSeek-AutoML。
各雲大廠也都在工具鏈上進行了諸多佈局,如百度智慧雲的千帆大模型平臺,雖然沒有直接上架DeepSeek工具包,但已集中各種類似工具,如資料加工、工作流編排、模型精調、模型評估、模型量化......
當企業使用者使用DeepSeek模型開發應用,卻擔心訓練資料洩露、生成內容不符合規範以及模型在推理過程中被惡意攻擊等問題時,各雲平臺也都在安全機制上進行了保障。
根據新聞介紹,百度智慧雲在將DeepSeek接入千帆推理鏈路時,支援了百度獨家內容安全運算元,保障內容生成的安全;透過資料保險箱產品,保證模型僅可用於推理預測程式,訓練資料僅可用於模型微調程式;千帆平臺整合的BLS日誌分析和BCM告警功能,也能保障金融或醫療等對安全要求較高的使用者,構建的智慧化應用更安全可靠。
而云平臺們積累的更廣泛的行業覆蓋和行業解決方案,也能幫助開發者實現在對應行業和場景的快速複製與場景適配,讓DeepSeek快速進入這些垂直領域。
除了這些,面向企業逐漸從模型訓練、微調轉向推理的大背景,推理的支撐和最佳化成為關鍵。百度智慧雲對DeepSeek進行了專項最佳化,如透過針對DeepSeek模型MLA結構的計算進行了極致的效能最佳化;並透過計算、通訊、訪存不同資源型別運算元的有效重疊及高效的Prefill/Decode分離式推理架構等,在核心延遲指標TTFT/TPOT滿足SLA的條件下,實現吞吐量"坐火箭",推理成本"坐滑梯"。
千帆支援多種主流推理框架的,讓開發者可以根據實際場景選擇最適合的推理引擎。如,vLLM以高吞吐量和記憶體效率著稱,適合大規模模型部署;而SGLang特別是在延遲和吞吐量上優於其他主流框架。同時,允許使用者自定義匯入和部署模型,為DeepSeek開發提供了靈活性。
透過大廠和平臺企業的加入,AI普惠化將成為今年的發展主線之一。當大模型從"土豪玩具"變成"普通人的口糧",創新門檻的降低將激發更大的創造力,最終讓人類突破能力和資源的邊界——小店主用AI設計爆款包裝、中學生靠開源模型開發校園助手、鄉村醫生借多模態工具輔助診斷…這場全民參與的智慧革命,讓每個普通人都能站在AI的肩膀上,觸控曾經遙不可及的未來。