大模型創業潮洶湧,撇開熱鬧的表象,才能看清大模型帶來的新機會
圖/視覺中國
文 | 劉以秦
編輯 | 謝麗容
2023年科技領域最熱的話題就是AI大模型。這股熱潮由美國創業公司OpenAI引領,ChatGPT釋出後幾個月,中國公司密集釋出自己的大模型,整個2023年,中國公司釋出的大模型數量已經超過130個。
OpenAI能夠實現技術突破,和許多科技創新領域公司的特點類似。有足夠優秀的人才,海量資金支援,多年持續投入,以及對目標堅定。在ChatGPT釋出之前的很長一段時間裡,產業界和投資界大多不看好OpenAI,但並未動搖該公司的方向。2023年,幾乎所有人都認可了大模型的方向,大家認為,OpenAI已經把結果擺出來了,其他公司要做的就是儘快跟進,不斷最佳化,確保能參與未來。
一些人把過去沒有大規模投入大模型的原因歸咎於不確定結果。現在已經確定了,算力、資料、人才都可以加大投入,中國公司擅長工程最佳化,做出能實際應用的大模型產品指日可待。
但事實真的如此嗎?對於OpenAI來說,大模型從來都是確定的方向,OpenAI的大部分資金都花在了算力上,當時的A100 (AI專用晶片) 價格比今天低很多。據第三方資料機構SemiAnalysis估計,OpenAI使用了約3617臺HGX A100伺服器,包含近3萬塊英偉達GPU。光有GPU還不夠,投資方微軟幫助OpenAI搭建了大模型定製化的算力叢集,能夠進一步提升這些GPU的效率。在資料方面,OpenAI從資料收集、資料標註、資料清洗、資料整理、資料最佳化等每個環節都有持續投入。OpenAI團隊中大部分人,都來自頂尖的科研機構或科技巨頭。
也就是說,在這種實力和投入力度下,OpenAI依然用了超過八年的時間,才打造出突破性產品GPT4,且存在“幻覺” (也就是答非所問、胡說八道等情況) 。
為什麼中國公司在幾個月的時間裡,就能做出號稱匹敵GPT4的大模型?這是誰的幻覺?
2023年下半年,陸續有部分大模型被指出是“套殼”,直接套用了國外的開源大模型,在一些檢驗大模型能力的榜單上排名靠前,不少指標都接近GPT4。多位業內人士告訴《財經》記者,榜單表現越好,套殼比例越高,略有調整表現就會變差。
“套殼”只是中國大模型產業現狀的冰山一角,這背後折射出產業發展的五個問題,它們之間互為因果,每個問題都無法獨立解決。到今天,大模型的大眾熱度已經明顯下滑,2024年,中國大模型產業的問題會進一步暴露。但在熱鬧、問題之下,大模型已經在產業中發揮價值。
模型:原創、拼裝還是套殼?
2023年11月,阿里巴巴前技術副總裁、AI科學家賈揚清發文稱,某國內大廠做的大模型用的是Meta的開源模型LLaMA,只是修改了幾個變數名。賈揚清表示,因為改名導致他們需要做很多工作來適配。
此前,就有國外開發者稱,李開復創辦的“零一萬物”使用的就是LLaMA,只是重新命名了兩個張量,因此,業內質疑零一萬物就是“套殼”。隨後,李開復和零一萬物均有回應,稱在訓練過程中沿用了開源架構,出發點是充分測試模型,執行對比實驗,這樣能快速起步,但其釋出的Yi-34B和Yi-6B模型都是從0開始訓練,並做了大量原創性最佳化和突破工作。
2023年12月,媒體報道稱,位元組跳動秘密研發的大模型專案中,呼叫了OpenAI的API (應用程式介面) ,並使用ChatGPT輸出的資料進行模型訓練。而這是OpenAI的使用協議中明確禁止的行為。
隨後,OpenAI暫停了位元組的賬號,表示會進一步調查,如果屬實將要求更改或終止賬戶。
位元組對此的回應是,2023年初,技術團隊在大模型探索初期,有部分工程師將GPT的API服務應用於較小模型的實驗性專案研究中。該模型僅為測試,沒有計劃上線,也從未對外使用。在2023年4月公司引入GPT API呼叫規範檢查後,這種做法已經停止。且位元組大模型團隊已經提出了明確的內部要求,不得將GPT模型生成的資料新增到位元組大模型的訓練資料集,並培訓工程師團隊在使用GPT時遵守服務條款。
目前國產大模型中,主要分為三類:一是原創大模型;二是套殼國外的開源大模型;三是拼裝大模型,也就是把過去的小模型們拼在一起,變成引數量看起來很大的“大模型”。
其中,原創大模型數量最少,做原創大模型需要有很強的技術積累,且要有持續的高投入,風險很大,因為一旦模型沒有足夠強的競爭力,這些大規模投入就打了水漂。大模型的價值需要商業化來證明,當市場上已經出現足夠好的基礎大模型,其他公司應該去挖掘新的價值點,比如大模型在不同領域的應用,或是中間層,比如幫大模型訓練、資料處理、算力服務等。
但現狀是,大部分參與者都在“卷”所謂的“原創大模型”,又擔心風險太高,於是有了大量套殼、拼裝的大模型。無論是直接使用開源模型或是拼裝模型,只要符合相關規範,都沒有問題。到商業化落地階段,客戶也不太會在意是否原創,有用就行,甚至不少客戶會因為成本更低,更願意選擇非原創的技術。
問題在於,即使是拼裝和套殼,大家也要不斷強調“原創”,為了證明“原創”,就需要調整修改,而這又會影響大模型的迭代能力,陷入內耗。
算力:卡脖子還是不想買?
大模型的基礎之一是海量算力,且是先進算力,因此大模型也被稱為暴力美學。英偉達的A100此前被認為是最適合訓練大模型的,近期英偉達又推出了更先進的算力晶片H100,但還未在中國市場開售。
一位英偉達的長期合作伙伴告訴《財經》記者,2023年,A100的售價漲了約1倍,據他了解,2023年密集購買A100的中國公司主要是自身有業務需求的大廠,包括阿里巴巴、騰訊、位元組跳動、百度等,創業公司很少。有一些知名大模型創業公司會主動要求和他建立戰略合作關係,以此來對外證明自己在投入算力,“不給錢的那種”。
2023年密集購買A100的中國公司主要是自身有業務需求的大廠,創業公司很少。圖/IC
儘管有美國政府的“出口管制規則”,中國公司想要獲得英偉達的算力,並非不可能,目前有很多方式可以選擇。除了直接購買,還可以透過英偉達在中國的合作伙伴們購買。GPU本身很貴,買來之後的部署、運營、除錯、使用,都是成本。此前業內流傳的一句話是,中國不少科研機構連A100的電費都付不起。
由八張A100組成的DGX伺服器最大功率是6.5kW,也就是執行一小時需要6.5度電,同時要搭配大約同等電量的散熱裝置。按照平均工業用電每度0.63元計算,一臺伺服器開一天 (24小時) 的電費約200元。如果是1000臺伺服器,一天的電費就是約20萬元。
因此,除了大廠,創業公司很難大規模購買、部署GPU。
GPU資源還可以租用,在阿里雲、騰訊雲或是亞馬遜AWS等雲服務平臺上,都可以直接租用A100算力服務。租金同樣在過去一年漲了不少。
但實際情況是,不少大模型公司並不想在算力上做大規模投入。多位關注AI的投資人告訴《財經》記者,一旦創業公司開始部署算力,會出現兩個“問題”,一是這個投入沒有上限,沒有終點,誰也不知道要燒到什麼程度。OpenAI到今天還會因為算力跟不上而出現宕機。二是公司會因此變成重資產公司,這對於公司未來的估值有不利影響,會直接影響到投資人的收益。
2023年,中國不少投資人會直接告訴大模型創業者,先招一些名校背景的人,抓緊開發佈會,釋出大模型產品,然後做下一輪融資,不要去買算力。
創業公司們在風口期拿到大量融資,高薪招人,高調發布產品,推高估值。一旦風口過去,繼續融資或是上市就需要收入,到時候再透過此前融到的錢,去低價甚至虧本競標專案,或是直接對外投資來並表收入。
這就有可能陷入一個惡性迴圈:不願意承擔算力高投入的風險,就很難在大模型領域有突破性發展,也就難以和那些真正在這個方向上大規模投入的巨頭們競爭。
資料:低質資料怎麼解決?
資料和算力都是大模型的基礎,在資料方面,中國大模型產業面臨和算力同樣的問題:是否值得大規模投入?
在中國,一般的資料獲取門檻很低,過去主要是用爬蟲工具來收集資料,現在可以直接用開源的資料集。中國大模型以中文資料為主,業內普遍認為中文網際網路資料的質量較低。
一位AI公司創始人形容,當他需要在網際網路上搜索專業資訊時,他會用谷歌搜尋,或是上YouTube。國內的網站或App上,並非缺少專業資訊,而是廣告內容太多,找到專業內容需要的時間更久。
OpenAI用於訓練大模型的中文資料同樣來源於中國網際網路平臺,但它額外做了很多工作來提升資料質量,這不是普通的資料標註工作能完成的,需要專業團隊對資料進行清洗、整理。
此前就有AI創業者表示,在中國很難找到相對標準化的資料服務商,大多是定製化服務,定製服務又很貴。
這和是否要大規模投資算力的邏輯有些類似,這筆投入對於很多公司,尤其是創業公司來說,看起來並不划算。如果大規模投入,一旦最後的模型效果不理想,同樣是“打水漂”,還不如用開源資料訓練,直接開發佈會。
此外,中國市場缺乏有效的資料保護手段,一位大廠AI負責人說,“在中國,你能拿到的資料,別人也能拿到”,“如果你花很多錢去做高質量資料,別人可以用很低的成本拿到,反過來也一樣。”
包括資料處理在內的大模型中間環節,在2024年會是一個相對明確的新發展方向。無論是哪種模型,在落地到具體應用場景中時,必須要用專業資料做最佳化除錯,這對於資料處理的要求更高,此外還需要有模型除錯、工程最佳化等環節參與。
但如果其中的環節又變成了投資人眼裡的“新風口”,那又是另一個故事了。
資本:只有資本短視嗎?
以上的三個問題,背後都指向一個共同的方向:資本短視。
儘管OpenAI已經蹚出一條明確的道路,對於絕大部分公司來說,想從零開始做出成熟的大模型,需要耗費的成本和時間並不會短很多。
對於大部分投資人來說,每筆投資的目的很明確:退出、賺錢。OpenAI火了,估值一路攀升,未來還會繼續增長。2023年4月,該公司估值約280億美元,到2023年12月,據美國媒體報道,OpenAI最新一輪估值或將超過1000億美元。這在投資人眼裡是一個非常確定的訊號,如果以合適的價格投資中國大模型創業公司,也能在很短時間內做到估值成倍增長。
中國投資人的耐心只有三五年,這是資本運作模式決定的。投資人從LP手裡募資,需要在一定年限內退出並拿到可觀的收益。投資人退出的渠道包括專案併購、上市,或是在後續融資中把自己手裡的股份賣給新投資方。
早期融資可以靠風口和講故事,但走到中後期甚至上市,就必須有一定規模的商業化能力。投資人們發現,拖得越久,專案上市或被併購的難度就越高,因為AI領域主要的商業模式是做B端的定製化專案,這條路徑就決定了創業公司很難做出高增長的收入。投資人只能趁風口還在,迅速推動公司完成多輪融資,抬高估值,之後哪怕打折出售手裡的股份,也是划算的。
這也是為什麼2023年大模型相關的釋出會層出不窮,各種大模型榜單百花齊放且排名各不相同,這些都是有助於融資的“故事”。類似的路徑在幾年前的AI產業已經出現過一次,那個階段的代表公司是AI四小龍。2023年的大模型創業只是把過去三年走完的路在一年時間裡加速完成。
但短視絕不是投資人單方面的問題。在今天的商業環境下,大部分人都追求短期的、確定性的結果,十年,甚至五年後的未來都似乎難以把握。
商業化:誰是合適的買單人
2023年,中國大模型產業迅速從比拼大模型引數進入到比拼商業化的階段。2024年1月的CES (消費電子展) 上,兩位著名的AI科學家李飛飛和吳恩達均表示,接下來AI商業化會有明顯發展,會深入到更多行業。
目前看來,大模型的主要應用方向有兩個:一是透過大模型技術為C端使用者提供新的工具,比如付費版GPT4、百度用文心大模型重構的百度文庫、新的AI影片剪輯工具、文生圖工具等。但C端付費短期內很難有大規模增長,對於大模型工具有剛需的人群相對較少。
更有希望的商業化方向是B端服務。在中國市場,做B端軟體服務一直是一個“老大難”的生意。多位投資人和業內人士都提到,中國市場最大的B端客戶是政府和國企,大模型做為先進的生產力工具,會有一個直接影響是減少人力。而在政府和國企,減少人力在很多時候反而會變成阻力。
如果退而求其次,選擇中小B客戶,在2024年恐怕也很難。一位AI大模型創業者說,他近期詢問了不少企業客戶,得到的回應是:“大模型能做什麼?能幫我裁員還是能幫我賺錢?”
到今天,即使是最先進的大模型也依然存在“幻覺”問題,這在C端應用上還可以忍受,但在一些專業的B端場景中,有“幻覺”就意味著難以真正落地。過去比對式AI,例如人臉識別,如果識別錯誤,人工輔助、調整的成本很低,但大模型擅長“一本正經地胡說八道”,具有一定迷惑性。
但大模型已經切實在實際應用了。多位業內人士都提到,因為大模型的出現,很多過去無法解決的問題都有了新方法可以解決,且效率有明顯提升。例如前文提到的拼接大模型,在過去很少有人嘗試,現在不少AI公司都開始把多個不同場景的小模型拼在一起,在解決大部分同類問題時,不需要再單獨訓練模型,可以直接調取使用。
此外,在一些有龐大業務的公司裡,大模型也已經落地使用。類似於上一輪AI視覺技術帶動AI演算法的發展,這些AI演算法迅速在內容推薦、電商、打車、外賣等領域發揮重要價值。現在,騰訊的遊戲業務、阿里的電商業務、位元組的內容業務等,都已經用上了大模型。
2024年,AI大模型的發展會有幾個相對確定的趨勢:一是融資熱度下滑,2023年出現的一家公司完成多輪數億美元融資的情況會明顯減少,大模型創業公司需要尋找新的出路。目前看來,大廠們更有實力做大模型基礎設施的工作,創業公司可以考慮調整方向,填補基礎大模型到應用之間的空白。
二是大模型的應用會持續深入,但這主要會集中在數字化程度很高且業務體量非常大的領域。在C端,大模型也會進一步普及,不過對於中國公司來說,不能只依賴C端使用者付費,C端應用場景中會加入其他變現模式,主要是廣告。
三是國產算力會進一步得到重視,得到重視並不意味著短期內會有明顯進步,這是一個漫長的過程。國產算力能力提升的同時,會有更多趁機炒作、造勢、圈錢的現象。
風口會刺激產業迅速擴張,泡沫隨之而生,機會越大,泡沫就越大。只有撇開泡沫,才能看清產業發展的新機會。