OpenAI CEO阿爾特曼(Sam Altman)
近日,OpenAI CEO阿爾特曼(Sam Altman)籌資7萬億美元(約合人民幣50.26萬億元)建立“晶片帝國”訊息公佈之後,引起廣泛關注,輿論譁然。
鈦媒體App獲悉,北京時間2月11日,阿爾特曼透過社交平臺發文確認了OpenAI 啟動“造芯”,並表示“建設大規模的 AI 基礎設施和有彈性的供應鏈對於經濟競爭力至關重要”。
阿爾特曼還透露,目前OpenAI每天生成約1000億個單詞,需要大量的GPU(圖形處理器)晶片進行訓練計算——這或許是阿爾特曼“造芯”的重要原因之一。
由於這則訊息過於“勁爆”,所以,剛完成1.5億美元基金籌資的阿爾特曼親弟弟Jack Altman也公開喊話:“Sam,能不能給我一個星期露臉的時間?你需要冷靜”。
“管好你自己,然後我們一起來搞事。”阿爾特曼回應稱。
事實上,阿爾特曼“晶片帝國”所需的7萬億美元規模非常龐大,不僅相當於全球GDP(國內生產總值)的10%,美國GDP的四分之一(25%),中國GDP的五分之二(40%),而且抵得過2.5個、3.75個谷歌、4個英偉達、7個Meta、11.5個特斯拉市值。
同時,有網友估算,如果阿爾特曼拿到7萬億美元,可以買下、AMD、臺積電、博通、ASML、三星、英特爾、高通、Arm等18家晶片半導體巨頭。剩下的錢還能再“打包”Meta,再帶回家3000億美元。
另外,7萬億美元還是去年全球半導體產業規模的13倍以上,而且高於一些全球主要經濟體的國債規模,甚至比大型主權財富基金的規模更大。
所以,大家此刻才突然發現,阿爾特曼的野心如此之大,超乎人們的想象。
一旦達成7萬億美元籌資目標,阿爾特曼和他的OpenAI 將重塑全球 AI 半導體產業。
美國消費新聞與商業頻道(CNBC)直接評論稱,“這是一個令人難以置信的數字。這(OpenAI造芯)就像是一場登月計劃。”
OpenAI CEO下場“造芯”,孫正義和中東投資者或將參投
對於OpenAI來說,降低成本、滿足需求是兩個關鍵因素。然而,這兩個因素目前受到了英偉達的限制,被“卡脖子”,使得OpenAI在發展過程中面臨了挑戰。
在大模型熱潮中,AI 算力主要受到兩個方面的限制:一是 AI 模型訓練的需求急劇增加,二是算力成本不斷上升。
首先,AI 模型訓練需求的激增是由於深度學習技術的不斷發展和應用的廣泛推廣所帶來的。隨著模型變得越來越複雜,訓練所需的計算資源也相應增加。這導致了對高效能計算裝置的需求激增,以滿足大規模的模型訓練任務。
目前,ChatGPT訓練一次大約需要2.5萬塊英偉達A100晶片。如果訓練GPT-5,則還需要5萬張英偉達H100。市場分析認為,隨著GPT模型的不斷迭代升級,未來GPT-5或將出現無“芯”可用的情況。
阿爾特曼曾多次“抱怨”AI 晶片短缺問題,稱目前英偉達的晶片產能已不足以滿足未來的需求。
(圖片來源:Shutterstock US)
其次,算力成本的上升也是一個不可忽視的問題。
隨著算力的不斷增長,購買和維護高效能計算裝置的成本也在不斷增加。這對於許多研究機構和企業來說是一個重大的經濟負擔,限制了他們在AI領域的發展和創新。
英偉達H100的價格已經飆升至2.5萬-3萬美元,這意味著ChatGPT單次查詢的成本將提高至約0.04美元。而英偉達已經成為了 AI 大模型訓練當中必不可少的關鍵合作方。
據富國銀行統計顯示,目前,英偉達在資料中心AI 市場擁有 98% 的市場份額,而 AMD 公司的市場份額僅有1.2%,英特爾則只有不到1%。2024年,英偉達將會在資料中心市場獲得高達457億美元的營收,或創下歷史新高。
有訊息稱,英偉達H100將在2024年之前售罄。
“我們的GPU非常短缺,使用我們產品的人越少越好。如果人們用的越少,我們會很開心,因為我們沒有足夠的GPU。”阿爾特曼曾對外表示。
因此,我們就不難理解,阿爾特曼非得“自己造晶片”的原因——更安全和更長期可控的成本,以及減少對英偉達的依賴。
而為了解決這些問題,與其花錢從英偉達買,OpenAI選擇乾脆自己製造一顆自主可控的專用晶片。
早在2023年10月美國WSJ Live活動上,阿爾特曼首次回應傳聞稱:不排除自研晶片這一選項。
“對於是否採用定製硬體(晶片),我們還在評估中。我們正努力確定如何擴大規模以滿足世界的需求。雖然有可能不會研發晶片,但我們正在與做出卓越成果的夥伴保持良好合作。”阿爾特曼表示。
(詳見鈦媒體App前文:《OpenAI CEO首次回應:不排除自研晶片|鈦媒體獨家》)
今年1月20日,彭博報道稱,阿爾特曼正在與中東阿布扎比G42基金、日本軟銀集團等全球投資者籌集超過80億美元資金,成立一家全新 AI 晶片公司,目標是利用資金建立一個工廠網路來製造晶片,直接對標英偉達。但目前談判仍處於早期階段,完整名單尚不確定。
不僅推進融資事宜,阿爾特曼也在加緊聯絡頭部晶片製造商合作。
1月25日,阿爾特曼在韓國與儲存晶片龍頭SK海力士、三星電子集團的高管會面,重點提及構建“AI 晶片聯盟”,雙方或將在 AI 晶片設計、製造等方面與三星和SK集團合作。而在此之前,阿爾特曼就已接觸英特爾、臺積電,討論合作成立一家新的晶片製造工廠。
2月9日,《華爾街日報》報道稱,阿爾特曼正在與阿聯酋政府、美國商務部、軟銀以及其他中東主權財富基金等投資者洽談,計劃為提升全球晶片製造能力的專案籌集資金,總額多達5萬億-7萬億美元,有望擴大OpenAI為 AI 提供動力的能力。
但這樣一筆高昂投資,將使目前全球半導體產業的規模相形見絀。
去年全球晶片銷售額為5270億美元,預計到2030年將增至 1 萬億美元規模。另據行業組織SEMI的統計,2023年全球半導體制造裝置的銷售額僅為1000億美元。
因此,阿爾特曼必須要尋求政府型別的資金支援。
據知情人士透露,阿爾特曼近日與美國商務部長雷蒙多(Gina Raimondo)會面並討論了這一話題;同時,微軟、軟銀集團孫正義也知曉這一計劃,並給予了支援,而阿爾特曼已經與軟銀、臺積電商討合資相關事宜;另外,中東投資機構和阿聯酋政府也打算支援OpenAI,其中就包括阿聯酋最高安全官員、阿聯酋總統穆罕默德的兄弟、阿布扎比多個主權財富基金最高負責人 謝赫·塔農·本·扎耶德·阿勒納哈揚(Sheikh Tahnoun bin Zayed Al Nahyan)。
除了建廠和供應鏈合作之外,阿爾特曼還至少投資了 3 家晶片公司。其中一家是美國知名的算力晶片公司Cerebras。
據悉,Cerebras曾推出過打破世界紀錄的超大晶片產品,其第二代 AI 晶片WSE-2已達到2.6萬億個電晶體,AI 核心數量也達到85萬個。
第二家奧爾特曼投資的公司,是基於RISC-V開源架構、模仿大腦工作方式的晶片初創企業Rain Neuromorphics,實現演算法訓練。2019 年,OpenAI 簽署了一份意向書,斥資5100萬美元購買Rain的晶片。而去年12月,美國迫使沙特阿美(Saudi Aramco)支援的一家風險投資公司出售其在Rain的股份。
最後一家是Atomic Semi,由晶片大神Jim Keller和Sam Zeloof共同創立,前者曾是AMD K8的首席架構師,還參與了蘋果A4/A5晶片的開發。Atomic Semi的目標是簡化晶片製造流程,實現在快速生產,以期降低晶片成本。2023年1月,基於 1 億美元估值下,Atomic Semi完成OpenAI給予的一輪融資。
然而,阿爾特曼的“造芯”計劃仍面臨許多棘手的問題,其中之一就是在哪裡建設新的晶片工廠,如果傾向於選擇美國,預計在未來幾周將與臺積電等廠商獲得數十億美元的補貼,但是,美國建晶圓廠不僅“耗錢”,還會出現延誤、工人短缺等問題。
例如,臺積電就指出,其在亞利桑那州耗資400億美元的專案出現了延誤、熟練工人短缺和成本高昂等問題;英特爾在俄亥俄州投資200億美元的晶片工廠也宣佈延期,投產時間推遲至2026年底。
針對上述報道,OpenAI 的一位發言人表示,“OpenAI已就增加晶片、能源和資料中心的全球基礎設施和供應鏈進行了富有成效的討論,這些對於AI和其他有賴於此的行業至關重要。鑑於國家優先事項的重要性,我們將繼續向美國政府報告情況,並期待在稍後分享更多細節。”
今年 AI 晶片之爭加劇,算力未來將成為 AI 模型的“核武器”
2024年開年,由於英偉達的晶片供不應求、價格昂貴,因此,AI 晶片大戰越燒越烈。
2月5日,Meta公司證實,為了支援其 AI 業務,Meta計劃今年在其資料中心部署一款新的定製晶片,即第二代自研AI晶片Artemis,預計將於2024年正式投產,以減少對英偉達晶片的依賴。
Meta方面表示,該晶片將與Meta採購的數十萬個現成的GPU協同工作,“我們認為我們內部開發的加速器將與商業上可用的GPU高度互補,在Meta特定工作負載上提供效能和效率的最佳組合。”
近期,Meta公司CEO馬克·扎克伯格表示,構建“通用人工智慧”(AGI)需要的首要條件是“世界級的計算基礎設施”。
他透露:到今年年底,Meta將擁有約35萬塊H100,而如果包括其他GPU的話,總計將有等效60萬塊H100的計算能力。
半導體研究和諮詢公司SemiAnalysis創始人迪倫·帕特爾(Dylan Patel)表示,以Meta的運營規模,成功部署自己的Athena晶片,與英偉達的產品相比,它可以將每顆晶片的成本降低三分之一,從而每年可能會節省數億美元的能源成本和數十億美元的晶片採購成本。
不止是Meta,事實上,相比於通用晶片,亞馬遜、、微軟一直在自主研發的專用積體電路(ASIC)晶片,在執行機器學習任務的速度更快,功耗更低。
其中,谷歌曾透露,其自主研發的Cloud TPU v5p,是目前谷歌最強大、可擴充套件和靈活的AI加速器,它在TPU v4的基礎上提供超過2倍的FLOPS(浮點運算次數/秒)和3倍的高頻寬記憶體(HBM),可擴充套件性也是上一代的4倍,提供更多算力支援。
微軟於2023年11月推出其首款人工智慧晶片Maia 100,與英偉達的GPU競爭,也減少對英偉達的昂貴依賴。Maia 100採用5nm製程,電晶體數量達到1050億個,可用於大語言模型訓練和推理,而且Maia 100還將為OpenAI提供支援。同時,微軟還為雲計算構建了基於Arm架構的Cobalt CPU,有訊息指,這兩款晶片預計將於2024年上市。
另外,AMD、英特爾都在積極佈局 AI 算力。
去年12月,AMD釋出全新 MI300X AI晶片,整合1530億個電晶體,並聲稱其晶片推理效能優於英偉達H100。AMD CEO蘇姿豐(Lisa Su)最近在財報會議上表示,一旦2024年下半年有更多產能投產,AMD的 AI 晶片年銷售總額可能將超過 35 億美元;英特爾則將於今年釋出全新5nm製程的Gaudi3 AI晶片,推理效能也很優秀。
Rosenblatt Securities分析師漢斯·莫塞曼(Hans Mosesmann)表示,“AI 算力似乎無處不在。”
近日,支付寶CTO陳亮(花名:俊義)對鈦媒體App等表示,目前 AI 大規模應用在實施過程中,依然面臨多個“瓶頸”,包括算力成本高、硬體限制等問題。儘管GPU卡的效率已經非常高,但如何使其適應不同的技術棧(與不同技術相容)依然是一項重要難題。
從國內算力市場看,雲知聲董事長兼CTO梁家恩曾對鈦媒體App等表示,“現在業內最好的晶片是英偉達的,國內能夠頂上的是華為昇騰。”
阿爾特曼曾透露,OpenAI 希望保證到 2030 年有足夠的 AI 晶片供應。
(本文首發鈦媒體App,作者|林志佳)