集微網報道 今日,AMD公佈2023年第四季度及全年財報,第四季度營業額62億美元,全年營業額227億美元,得益於AMD Instinct GPU和EPYC(霄龍) CPU創紀錄的季度銷售額以及AMD Ryzen(銳龍)處理器銷售的增長,營業額和收益實現環比與同比同步增長。
AI領域的快速發展超出AMD預期,其將此前制定的2024年資料中心AI GPU產品的收入由20億美元修改為35億美元。在大模型領域,AMD對於其MI300X資料中心GPU產品充滿希望,同時表示也將對其CPU市場持續收穫份額充滿信心。今年下半年,搭載全新Zen5架構的產品將會推出。
資料中心業務強勢增長 實現創紀錄營收
Q4季度AMD實現62億美元營業額,同比增長10%,主要來自於資料中心和客戶端業務的貢獻,均實現雙位數的同比增長。但受遊戲業務等影響,全年227億美元營業額同比下降4%。
受益於人工智慧浪潮的推動,AMD資料中心業務Q4增長強勁。本季度營業額達到創紀錄的23億美元,同比增長38%,環比增長43%。2023年,AMD資料中心事業部營業額為65億美元,與2022年相比增長7%,同樣實現創紀錄的年度增長表現,主要得益於AMD Instinct GPU和第四代AMD EPYC CPU的強勁增長。
AMD CEO蘇姿豐在財報會上表示,儘管在雲業務市場整體需求環境仍然疲軟,但隨著在北美超大規模雲服務廠商中實現第4代EPYC處理器的逐步部署,AMD伺服器CPU收入將逐年增加。Q4包括亞馬遜、阿里巴巴、谷歌、微軟和甲骨文等廠商將部署超過55個由AMD驅動的AI、HPC和通用雲實例。2023年全年,有800多個基於EPYC CPU的公共雲實例部署。預計這個數字將在2024年繼續增長。
目前,AMD正在推動其EPYC伺服器CPU在金融、能源、汽車、零售、技術和製藥公司的拓展,在效能方面具有吞吐量,以及70億Llama大模型進行訓練和推理上的功耗優勢。AMD表示,今年下半年推出的第五代EPYC CPU“都靈”將進一步提升AMD在資料中心業務領域中的領導力。
目前的一些媒體爆料顯示,“都靈”CPU採用新一代Zen5架構,增加新的記憶體擴充套件功能和更高核數。與基於Zen4的第四代系列處理器相比,“都靈”增加了 33% 的核心數量以及33%的L3快取。
由於銳龍7000系列CPU銷售增長,Q4AMD客戶端業務營業額為15億美元,同比增長62%。但從全年看,由於PC市場的下滑,客戶端事業部營業額為47億美元,與2022年相比下降25%。
遊戲業務本季度營業額為14億美元,同比下降17%,環比下降9%。2023年,遊戲事業部營業額為62億美元,與2022年相比下降9%, 主要原因是半定製產品銷售下降。
因客戶降低庫存水平,本季度AMD嵌入式業務營業額為11億美元,同比下降24%,環比下降15%。2023年,由於賽靈思的併購所帶來的全年營業額,嵌入式業務營業額達到53億美元,與2022年相比增長17%。
人工智慧正在成為助力AMD成長的基石和機遇,在去年12月初召開的“Advancing AI”活動上,AMD展示了AI所帶來的市場空間以及AMD從資料中心到PC的解決方案,併發布兩款AI晶片旗艦產品——Instinct MI300X與MI300A,以及引領AI PC時代的銳龍8040系列處理器。
蘇姿豐表示,Q4AMD資料中心GPU業務大幅加速,收入超過了4億美元的預期,得益於MI300X在客戶中的快速匯入,得到了來自大規模雲服務商,OEM以及許多領先的AI開發人員的支援。基於MI300系列目前客戶一側的強勁需求以及產品的市場匯入情況,對未來發展前景看好。
當前,AMD將AI視為第一戰略重點,存在大量的市場機會,而最大機遇來自資料中心。MI300系列已成為AMD歷史上收入增長最快的產品。而2024年將會是AI進一步集中落地的年份。AMD預計來自CPU、GPU、FPGA以及其他AI資料中心業務將推動市場規模從2023年的450億美元增加到2027年的4000億美元,年均複合增長率超過50%。
AI領域的快速發展也使得AMD不斷調整營收預期,此前,AMD預計2024年資料中心AI GPU產品的收入將超過20億美元。而在電話會上,AMD表示,結合市場需求情況,這一數字將調整至35億美元。
GPU仍是大模型首選 CPU持續拓展份額
此次財報會上,AMD最新發布的資料中心GPU MI300X成為分析師最為關注的話題。MI300X由臺積電代工,其第三代CDNA架構集成了高達1530億個電晶體,是目前最為先進的資料中心GPU晶片。
蘇姿豐表示,隨著越來越多的企業開展AI相關業務,進行大模型開發,推理的需求將超過訓練,這樣的趨勢將成為未來幾年AI領域的顯著特徵,而在相關的硬體支援方面,考慮到不同型別的模型,從小的模型到模型微調,再到大語言模型,針對不同用例,需要不同硬體,但從AMD的角度,大語言模型的訓練和推理,GPU仍是首選計算單元。
蘇姿豐表示,目前MI300系列體現出強勁的牽引力,而AMD依靠獨有的chiplet小晶片技術,使得晶片產品能夠同時具有APU和GPU版本,從而獲得記憶體頻寬和容量的優勢。
此外,為強化GPU的生態能力,AMD目前在積極推進生態方面的建設,包括髮布其最新版本的開源ROCm 6,為生成式人工智慧最佳化的軟體堆疊。AMD還擴充套件了對ROCm軟體的支援,包括AMD Radeon RX 7900 XT GPU,為人工智慧開發人員和研究人員使用AMD硬體進行人工智慧工作提供了更多選擇。
蘇姿豐表示,透過和頂級雲服務商和OEM廠商的合作,持續最佳化ROCm 6,目前進展順利。同時,也在開源社群方面得到了很好地支援,包括同hugging face、Triton等廠商的合作,這些都承載著AMD對於GPU市場進一步取得擴充套件的期望。
蘇姿豐表示,與競爭對手相比,MI300系列產品擁有更多的頻寬和記憶體容量,對於數百億引數的大型語言模型而言,意味著更少的GPU用量,以及更好的整體擁有成本。在MI300方面,AMD認為路線圖非常有競爭力,預計今年每個季度收入都會增加,隨著產能供應等問題下半年有所改觀,下半年增勢將更加明顯。
儘管GPU在處理大模型方面具有優勢,但並非唯一選擇。在去年的“Advancing AI”活動上,集微網記者看到採用AMD EPYC 9654處理器執行Llama 2大語言模型的展示,在同競品Xeon Platinum 8480的對比中,處理執行速度提升36%。這意味著,在某些場景下,依靠CPU提供的AI算力也能夠進行大模型處理,而非僅依靠GPU,這對於具有較少GPU資源的企業而言非常具有吸引力,也能夠帶來成本上的節省。
而在資料中心CPU方面,AMD認為每一代EPYC的推出,都在助力AMD進行市場份額的拓展,去年Q4實現了創紀錄的收入。當下,採用Zen4架構的與Genoa、Bergamo、Siena表現出較好的競爭優勢,而在進入Zen5的“都靈”後,AMD仍將保持樂觀地持續收穫市場份額的預期。此外,蘇姿豐表示,2024年,資料中心CPU的業務增長取決於宏觀和整體資本支出的趨勢,從AMD的視角,基於節能等因素的考慮,可以看到一些大客戶正在進入他們的基礎設施產品更新週期,這將給AMD帶來更多機會。