2月3日訊息,據《韓國商報》報道,在近日的“SEMICON 韓國 2024”展會上,SK海力士副總裁Chun-hwan Kim透露,該公司HBM3E記憶體已經量產,並計劃在 2026 年開始大規模生產 HBM4。
Chun-hwan Kim表示:“隨著AI計算時代的到來,生成式人工智慧(AI)正在迅速發展,市場預計將以每年35%的速度增長。”而生成式AI市場的快速增長則需要大量更高效能的AI晶片來支援,這也將進一步推動對於更高頻寬的記憶體晶片的需求。
早在去年8月21日,SK海力士就宣佈其開發出的HBM3e DRAM已經提供給(NVIDIA)和其他客戶評估,並計劃在2024年上半年量產,以鞏固其在 AI 記憶體市場的領導地位。現在,Chun-hwan Kim宣佈,該公司HBM3E記憶體已經正式量產。
據介紹,SK海力士的HBM3e在 1024 位介面上擁有9.6 GT/s 的資料傳輸速率,單個 HBM3E 記憶體堆疊可提供 1.2 TB/s 的理論峰值頻寬,對於由六個堆疊組成的記憶體子系統來說,頻寬可高達 7.2 TB/s。不過,該頻寬是理論上的。例如,英偉達(Nvidia)的 H200所整合的HBM3e記憶體僅提供高達 4.8 TB/s的傳輸速率,可能是出於可靠性和功耗方面的考慮。
隨著人工智慧和高效能計算(HPC)行業的需求持續增長,因此具有2048位介面的下一代HBM4記憶體成為各家記憶體大廠發力的重點。
Chun-hwan Kim明確表示,SK海力士將在 2026 年開始生產HBM4,並聲稱這將推動人工智慧市場的巨大增長。他認為,除了向下一代轉型之外,重要的是要認識到HBM行業面臨著巨大的需求。因此,建立一個既具有無縫供應又具有創新性的解決方案更為重要。Chun-hwan Kim認為,到 2025 年,HBM 市場預計將增長 40%,SK海力士已儘早定位以充分利用這一市場。
同樣,美光和三星也計劃在2026年量產HBM4。
據美光介紹,HBM4 將使用 2048 位介面,可以將每個堆疊的理論峰值記憶體頻寬提高到 1.5 TB/s 以上。為了實現這一目標,HBM4 需要具有約 6 GT/s 的資料傳輸速率,這將有助於控制下一代 DRAM 的功耗。同時,2048 位記憶體介面需要在內插器上進行非常複雜的佈線,或者僅將 HBM4 堆疊放置在晶片頂部。在這兩種情況下,HBM4 都會比 HBM3 和 HBM3E 更昂貴。
三星記憶體執行副總裁 Jaejune Kim 在與分析師和投資者舉行的最新財報電話會議上也表示:“HBM4 正在開發中,預計 2025 年提供樣品,2026 年實現量產 。 ” “在生成式 AI 的推動下,對定製 HBM 的需求不斷增長,因此我們不僅開發標準產品,而且還透過新增邏輯晶片為每個客戶開發效能最佳化的定製 HBM。詳細規格正在與關鍵產品討論顧客。”
編輯:芯智訊-浪客劍