DeepSeek把股票單日干掉17%之後,英偉達選擇了擁抱未來。
英偉達網站顯示,DeepSeek-R1模型已作為NVIDIA NIM預覽版在英偉達面向開發者的網站上釋出。英偉達網站介紹稱,DeepSeek-R1模型是最先進、高效的大型語言模型,在推理、數學和編碼方面表現出色。
對於DeepSeek來說,並沒什麼特別的影響。
DeepSeek已經在美國AI圈掀起了巨浪,幾乎所有的AI相關公司言必稱DeepSeek。甚至在Meta的業績釋出會上,都有討論和對比DeepSeek的聲音。
NVIDIA的老對手AMD則官方騎臉輸出,聲稱用AMD的卡DeepSeek推理能降低30%的成本。
對於NVIDIA來說,這件事就有點戲劇性。
一方面,DeepSeek以極低的訓練成本(2000張閹割版H800)打破了在AI領域NVIDIA期望的無限堆算力的願景;
另一方面,因為開源,所以湧入大量的企業和個人開發者,有望形成一個茁壯成長的龐大生態,成為大模型領域的Linux。對於應用端的企業和個人來說,就不需要重複造輪子,直接在DeepSeek的開源生態上發展就可以了,在生態的快速發展過程中,又推動企業和個人可能需要大量的算力卡用來推理。
但是,第二個場景並不是Nvidia原來設想的,只能算是“退而求其次”。黃皮衣的如意算盤是大家都去造輪子,不得不購買海量的算力卡來進行訓練,畢竟cuda是真正的護城河,而推理用的算力卡相對少得多且不需要必須用Nvidia。
在市場上有了可選項的時候,Nvidia就無法維持高額利潤了。大視訊記憶體的AMD來推理不香嘛?昇騰又不是不能用。
這也是市場對NVIDIA的質疑,最終反饋到股價單日暴跌17%。
Nvidia上架DeepSeek,則明擺著要加大推廣力度,吸引更多的企業和個人開發者加入到DeepSeek開源社群,力爭成為引領者,從而多賣幾張卡。
但這個事對英偉達有多大的利好,是持懷疑態度的。市場的反饋是英偉達股價繼續下跌3.67%。
ChatGPT橫空出世的時候,我曾經有個觀點:這是大力出奇跡的結果。之所以微軟谷歌沒有搞出來,是因為這類上市巨頭難以承擔目標不確定的鉅額投入。OpenAI的偉大之處在於它用百億級別的美刀燒出來一個結果:這條路的方向是對的。
隨著DeepSeek的出現,靠硬體堆算力的時代逐漸進入了尾聲,透過技術最佳化大模型減少硬體依賴這條路,才剛剛開始。
最近幾天huggingface已經被DeepSeek屠榜,各種第三方量化模型不斷的湧現,甚至還有國外老哥跑到樹莓派上。
當然現階段效果肯定不好,但隨著全球廣大開源愛好者的共同努力,搞出來極低算力成本就可以推理甚至訓練的開源大模型,為時不遠了。
舉個例子,黑森林的Flux剛釋出的時候非常驚豔,但對資源消耗比較大,在24G的4090上跑的都很勉強,由於開源,現在已經被各路開發者最佳化到8G甚至6G視訊記憶體能很好的跑起來。
最終DeepSeek這類大模型被開源愛好者們最佳化到消費級顯示卡可推理的時候,Nvidia的泡沫就破滅了。
/網路新聞wangluoxinwwangluoxinwangluoxiwangluoxwangluowangluwanglwangwanwaw/官方媒體guanfmeitiguanfmeitguanfmeiguanfmeguanfmguanfguanguagug來源於laiyuanyulaiyuanylaiyuanlaiyualaiyulaiylailal素材sucsus