
英偉達稱DeepSeek R1是“一項出色的人工智能進步”,盡管這家人工初創公司的崛起導致英偉達股價周一暴跌17%。
英偉達發言人周一表示:“DeepSeek是一項出色的人工智能進步,也是測試時間縮放的完美例子。”“DeepSeek的工作說明了如何使用該技術創建新模型,利用廣泛可用的模型和完全符合出口管制的計算。”
在此之前,DeepSeek上周發布了R1,這是一個開源推理模型,據報道,它的表現超過了OpenAI等美國公司的最佳模型。R1自我報告的培訓成本不到600萬美元,與硅谷公司花費數十億美元建立人工智能模型的成本相比,這只是一個零頭。
英偉達的聲明表明,它認為DeepSeek的突破將為這家美國芯片制造商的圖形處理單元(GPU)創造更多的工作。
“推理需要大量的英偉達GPU和高性能網絡,”發言人補充說。“我們現在有三個縮放定律:訓練前定律和訓練后定律,它們會繼續,還有新的測試時間縮放定律。”
分析師們現在在問,微軟、谷歌和Meta等公司對基于英偉達的人工智能基礎設施的數十億美元資本投資是否被浪費了,因為同樣的結果可以以更低的成本實現。
本月早些時候,微軟表示,僅2025年就將在人工智能基礎設施上投入800億美元,而Meta首席執行官馬克·扎克伯格上周表示,這家社交媒體公司計劃在2025年投資600億至650億美元的資本支出,作為其人工智能戰略的一部分。
美國銀行證券分析師賈斯汀?波斯特(Justin Post)在周一的一份報告中寫道:“如果模型培訓成本被證明顯著降低,我們預計使用云人工智能服務的廣告、旅游和其他消費應用公司將在短期內獲得成本效益,而與超大規模人工智能相關的長期收入和成本可能會降低。”
英偉達的評論也反映了英偉達首席執行官黃仁勛、OpenAI首席執行官薩姆·奧特曼和微軟首席執行官薩蒂亞·納德拉最近幾個月討論的一個新主題。
人工智能的繁榮和對英偉達gpu的需求在很大程度上是由“縮放定律”驅動的,這是OpenAI研究人員在2020年提出的人工智能開發概念。這一概念表明,通過大幅增加構建新模型所需的計算量和數據量,可以開發出更好的人工智能系統,而這需要越來越多的芯片。
自去年11月以來,Huang和Altman一直在關注縮放定律的一個新問題,Huang稱之為“測試時間縮放”。
這一概念認為,如果一個訓練有素的人工智能模型在進行預測或生成文本或圖像以進行“推理”時,花更多的時間使用額外的計算機能力,那么它將比運行更少的時間提供更好的答案。
測試時間縮放定律的形式被用于OpenAI的一些模型,如o1和DeepSeek的突破性R1模型。

責任編輯:李桐
VIP課程推薦
APP專享直播
熱門推薦
收起
24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)