DeepSeek-R1登上自然期刊 訓練成本不到千萬
(中央社台北18日電)年初成為人工智慧(AI)領域熱門話題的DeepSeek-R1,相關論文登上最新一期「自然」期刊,是首個通過同行評議的主要大型語言模型(LLM),文章顯示其訓練成本僅29.4萬美元(約新台幣882萬元)。
這篇題為「DeepSeek-R1透過強化學習激勵大型語言模型推理」的論文由DeepSeek(深度求索)公司團隊完成、DeepSeek創辦人梁文鋒擔任通訊作者,18日刊發在「自然」(Nature)期刊上。而這一期封面即以AI的自我學習和改良為主題。
陸媒界面新聞報導,這篇新版DeepSeek-R1論文,與今年1月未經同行評審的預印本有較大差異,作者根據評審意見增加了模型訓練的技術細節說明,包括模型訓練數據類型和安全性考慮等,並回應了先前關於知識「蒸餾」的質疑。
據報導,DeepSeek明確否認了先前關於其使用OpenAI模型輸出進行訓練的質疑。DeepSeek-V3 Base(DeepSeek-R1的基座模型)使用的數據全部來自網際網路,雖然可能包含GPT-4生成的結果,但絕非有意而為之,也沒有專門的蒸餾環節。
DeepSeek還透露,為了防止基準測試數據汙染,對DeepSeek-R1的預訓練和後訓練數據都實施了全面的去汙染措施。
報導指出,DeepSeek-R1的核心創新在於採用了「純強化學習」這一自動化試錯方法,R1透過獎勵模型達到正確答案的行為來學習推理策略,而非傳統模仿人類預設的推理模式。
在補充材料中,DeepSeek團隊還首次公開了R1訓練成本僅為29.4萬美元,即使加上約600萬美元的基礎模型成本,也遠低於OpenAI、谷歌(Google)訓練AI的成本。
今年1月,當DeepSeek-R1模型發布時,其推理能力和極低的開發成本曾引發全球科技股大幅下跌。
「自然」期刊認為,隨著AI技術日漸普及,大型語言模型廠商們無法驗證的宣傳可能對社會帶來真實風險。依靠獨立研究人員進行的同行評審,是抑制AI行業過度炒作的一種有效方式。
DeepSeek是2023年成立於杭州的人工智慧公司。創始團隊由梁文鋒領銜,成員來自頂尖高校與國際機構技術專家。今年8月21日,DeepSeek正式發布了最新大語言模型DeepSeek-V3.1。(編輯:張淑伶/呂佳蓉)1140918
延伸閱讀
- Anthropic發布新版AI模型Claude4 更聰明安全2025/05/24
- AI查核事實成趨勢 專家警告:不是可靠資訊來源2025/06/02
- 川普抵英國是訪問 美科技巨擘承諾投資一次看2025/09/17
- 打擊駭客網攻 新加坡召集軍事單位聯合因應2025/07/20
- 跌落神壇?DeepSeek驚傳使用率從50%跌到只剩3%2025/07/12
- 未受對中出口禁令影響 輝達財報亮眼依舊2025/05/29
- 傳微軟Office擬採Anthropic技術 AI布局多樣化2025/09/10
- AI無償使用新聞內容 美媒網站流量雪崩聯手提告2025/07/10
- 美政府員工可用企業版ChatGPT 年費1美元2025/08/07
- DeepSeek涉助共軍情報 美議員推法案禁政府用中國AI2025/06/26
- Meta新款Ray-Ban智慧眼鏡亮相 支援AI、內建螢幕2025/09/18
- 蘇姿丰赴美國會談AI賽局:北京有很多方式可追上2025/05/09







