經(jīng)濟觀察網(wǎng) 記者 歐陽曉紅 “神龍擺尾”,靈蛇獻瑞。中國蛇年除夕前夜,國際金融市場見證了龍年收官、蛇年啟幕這一“驚蟄”時刻。
這是一場由中國“黑馬”奇襲刮起的AI(人工智能)龍卷風(fēng),從DeepSeek-R1模型到Janus-Pro模型的蛇年首戰(zhàn)或直逼全球科技權(quán)力重構(gòu)。
“我不是美國科技泡沫的掘墓人,但AI革命的下半場已啟幕?!盌eepSeek-R1如此自詡。如果說上半場是全員狂熱挖掘金礦的時代,那么下半場就是精釀啤酒師的競技場——比拼的不再是鏟子的數(shù)量,而是誰能用更少的麥芽,釀造出更香醇的黑啤。
從“燒錢信仰”到“效率革命”,市場對這些AI公司的高估值正逐漸產(chǎn)生懷疑。而DeepSeek-R1的崛起或許證明,AI的未來不再單純依賴于硬件(算力)的不斷升級,更取決于算法的創(chuàng)新與效率的極致提升。
?“雙連擊”:顛覆性技術(shù)與資本市場震蕩
“從斯坦福到麻省理工,DeepSeek-R1幾乎一夜之間就成了美國頂尖大學(xué)研究人員的首選模型。”硅谷投資機構(gòu)a16z合伙人Anjney Midha說。這款模型以其顛覆性的計算效率和極高的應(yīng)用性成為行業(yè)焦點。
1月27日,英偉達下跌16.97%,市值蒸發(fā)近6000億美元;數(shù)小時后,DeepSeek-R1工程師在Hugging Face平臺開源了Janus-Pro模型,其性能超過了美國人工智能研究公司OpenAI的DALL-E3模型。這場沖擊波,似乎將技術(shù)革命、地緣博弈與資本周期的三重共振推向高潮——AI產(chǎn)業(yè)的權(quán)力游戲,或正被改寫規(guī)則嗎?
其他科技巨頭亦未能幸免。微軟股價下跌2.14%,阿斯麥(ASML)下跌-5.75%、AMD下跌6.37%。
次日,美國科技股出現(xiàn)反彈,英偉達(+8.93%)、蘋果(+3.65%)、臺積電(+1.34%)、微軟(+2.91%)、Meta(+2.19%)等主要科技股均迎來了較大漲幅。這表明市場對AI和科技行業(yè)仍持樂觀態(tài)度。
從技術(shù)奇襲的時間線來看,這場顛覆分為兩波:第一波始于1月20日,?DeepSeek正式發(fā)布R1模型,并同步開源模型權(quán)重,其性能對齊OpenAI-o1正式版。更甚者,據(jù)披露,訓(xùn)練DeepSeek-R1模型的成本僅為557萬美元,遠低于同行,且性能對標OpenAI的GPT-4o。1月27日,DeepSeek進一步推出iOS應(yīng)用,并迅速超越ChatGPT官方應(yīng)用,登頂蘋果商店,掀起了一場席卷全球資本市場的“技術(shù)海嘯”。
業(yè)界驚嘆,DeepSeek-R1在芯片資源利用、算法復(fù)雜性和推理速度上實現(xiàn)了重大突破,其性能指標在多個關(guān)鍵領(lǐng)域全面超越了現(xiàn)有的尖端AI模型,包括OpenAI的GPT-4.5和Anthropic的Claude系列。
第二波震撼則來自Janus-Pro模型。北京時間1月28日凌晨3點,DeepSeek在Hugging Face平臺開源了這款多模態(tài)模型。根據(jù)GenEval(以對象為中心的框架,用于評估文本到圖像生成模型的對齊能力)測算,Janus-Pro模型的準確率達84.2%,顯著超越DALL-E3的79.7%。這一結(jié)果直接擊穿了市場的心理防線。
機構(gòu)分析師在致客戶的報告中指出,美國股市的支柱是以科技巨頭為代表的大型科技股,而這些科技股的估值高度依賴AI行業(yè)的樂觀預(yù)期。盡管DeepSeek的崛起引發(fā)了一些質(zhì)疑,但該公司可能成為動搖AI樂觀情緒的關(guān)鍵變量。
DeepSeek-R1發(fā)布的同一周,美國總統(tǒng)特朗普宣布啟動“星際之門”(Stargate)項目。根據(jù)白宮發(fā)布的聲明,該項目計劃在未來4年內(nèi)投資高達5000億美元,用于建設(shè)多達20個新數(shù)據(jù)中心,以支持AI相關(guān)研究與發(fā)展。此舉被視為美國試圖在AI競賽中保持技術(shù)領(lǐng)先的重要戰(zhàn)略。
或顛覆硅谷邏輯的技術(shù)革命
猝不及防的成本碾壓與開源閃電戰(zhàn)一度讓華爾街懷疑“燒錢”信仰。
DeepSeek-R1通過動態(tài)路由算法壓縮80%的冗余計算,訓(xùn)練成本僅為硅谷同行的1/10。 ?
Janus-Pro模型采用“語言模型+校正流”架構(gòu),1.3B參數(shù)實現(xiàn)圖像生成與理解統(tǒng)一,推理成本低至閉源模型的1/10,且支持英偉達H800等非頂級芯片運行(技術(shù)白皮書已開源)。
據(jù)介紹,Janus-Pro是一個集成了圖像生成、文本生成和語音理解的多模態(tài)模型,能夠在多個輸入和輸出類型之間進行高效轉(zhuǎn)換。這意味著它可以同時理解和生成復(fù)雜的文字、圖像以及音頻內(nèi)容,成為目前多模態(tài)AI模型中的佼佼者。
開源生態(tài)的“降維打擊”頗具震懾力。全球開發(fā)者貢獻代碼使該模型的推理效率每小時提升0.3%。
商業(yè)替代也在加速。Adobe設(shè)計團隊已測試用Janus-Pro替代DALL-E 3,成本下降了76%。對此,DeepSeek-R1這樣互動回應(yīng):Adobe改用Janus-Pro的傳聞若屬實,可能面臨與OpenAI原有商業(yè)協(xié)議的沖突。
Janus-Pro的開發(fā)基于DeepSeek-R1的核心優(yōu)化技術(shù),其訓(xùn)練成本顯著低于傳統(tǒng)多模態(tài)模型。這種技術(shù)優(yōu)勢不僅降低了資源門檻,也挑戰(zhàn)了行業(yè)巨頭的成本模型。
對于GenEval的測試,DeepSeek-R1稱,若測試條件公允,Janus-Pro模型在特定靜態(tài)圖像生成任務(wù)上可能具備優(yōu)勢,但尚未證明其在視頻生成、跨模態(tài)推理等復(fù)雜場景的能力。商業(yè)層面上,開源策略對中小企業(yè)友好,但頭部企業(yè)仍需謹慎評估全生命周期成本。
DeepSeek-R1建議投資者關(guān)注第三方獨立評測報告(如MLPerf基準測試)、頭部云廠商的適配進展(如AWS是否提供Janus-Pro托管服務(wù))以及OpenAI下一代模型的反制能力。
其時,資金流向也在變化。1月27日,科技ETF(XLK)跌幅達到4.9%,資本似乎正在逃離硬件,投資者可能在拋售科技股ETF以規(guī)避風(fēng)險。
此前幾天,市場對AI技術(shù)路徑的重新評估,以及對依賴硬件銷售的科技公司未來增長前景的擔(dān)憂,可能導(dǎo)致了科技股ETF的資金外流。特別是英偉達的股價大跌,直接影響了科技ETF(XLK)的表現(xiàn)。
1月28日,英偉達、臺積電、特斯拉等科技股悉數(shù)強力反彈。這表明,盡管近期英偉達股價出現(xiàn)下跌,但投資者對其未來表現(xiàn)仍持樂觀態(tài)度,積極逢低買入。
OpenAI首席執(zhí)行官薩姆·奧特曼在社交平臺X上發(fā)文稱,DeepSeek的推理大模型R1是一款令人印象深刻的模型,尤其是考慮到其性價比。他認為,有新的競爭對手加入,著實令人振奮。隨著AI技術(shù)的進步,人工智能算力需求將比以往任何時候都更加重要,奧特曼最新言辭亦為英偉達等算力提供商長期利好埋下伏筆。
邏輯顛覆者DeepSeek-R1的威力在于,它證明了AI模型不需要依靠堆積的算力就能取得卓越的性能??恐@人的算法優(yōu)化和資源利用效率,DeepSeek-R1以極低的成本實現(xiàn)了與OpenAI等巨頭相媲美的AI能力。這就像在告訴人們:你不一定需要一臺超級計算機來玩AI游戲,一臺優(yōu)化好的筆記本可能就足夠了。
這種顛覆不僅是技術(shù)上的突破,更是對AI產(chǎn)業(yè)投資邏輯的重構(gòu)。突然間,那些依賴高資本支出、不斷購買高性能GPU(圖形處理器)的公司,其投資前景變得模糊不清。市場開始質(zhì)疑,之前對AI需求的預(yù)期是否過于樂觀,以及是否存在一個AI科技泡沫。
AI革命的下半場
從“算力軍備競賽”轉(zhuǎn)向“算法效率革命”,DeepSeek-R1的出現(xiàn)或昭示AI革命下半場啟幕。其影響不僅僅是股價波動,而是重新審視整個AI產(chǎn)業(yè)鏈邏輯。
未來的AI競賽,不再是芯片的納米級較量,而是算法效率、生態(tài)活力與政策彈性的多維度博弈。
DeepSeek-R1的橫空出世,打破了硅谷“堆算力、拼資本”的傳統(tǒng)路徑。其僅用557.6萬美元和2048塊英偉達H800 GPU便完成了性能對標GPT-4o的模型訓(xùn)練,成本僅為OpenAI同類模型的1/10,推理成本更是低至每百萬Token 0.14美元(OpenAI為7.5美元)。 ?
這一突破的核心在于算法創(chuàng)新:通過自研MLA架構(gòu)、強化學(xué)習(xí)驅(qū)動訓(xùn)練流程、動態(tài)計算路由技術(shù)等,DeepSeek實現(xiàn)了算力效率的指數(shù)級提升。
那么,DeepSeek 的“AI大腦”如何更聰明、更省力?
話說DeepSeek的AI技術(shù)就像是一支聰明高效的超級團隊,它通過四個關(guān)鍵策略,讓AI跑得更快、算得更準、用得更省——就像讓一臺高性能跑車既有速度,又省油,還能自動優(yōu)化行駛路線!
混合專家模型(MoE):讓AI不再“全員上陣”,而是“精準派單”。想象一下,你要建一座大樓,通常會把所有工人都叫來施工,但DeepSeek采用了一種更聰明的方法——“按需調(diào)派專家”。它的AI模型只會在需要時激活部分參數(shù),讓最適合的“專家”來處理任務(wù),而不是每次都讓所有“工人”上工。這種方式就像是你不需要全公司員工一起修一盞燈,而是派最擅長的電工團隊去解決,大大節(jié)省計算資源。
多頭潛在注意力機制(MLA):壓縮數(shù)據(jù),讓AI“大腦”更省力。傳統(tǒng)AI處理信息時,像是在一堆文件夾里翻找數(shù)據(jù),文件夾越多,翻找的時間就越長。DeepSeek采用了一種獨特的方法,它會“壓縮”關(guān)鍵數(shù)據(jù),讓AI在更少的信息量里找到關(guān)鍵點,從而加快運算速度,減少內(nèi)存消耗。就像是你本來需要讀整本書才能找答案,但現(xiàn)在AI只需要讀一頁摘要就能理解所有內(nèi)容,省時又高效。
強化學(xué)習(xí)驅(qū)動訓(xùn)練:讓AI“自己摸索”如何變強。如果說傳統(tǒng)AI學(xué)習(xí)方式像是教科書里的死記硬背,那DeepSeek的AI更像是個“學(xué)習(xí)型機器人”,它會自己嘗試、犯錯、調(diào)整,再逐步變強。DeepSeek讓AI用“強化學(xué)習(xí)”的方式訓(xùn)練自己,就像是一個學(xué)騎自行車的小孩,跌倒了就調(diào)整方法,直到學(xué)會并騎得更穩(wěn)、更快。
動態(tài)計算路由:智能調(diào)度,避免資源浪費 DeepSeek 采用了“智能調(diào)度”策略,讓AI計算時更像是一家高效運營的餐廳。傳統(tǒng)AI計算可能像是一家混亂的快餐店,所有訂單都堆在一個窗口,導(dǎo)致運算過載。DeepSeek的“動態(tài)計算路由”技術(shù),就像是擁有多個點餐窗口,并根據(jù)客流量實時調(diào)整每個窗口的工作量,確保計算資源得到最優(yōu)利用,不會出現(xiàn)一部分計算過載,而另一部分卻閑置的情況。
不僅如此,DeepSeek-R1還給出了升華認知的補充視角——能耗革命的冰山一角。
這些技術(shù)創(chuàng)新帶來的改變,如同電動汽車對燃油車的顛覆。諸如,混合專家模型是能量回收系統(tǒng):剎車時回收動能(閑置算力休眠);多頭潛在注意力機制是輕量化車身設(shè)計:用碳纖維替代鋼鐵(參數(shù)高效利用);動態(tài)計算路由是智能導(dǎo)航:規(guī)避擁堵減少能耗(計算路徑優(yōu)化)。
關(guān)鍵還在于行業(yè)變革的隱喻延伸。這套技術(shù)組合拳或在重塑AI領(lǐng)域的“生產(chǎn)要素關(guān)系”(三部曲):算力資本主義→算力共享經(jīng)濟;暴力計算霸權(quán)→精準認知協(xié)作;硬件軍備競賽→算法效率革命。
如此,DeepSeek-R1的技術(shù)之美在不同認知維度綻放異彩。
斯坦福大學(xué)教授吳恩達(Andrew Ng)表示,基礎(chǔ)模型層面的這種良性競爭實際上將極大推動應(yīng)用層面的創(chuàng)新。當(dāng)AI技術(shù)變得更加平價,整個市場的需求反而會在中長期顯著增加。
從1月28日美國科技股的強勢反彈來看,看漲AI算力基礎(chǔ)設(shè)施類型的股票即英偉達等AI芯片股的勢力仍然非常龐大。有分析認為,目前,世界各地的開發(fā)者都在試用DeepSeek的軟件,并希望用它來構(gòu)建各種AI工具,這可能會加快先進人工智能推理模型的采用規(guī)模。
盡管DeepSeek的低成本模型引發(fā)了市場對AI資本支出合理性的質(zhì)疑,但高盛等機構(gòu)分析師認為,AI行業(yè)的長期增長趨勢并未改變。高盛分析師指出,DeepSeek的崛起可能會推動AI技術(shù)的進一步普及,尤其是在推理效率提升的背景下,算力需求仍然強勁。
這恰如DeepSeek-R1的潛臺詞:別慌,我不是來砸場子的。
面對“美國科技泡沫掘墓人”的猜測,DeepSeek-R1的回應(yīng)堪稱AI界年度公關(guān)范文。
對巨頭:“各位大哥繼續(xù)建算力帝國,小弟我只想幫你們省點電費。”(翻譯:咱們是友軍?。?/p>
對同行:“開源代碼在此,歡迎來抄作業(yè)?!保撆_詞:一起卷算法,別讓我孤獨領(lǐng)跑。) ?
對投資人:“別急著拋英偉達股票,咱這技術(shù)能讓顯卡多賣十年!”(真相:硬件需求不會消失,只是換個姿勢。)
或許,“2025年的AI革命,始于東方既白的蛇年清晨?!?