DeepSeek的V3模型的最后一輪訓練,僅用557.6萬美元的GPU使用成本,就訓練出了全球前沿模型,并在后續(xù)發(fā)布與OpenAI o1推理模型能力不相上下的DeepSeek R1,這股神秘東方力量就像蝴蝶扇動了翅膀,在全球引發(fā)連鎖反應至今已經(jīng)整整1個月。
此前,AI產(chǎn)業(yè)的發(fā)展邏輯似乎還很簡單:模型參數(shù)越大越好、算力投入越多越好。但DeepSeek R1的橫空出世,改寫了這一認知,約束條件反而可以推動創(chuàng)新,沒有大算力,還可以優(yōu)化算法。所以現(xiàn)在科技圈普遍出現(xiàn)了一種聲音:一個開源、高性能、低部署推理成本的大模型也能帶來整個AI產(chǎn)業(yè)生態(tài)的繁榮,是大家抓緊上車的門票。
那么,究竟接下來產(chǎn)業(yè)鏈中還有誰能從DeepSeek的沖擊波中受益?
在2025財年第一季度財報電話會議中,高通公司總裁兼CEO安蒙提到,“DeepSeek R1及其他類似模型表明,AI模型正在向更快、更小、更強大、更高效的方向發(fā)展,并且可以直接在終端側(cè)運行。DeepSeek R1的蒸餾模型在發(fā)布僅幾天內(nèi),就能在搭載驍龍平臺的智能手機和PC上運行。”
緊接著,高通發(fā)布了最新白皮書《AI變革正在推動終端側(cè)推理創(chuàng)新》(下稱《白皮書》),首次闡述了終端AI推理迎來突破的深層邏輯。
范式之變:為何現(xiàn)在是終端AI的拐點?
大模型的規(guī)模競賽推動了底層技術(shù)創(chuàng)新,同時也讓業(yè)界思考AI部署的多元路徑。
今年年初的時候,高通中國區(qū)研發(fā)負責人徐晧接受科技行者專訪時提到,AI發(fā)展現(xiàn)在遵循兩個主要軌跡:云端AI、終端側(cè)AI。
首先,大部分人看到的、聽到的AI都是云端訓練的AI模型,例如Meta的LLaMA、OpenAI的ChatGPT、Anthropic的Claude、谷歌的Gemini等,它們都是用非常多的GPU堆起來,擁有很大的算力,能夠處理海量數(shù)據(jù),從而訓練出的大模型。這些大模型部署在云端,也只能在云端運行。(現(xiàn)在1000億參數(shù)甚至更大的模型只能在云端運行。)
其次,另一個主要趨勢是終端側(cè)AI。任何技術(shù)要落地到每個人手中,都需要下沉到智能終端,比如手機、PC、汽車、工業(yè)物聯(lián)網(wǎng)等,這些萬物智能的設備占據(jù)更大規(guī)模,且可以實現(xiàn)云端AI所無法實現(xiàn)的隱私、效率、個性化用戶體驗。
安蒙在財報電話會議中還明確指出,“隨著我們進入AI推理時代,模型訓練仍將在「云端」進行,但推理將更多在「終端側(cè)」運行,讓AI變得更便捷、可定制且高效,那將促進更多專用模型和應用的開發(fā)和采用,并因此推動各類終端對高通平臺的需求。”
高通還在《白皮書》中,詳細介紹了推動終端側(cè)AI變革的四大關(guān)鍵趨勢:
第一,當前先進的AI小模型已具有卓越性能。模型蒸餾、AI網(wǎng)絡架構(gòu)優(yōu)化等新技術(shù),能夠在不影響質(zhì)量的情況下簡化開發(fā)流程,讓新模型的表現(xiàn)超越一些僅在云端運行的大模型。
第二,模型參數(shù)規(guī)模正在快速縮小。得益于先進的量化和剪枝技術(shù),開發(fā)者現(xiàn)在能夠在不影響模型準確性的前提下,顯著縮減模型參數(shù)規(guī)模。
(編者注:也就是說,當一個小模型能夠做到大模型前兩年能做的事情,那么把這個小模型放到終端上就足夠了,比如汽車上可以放100個億-1000億參數(shù)的模型,現(xiàn)在大多數(shù)手機已經(jīng)可以支持30億參數(shù)的模型,在這個維度上,小模型能做越來越多的事情。該趨勢解決了終端部署的計算負擔問題,為大規(guī)模商用部署掃清了技術(shù)障礙。)
第三,開發(fā)者能夠在邊緣側(cè)打造更豐富的應用。高質(zhì)量AI模型快速激增,意味著文本摘要、編程助手和實時翻譯等特性在智能手機等終端上的普及,讓AI能夠支持跨邊緣側(cè)規(guī)模化部署的商用應用。
第四,AI正在成為新的UI。個性化多模態(tài)的AI智能體(Agent)將簡化交互,高效地跨越各種應用完成任務。
此處引用徐晧當時在對談中舉例而言,比如我們現(xiàn)在要出去旅行,就需要在手機上操作:定機酒-看日程安排-看當?shù)靥鞖?看當?shù)毓ヂ缘龋@就要調(diào)用不同的APP來完成這些事情。但是如果有了AI智能體,那么就能一步到位,只需要告訴AI智能體:“看看我下周哪天有空,我想去某地旅游,幫我訂某星際酒店,最好是能夠在海邊,順便看看當?shù)靥鞖夂凸β省薄N覀兒徒K端的交互只需要通過自然語言和AI智能體,AI智能體會去調(diào)用后臺所有App來把事情搞定。那么這個UI就完全不是以前的UI了。
市場格局:誰將受益于這一變革?
一、毫無疑問,芯片廠商將成為最直接受益者。終端側(cè)AI對處理器的算力和能效都提出了更多要求,這將催生新一輪硬件升級周期。
二、模型開發(fā)商將迎來新機遇。DeepSeek的成功表明,通過技術(shù)創(chuàng)新,小型團隊同樣可以在AI領域?qū)崿F(xiàn)突破,隨著終端部署門檻降低,將會涌現(xiàn)更多面向特定場景的專業(yè)化模型。
三、應用開發(fā)者將獲得更大施展空間。高質(zhì)量、小模型的普及,使得文本處理、代碼輔助、實時翻譯等AI功能可以輕松部署到終端設備,這將激發(fā)新一輪應用創(chuàng)新。
以高通為例。無論是AI訓練正在向大規(guī)模推理轉(zhuǎn)型,還是AI計算處理從云端向邊緣側(cè)擴展方面,高通都具有戰(zhàn)略優(yōu)勢,作為終端側(cè)AI的引領者,高通的解決方案涵蓋了數(shù)十億臺智能手機、汽車、XR頭顯和眼鏡、PC以及工業(yè)物聯(lián)網(wǎng)終端等。
徐晧告訴我,“高通正在用最節(jié)能的方式、最小的芯片面積來做最有效的人工智能應用。”其中有幾種有效的方案,可以將大模型縮小或提高不同模型的適應性。
· 首先是對模型本身的簡化。
第一種叫“剪枝”(Pruning),就像修剪花草一樣。把AI模型中不太重要的“枝節(jié)”剪掉,保留最核心的部分,這樣模型體積變小了,但依然能保持原有的聰明才智。第二種方法叫“學生-教師模型”(Student-Teacher Model),像是“師徒傳藝”,把一個“經(jīng)驗豐富”的大模型當作老師,讓它去教導一個“年輕”的小模型,通過不斷學習和驗證,小模型最終也能掌握老師的本領,但所需的計算資源卻少得多。第三種方法叫“LoRA”(Low-Rank Adaptation),可以理解為“化整為零”,把一個龐大的AI任務,分解成幾個小任務,用更小的模型來分別處理,這就像是把一個大工程分派給幾個小團隊,每個團隊專注于自己的部分,最終一起完成大任務。
這些技術(shù)創(chuàng)新讓AI模型變得更加節(jié)能和輕量級,不僅能在手機等終端設備上流暢運行,還保持了優(yōu)秀的性能,為AI的普及應用打開了新的可能。
· 其次是用蒸餾(Distillation)的方法,用大模型訓練小模型。
蒸餾是開發(fā)高效小模型的一項關(guān)鍵技術(shù),它能夠讓大模型“教學”小模型,保持準確性的同時遷移知識。蒸餾技術(shù)的使用,促使小型基礎模型激增,包括眾多面向特定任務調(diào)優(yōu)的模型。
高通在《白皮書》中展示了蒸餾的強大能力。下圖比較了Llama 3.3 700億參數(shù)模型和同類DeepSeek R1蒸餾模型的LiveBench平均測試結(jié)果,顯示出在相同參數(shù)規(guī)模下,蒸餾能夠在推理、編程和數(shù)學任務中顯著提高性能。
此外,得益于蒸餾和上述其他技術(shù),小模型正在接近前沿大模型的質(zhì)量。下圖顯示了DeepSeek R1蒸餾版本與其他領先模型的基準測試結(jié)果對比。基于通義千問模型和Llama模型的DeepSeek蒸餾版本展現(xiàn)了諸多明顯優(yōu)勢,尤其是在GPQA基準測試中,與GPT-4o、Claude 3.5 Sonnet和GPT-o1 mini等先進模型相比,取得了相似或更高的分數(shù)。(GPQA是一個關(guān)鍵評估指標,因其涉及解決復雜問題的深層次、多步驟的推理,這對許多模型頗具挑戰(zhàn)性。)
《白皮書》中特別指出,將大型基礎模型縮減為更小、更高效的版本,不僅能實現(xiàn)更快的推理速度、更少的內(nèi)存占用和更低的功耗,同時可以保持較高的性能水平,從而使此類模型適合在智能手機、PC和汽車等終端上部署。
挑戰(zhàn)猶存:變革之路并非坦途
盡管前景可期,終端側(cè)AI推理仍面臨諸多挑戰(zhàn):一是性能與效率的平衡問題,如何在有限算力下實現(xiàn)更好的推理效果;二是生態(tài)建設問題,需要更完善的開發(fā)工具和框架支持;三是標準化問題,不同平臺間的模型部署仍缺乏統(tǒng)一標準。
仍以高通為例。首先在硬件層面,高通長期致力于開發(fā)定制CPU、NPU、GPU和低功耗子系統(tǒng),同時擁有封裝技術(shù)和熱設計的技術(shù)專長,構(gòu)成了其行業(yè)領先系統(tǒng)級芯片(SoC)產(chǎn)品的基礎。
這些SoC能夠直接在終端側(cè)提供高性能、高能效的AI推理,通過緊密集成這些核心組件,高通的平臺可在保持電池續(xù)航和整體能效表現(xiàn)的同時,處理復雜AI任務,這對邊緣側(cè)用例至關(guān)重要。
其次在軟件層面,高通還構(gòu)建了強大的AI軟件棧,旨在賦能軟件開發(fā)者。高通AI軟件棧包括庫(libraries)、SDK和優(yōu)化工具,可簡化模型部署并提升性能。開發(fā)者可以利用這些資源,面向高通平臺高效進行模型適配,縮短AI賦能應用的上市時間。
最后,作為高通面向各行各業(yè)規(guī)模化擴展AI戰(zhàn)略的核心,高通與全球AI模型廠商積極合作,并提供高通AI Hub等服務。
高通《白皮書》中介紹,在高通AI Hub上,僅需三步,開發(fā)者即可:1)選擇模型,或引入自主模型又或基于他們的數(shù)據(jù)創(chuàng)建模型;2)選擇任意框架和runtime,在基于云的物理設備場(cloud-based physical device farm)上撰寫和測試AI應用;3)使用工具商業(yè)化部署其應用。高通AI Hub支持主流大語言模型和多模態(tài)大模型(LLM、LMM)系列,讓開發(fā)者可在搭載高通平臺的終端上部署、優(yōu)化和管理推理任務。借助預優(yōu)化模型庫和支持定制模型優(yōu)化與集成等特性,高通賦能加速開發(fā)周期,同時增強了與廣泛AI生態(tài)的兼容性。
從技術(shù)演進規(guī)律看,AI計算正在經(jīng)歷與互聯(lián)網(wǎng)相似的分布式變革。就像是云計算無法完全替代終端計算一樣,終端側(cè)AI也將與云端AI形成互補。當前我們正處于這一變革的起點,未來終端AI的應用場景可能遠超預期。
DeepSeek事件也給業(yè)界提了個醒,AI產(chǎn)業(yè)正在進入一個新階段。在這個階段,技術(shù)創(chuàng)新的重點將從突破模型規(guī)模上限,轉(zhuǎn)向提升計算效率和部署靈活性。
或許AI的下一波創(chuàng)新,不僅是比拼誰的模型更大,還要看誰能讓AI更輕便、更普及、更貼近生活。