2025年初,DeepSeek的橫空出世引發(fā)了AI世界的巨大震動(dòng),原因不僅是DeepSeek的高性能,更具顛覆性的是它極低的成本,打破了“燒錢堆芯片”的行業(yè)規(guī)則,讓英偉達(dá)的市值一夜之間蒸發(fā)了4.3萬億元人民幣,基于或接入DeepSeek的各類應(yīng)用如雨后春筍般紛紛出現(xiàn)。此般情形已火熱了近半年,不禁讓人揣測(cè)在此次DeepSeek大潮之中,哪家的應(yīng)用產(chǎn)品將被市場(chǎng)推崇成為“王者”?要想在此次大潮中成為“應(yīng)用之王”,又需要在哪些方面具備獨(dú)特的優(yōu)勢(shì)?
回顧互聯(lián)網(wǎng)時(shí)代的“電商平臺(tái)之爭”與“百團(tuán)大戰(zhàn)”,真正在市場(chǎng)中站穩(wěn)腳跟的都是兼顧了技術(shù)優(yōu)勢(shì)與成本優(yōu)勢(shì)的產(chǎn)品。最終投入市場(chǎng)商用的AI產(chǎn)品,歸根到底是一種商業(yè)行為,獲取利潤是核心,因此模型的訓(xùn)練優(yōu)化和部署成本將成為決定市場(chǎng)競(jìng)爭成敗的關(guān)鍵因素。由此可見,專注AI產(chǎn)品研發(fā)的企業(yè)目前不能僅關(guān)注AI的落地場(chǎng)景,也要開始關(guān)注AI產(chǎn)品的實(shí)施成本了。降低AI產(chǎn)品的實(shí)施成本,可以從以下四個(gè)方面考慮:
第一,根據(jù)應(yīng)用場(chǎng)景需要合理調(diào)整模型參數(shù),即:通過剪枝、蒸餾、量化等模型優(yōu)化技術(shù)對(duì)模型做減法,減少模型參數(shù)量,從而降低成本。為什么要對(duì)模型做減法呢?這是因?yàn)槟P偷膮?shù)量越大,解決復(fù)雜問題的能力就越強(qiáng),然而成本也越高。正如不是所有問題都需要DeepSeek滿血版來回答一樣,并不是所有應(yīng)用場(chǎng)景都需要解決復(fù)雜問題,因此,如同“殺雞不需用牛刀”,大部分簡單的應(yīng)用場(chǎng)景是需要對(duì)模型做減法的。然而,模型參數(shù)的減少必然會(huì)帶來模型性能的下降,這就需要研發(fā)人員充分理解應(yīng)用場(chǎng)景和需求,好好權(quán)衡成本與性能,選擇最優(yōu)的平衡點(diǎn),簡而言之——不用復(fù)雜的模型解決簡單的問題,需要找到不多不少剛好能解決業(yè)務(wù)場(chǎng)景問題的模型參數(shù)量,按照這個(gè)參數(shù)量來調(diào)整模型,從而達(dá)到最優(yōu)的性價(jià)比。
谷歌開發(fā)的MobileNet系列模型就是專為移動(dòng)設(shè)備設(shè)計(jì)的輕量化模型。該系列模型正是通過模型優(yōu)化技術(shù),減少計(jì)算量,在智能手表、智能眼鏡等計(jì)算資源有限的移動(dòng)設(shè)備上實(shí)現(xiàn)了高效的圖像分類任務(wù)。我們可以認(rèn)為——通過優(yōu)化技術(shù)減少參數(shù)量的模型是專注于解決一類應(yīng)用問題的輕量化模型,雖然犧牲了一部分性能,但對(duì)于某類問題依舊能夠勝任解決,而解決的這類問題正是產(chǎn)品的核心賣點(diǎn)。
第二,通過硬件的選擇與優(yōu)化組合策略,降低成本。AI在完成一個(gè)計(jì)算任務(wù)時(shí),不僅需要使用GPU,還需要CPU和存儲(chǔ)硬盤等硬件設(shè)備。GPU是目前單位性能成本最高的硬件,因此可以盡量多利用GPU之外的其他硬件來分擔(dān)GPU的工作量,從而降低整體成本。譬如:加大存儲(chǔ)設(shè)備的使用,存儲(chǔ)大模型對(duì)歷史問題的計(jì)算結(jié)果。當(dāng)大模型面對(duì)全新的問題時(shí),將問題進(jìn)行拆分,從歷史相關(guān)信息中提取一部分可復(fù)用內(nèi)容,再與現(xiàn)場(chǎng)信息進(jìn)行在線融合計(jì)算,進(jìn)而降低計(jì)算量。舉個(gè)例子,存儲(chǔ)硬件保留了對(duì)“冰箱面板出現(xiàn)了E6字樣是怎么回事”和“冰箱摸著很燙是出現(xiàn)了什么故障”兩個(gè)問題的答案,當(dāng)面對(duì)新問題“我家冰箱摸著很燙出現(xiàn)了E6,該怎么辦”這個(gè)問題的時(shí)候,就無需100%的現(xiàn)場(chǎng)計(jì)算,而是通過存儲(chǔ)記憶與現(xiàn)場(chǎng)融合計(jì)算的方式生成結(jié)果。這就是通過加大存儲(chǔ),從而降低GPU負(fù)擔(dān)的組合策略。此外,還可以將來自存儲(chǔ)、CPU、GPU的算力高效融合,多方組合進(jìn)一步提升大模型推理性能,降低成本。
第三,通過對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)處理與小樣本學(xué)習(xí)等方式,降低對(duì)訓(xùn)練數(shù)據(jù)量和算力的需求。很多人都認(rèn)為AI很智能,只要“喂”它足夠多的數(shù)據(jù),它就會(huì)自己學(xué)習(xí)和學(xué)會(huì)。這種方式不是不能達(dá)到訓(xùn)練目的,但因?yàn)橛?jì)算了大量低質(zhì)量的數(shù)據(jù)而浪費(fèi)了寶貴的算力。針對(duì)這個(gè)問題,一方面可以先對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)處理,清晰去重,優(yōu)化數(shù)據(jù)質(zhì)量,避免因?yàn)閿?shù)據(jù)冗余或噪聲導(dǎo)致的計(jì)算資源浪費(fèi)。另一方面,采用遷移學(xué)習(xí)、小樣本學(xué)習(xí)等方法,減少訓(xùn)練所需的數(shù)據(jù)量,從而降低對(duì)算力的需求,從而降低成本。換而言之,相比直接用大量未經(jīng)處理的數(shù)據(jù)訓(xùn)練模型,用少量優(yōu)質(zhì)的數(shù)據(jù)來訓(xùn)練AI模型可以更低成本達(dá)成同樣的訓(xùn)練目標(biāo)。
這種降成本的做法,在醫(yī)療圖像大模型的訓(xùn)練上比較常見。醫(yī)療圖像數(shù)據(jù)的標(biāo)注成本較高,且在此場(chǎng)景中僅需少量標(biāo)注數(shù)據(jù)即可達(dá)到高精度,因此采用小樣本學(xué)習(xí)方法(如Few-Shot Learning),利用少量標(biāo)注數(shù)據(jù)訓(xùn)練模型,顯著地降低了成本。
第四,在模型訓(xùn)練、部署與運(yùn)維等環(huán)節(jié),使用自動(dòng)化工具,減少人工成本與試錯(cuò)成本。在模型訓(xùn)練開始前,需要人工設(shè)置影響模型訓(xùn)練過程的超參數(shù)(即學(xué)習(xí)過程的規(guī)則和條件),但人工的效率很低,使用自動(dòng)化超參數(shù)優(yōu)化工具(如Optuna、Hyperopt)可自動(dòng)搜索最優(yōu)超參數(shù)。在訓(xùn)練過程中,通過優(yōu)化推理引擎(如TensorRT、ONNX Runtime)可以提高推理速度,降低計(jì)算資源消耗。在模型部署階段,通過自動(dòng)化工具(如Kubernetes、MLflow)可以實(shí)現(xiàn)模型的自動(dòng)監(jiān)控、更新和部署,縮短部署時(shí)間,減少人工成本。采用模型版本管理系統(tǒng)(如Weights&Biases、ModelDB),還可以避免因版本混亂導(dǎo)致的重復(fù)開發(fā)和測(cè)試成本。
綜上所述,AI產(chǎn)品成本的控制可以從最優(yōu)性價(jià)比參數(shù)選擇、硬件組合、數(shù)據(jù)預(yù)處理和小樣本學(xué)習(xí)、自動(dòng)化工具的使用四個(gè)方面發(fā)力。隨著AI產(chǎn)品的逐步商業(yè)化,成本的重要性將逐漸顯露出來。正如低成本的優(yōu)勢(shì)使得DeepSeek可以采取開源的策略迅速擴(kuò)大影響力和聚攏生態(tài)資源一樣,性價(jià)比高的產(chǎn)品也必定更容易被市場(chǎng)廣泛接受,找到適合自身AI產(chǎn)品的成本控制方法,就擁有了成本優(yōu)勢(shì),有望在未來AI產(chǎn)品的市場(chǎng)競(jìng)爭中一爭高下。
(作者系清華大學(xué)碩士、美國杜克大學(xué)訪問學(xué)者、浙江省可持續(xù)發(fā)展研究會(huì)ESG專委會(huì)專家組專家)
幫企客致力于為您提供最新最全的財(cái)經(jīng)資訊,想了解更多行業(yè)動(dòng)態(tài),歡迎關(guān)注本站。鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請(qǐng)第一時(shí)間聯(lián)系我們修改或刪除,多謝。