DeepSeek 投下的重石激起了千層浪,不僅被推到全世界的聚光燈下,也迎來了意料之外的眾多機(jī)會(huì)。
上線不到一個(gè)月,DeepSeek 應(yīng)用端就成為了全球增速最快的 AI 應(yīng)用,日活用戶數(shù)呈現(xiàn)出一條陡峭的增長曲線。據(jù) AI 產(chǎn)品榜統(tǒng)計(jì),截至 1 月 31 日,DeepSeek 應(yīng)用(APP)全球日活已突破 2000 萬,超過字節(jié)跳動(dòng)的豆包,是 ChatGPT 的 41.6%。
但當(dāng)用戶想和 DeepSeek 進(jìn)行頻繁、深度的對話時(shí),卻常常會(huì)出現(xiàn)卡頓的情況,得到 " 服務(wù)器繁忙,請稍后再試 " 的回復(fù)。有用戶戲稱,DeepSeek 之所以將模型命名為 R1,是因?yàn)槊刻熘荒苓\(yùn)行(Run)一次。
2 月 6 日,DeepSeek 還表示,因當(dāng)前服務(wù)器資源緊張,已暫停 API 服務(wù)充值。截至發(fā)稿,充值服務(wù)仍未恢復(fù)。有 AI 從業(yè)者告訴藍(lán)鯨新聞,團(tuán)隊(duì)原先基于 DeepSeek 模型構(gòu)建了 AI 搜索功能。但 DeepSeek 爆火后出現(xiàn) API 服務(wù)卡頓、響應(yīng)超時(shí)的情況,導(dǎo)致搜索結(jié)果無法生成。春節(jié)期間他們不得不加班加點(diǎn),將服務(wù)轉(zhuǎn)移到備用的 GPT-4o 模型上。
中上游的 " 搶灘 " 行動(dòng)
DeepSeek 讓 AI 迎來了 " 破圈 " 時(shí)刻,對上下游產(chǎn)業(yè)鏈來說則蘊(yùn)含著無數(shù)商機(jī),手握大量算力的云廠商、芯片廠商開始迅速行動(dòng)起來。
最先有所動(dòng)作的便是國內(nèi)外云廠商,微軟、亞馬遜等云巨頭趕在春節(jié)伊始就在自家云平臺(tái)上接入了 DeepSeek-R1 模型。自 2 月 1 日起,華為云、阿里云、百度智能云、字節(jié)火山引擎、騰訊云等國內(nèi)主要云廠商也紛紛宣布上線 DeepSeek 模型,面向開發(fā)者和企業(yè)客戶提供模型部署服務(wù)。
緊隨其后的是各大國產(chǎn)芯片廠商。目前已有十?dāng)?shù)家國產(chǎn)芯片宣布完成了對 DeepSeek 模型的適配和上線,包括沐曦、天數(shù)智芯、摩爾線程、壁仞科技等。這些芯片廠商或基于自身構(gòu)建的算力平臺(tái),或與下游的 AI Infra 平臺(tái)聯(lián)手,支持 DeepSeek 模型的部署。
一位從業(yè)者對藍(lán)鯨新聞解釋稱,云廠商的敏捷反應(yīng)得益于它們接入 DeepSeek 的成本較低。DeepSeek 模型是基于英偉達(dá) GPU 訓(xùn)練出來的,而云廠商通常存有大量的此類芯片,可以直接、快速地完成部署。國內(nèi)芯片廠商在硬件上使用的指令集不同,因此需要另做適配和移植工作,相應(yīng)的工作量和成本會(huì)更大一些。
無論是云廠商還是芯片廠商,都希望能趕上這輪 DeepSeek 的熱度。當(dāng) DeepSeek 官方的 API 服務(wù)不穩(wěn)定時(shí),能夠吸引部分用戶跳轉(zhuǎn)到自家平臺(tái)上,憑借已有的算力資源,為用戶提供 DeepSeek 的模型服務(wù)。有使用者在初步體驗(yàn)后表示,一些平臺(tái)的價(jià)格和推理速度能夠滿足其需求,之后會(huì)考慮通過第三方平臺(tái)開發(fā)基于 DeepSeek-R1 的 AI 應(yīng)用。
社交平臺(tái)上也涌現(xiàn)出不少第三方平臺(tái)的推廣信息,稱能夠繞開 DeepSeek 官網(wǎng)的擁堵,提供流暢、穩(wěn)定的使用體驗(yàn),其中部分平臺(tái)還亮出了 " 國產(chǎn)芯片 + 國產(chǎn)大模型 " 的招牌。例如硅基流動(dòng)與華為云團(tuán)隊(duì)聯(lián)手,在其大模型云服務(wù)平臺(tái)上線了基于華為云昇騰云服務(wù)的 DeepSeek 模型,華為也在純血鴻蒙版小藝助手 App 中集成了 DeepSeek-R1。
硅基流動(dòng)創(chuàng)始人兼 CEO 袁進(jìn)輝在社交平臺(tái)上透露,DeepSeek-V3 模型發(fā)布前,DeepSeek 創(chuàng)始人梁文鋒曾建議可以用最少 20 臺(tái)英偉達(dá) H800 服務(wù)器在其平臺(tái)上部署。考慮到成本問題,他們沒有這么選擇。
DeepSeek 走紅后,硅基流動(dòng)團(tuán)隊(duì)才決定用國產(chǎn)芯片進(jìn)行適配。于是和華為達(dá)成合作,春節(jié)假期 " 加班加點(diǎn),遇到問題隨時(shí)討論,晚上也開會(huì)討論到很晚 "。最終在 2 月 1 日,正式上線了基于國產(chǎn)芯片的 DeepSeek 模型服務(wù)。
國產(chǎn)算力的良機(jī)
當(dāng)談及 DeepSeek 模型是如何與國產(chǎn)芯片搭配在一起時(shí),首先要對大模型的訓(xùn)練和推理階段進(jìn)行區(qū)分。在訓(xùn)練階段,大模型還處于學(xué)習(xí)過程中,需要輸入大量的數(shù)據(jù),不斷調(diào)整內(nèi)部參數(shù),來發(fā)現(xiàn)規(guī)律。而推理則是大模型完成訓(xùn)練后,進(jìn)行實(shí)際應(yīng)用的環(huán)節(jié)。
一位前大廠 AI 工程師對藍(lán)鯨新聞進(jìn)一步解釋稱,模型在訓(xùn)練階段對算力和帶寬的要求更高,同時(shí)大模型廠商需要試驗(yàn)不同的模型結(jié)構(gòu)、算子,大多會(huì)優(yōu)先選擇使用英偉達(dá)的 GPU 硬件及其 " 開發(fā)工具包 "CUDA。推理階段對軟硬件的要求較低,因此成為許多國產(chǎn)芯片主打的場景,針對已訓(xùn)練好的模型進(jìn)行兼容和優(yōu)化。
有國產(chǎn)芯片廠商告訴藍(lán)鯨新聞,雖然 DeepSeek 在結(jié)構(gòu)上有微創(chuàng)新,但仍然是大語言模型。對 DeepSeek 的適配都是在推理應(yīng)用環(huán)節(jié),所以并不難,能夠很快實(shí)現(xiàn)。
DeepSeek 因低成本引發(fā)熱議后,曾一度造成英偉達(dá)股價(jià)暴跌,單日市值蒸發(fā)創(chuàng)下美股記錄。一個(gè)廣泛傳播的說法是,DeepSeek 在模型開發(fā)過程中繞開了英偉達(dá)的 CUDA 框架,由此能夠降低對英偉達(dá)的依賴。究其來源,是 DeepSeek 在 V3 模型技術(shù)報(bào)告中提到," 我們專門采用定制的 PTX(并行線程執(zhí)行)指令,并自動(dòng)調(diào)優(yōu)通信塊大小,從而顯著減少了 L2 緩存的使用及對其他 SM 的干擾。"
使用 PTX 編程語言是否意味著 DeepSeek 跨過了英偉達(dá) CUDA 的壟斷?有從業(yè)者表示這種說法是完全錯(cuò)誤的,因?yàn)?PTX 是屬于 CUDA 的一部分,并沒有繞開 CUDA。
該從業(yè)者解釋稱,CUDA 是一個(gè)軟件套裝,包括上層的開發(fā)語言、豐富的 API 工具庫、編譯工具等,提供給開發(fā)者對 GPU 進(jìn)行編程。PTX 則是 CUDA 的中間層匯編語言,更接近于硬件層面,通常不直接面向開發(fā)者?;?CUDA 的開發(fā)更為上層,因此難以在 GPU 上進(jìn)行更精細(xì)的控制。而使用 PTX 這一更低層次的編程語言,能夠更靈活地控制底層硬件,優(yōu)化程序性能," 這也是 DeepSeek 之所以所需算力更少的創(chuàng)新點(diǎn)之一。"
盡管 DeepSeek 模型仍是基于英偉達(dá) GPU 訓(xùn)練出來的,但無論是它所展現(xiàn)出的對計(jì)算資源的高效利用,還是由此引起的國產(chǎn)芯片適配潮,對于芯片產(chǎn)業(yè)都是重大利好。
有從業(yè)者表示,此前國內(nèi)大模型公司也會(huì)用國產(chǎn)芯片去做一些模型推理或測試訓(xùn)練的工作,但規(guī)模有限,并沒有達(dá)到這次的程度。受 DeepSeek 帶動(dòng),國產(chǎn)芯片的利用率將會(huì)得到極大的提升。
AI 應(yīng)用落地之年真的來了?
中上游掀起的波瀾終會(huì)向下游傳導(dǎo),隨著 DeepSeek 熱潮蔓延,AI 應(yīng)用層也開始大范圍地行動(dòng)起來。過去幾天,智能硬件、汽車、金融等各行各業(yè)都在積極接入 DeepSeek 模型,希望借助其能力來升級自身服務(wù)。
上周,閱文集團(tuán)宣布旗下作家輔助創(chuàng)作產(chǎn)品 " 作家助手 " 已集成 DeepSeek-R1 模型,稱這是 "DeepSeek 首次在網(wǎng)文領(lǐng)域的應(yīng)用 "。閱文集團(tuán)對藍(lán)鯨新聞表示,當(dāng)調(diào)用幫助作家查資料、找靈感的智能問答功能時(shí),DeepSeek 對于作家的提問意圖有較強(qiáng)的理解推導(dǎo)能力,能夠聽懂潛臺(tái)詞和言外之意。
同時(shí),R1 模型展示出的超長思維鏈對網(wǎng)文作家來說也具備較高的啟發(fā)性。" 網(wǎng)文作家、尤其是成熟作家,經(jīng)常抱怨的是 AI 內(nèi)容的老套重復(fù),他們需要的是啟發(fā)和思考梳理。" 閱文稱。接入 DeepSeek 后,當(dāng)作家讓 AI 生產(chǎn)包含某網(wǎng)站熱點(diǎn)元素的網(wǎng)絡(luò)小說提綱時(shí),除了提供生成的答案,AI 還會(huì)在思考過程中先清晰地羅列具體元素,并給出對應(yīng)熱門書目,從而輔助作家獲取需要的專業(yè)內(nèi)容。
在 DeepSeek 帶來的競爭壓力下,OpenAI 上周宣布將其最新模型 o3-mini 系列模型的思維鏈也予以公開。但其研究員表示,這些思維摘要雖然已經(jīng)非常接近,卻并不是原始的思維鏈。有開發(fā)者之前對藍(lán)鯨新聞分析稱,OpenAI 此舉可能是出于用戶體驗(yàn)、隱私保護(hù)、輸出質(zhì)量、技術(shù)成本和商業(yè)機(jī)密等多方面的考慮,既能提供有用的思考過程,又不會(huì)帶來負(fù)面影響。
去年 5 月,DeepSeek 就曾因低定價(jià)引爆國內(nèi)大模型 " 價(jià)格戰(zhàn) "。業(yè)內(nèi)普遍認(rèn)為,大模型降價(jià)將有助于推動(dòng)應(yīng)用的落地。就 DeepSeek 此番接連發(fā)布的兩款模型而言,V3 模型的價(jià)格優(yōu)惠期雖已于 2 月 9 日結(jié)束,API 調(diào)用價(jià)格仍是 GPT-4o 的十幾分之一。推理模型 DeepSeek-R1 的定價(jià)比所對標(biāo)的 o1 正式版也要低上 27-55 倍。
硅基智能是一家專注 AI 數(shù)字人、硅基智慧屏等服務(wù)的企業(yè),其創(chuàng)始人、董事長兼 CEO 司馬華鵬對藍(lán)鯨新聞表示," 大模型底座的成本降低了,AI 基礎(chǔ)設(shè)施建設(shè)的成本下降,對于行業(yè)發(fā)展是非常大的促進(jìn)。AI 應(yīng)用會(huì)出現(xiàn)大爆發(fā),將會(huì)產(chǎn)生更多超級應(yīng)用的出現(xiàn)。"
DeepSeek 對模型的開源和思維鏈的公開,讓硅基智能看到了升級其 AI 數(shù)字人能力及服務(wù)的可能。春節(jié)期間團(tuán)隊(duì)快速反應(yīng),接入了 DeepSeek 模型,以提升硅基智能數(shù)字人系列產(chǎn)品在自然語言理解、情感識別等方面的能力。
2 月 10 日,硅基智能再攜手算力企業(yè)華鯤振宇發(fā)布全新解決方案。整合硅基智能自研的 AI 數(shù)字人引擎,并依托鯤鵬、昇騰集群作為國產(chǎn)高性能算力底座,使 DeepSeek 大模型在海量數(shù)據(jù)處理下具備卓越的響應(yīng)速度與穩(wěn)定性。
對國內(nèi) AI 產(chǎn)業(yè)鏈來說,這個(gè)蛇年春節(jié)勢必過得并不輕松。而 DeepSeek 所引發(fā)的漣漪,或要再等待一些時(shí)間,匯聚成更龐大的浪潮。
來源:藍(lán)鯨財(cái)經(jīng)