中證網(wǎng)
返回首頁

AI算力需求大增 產(chǎn)業(yè)鏈公司迎來新機遇

高志剛 記者 李興彩 上海證券報

  AI大模型呈現(xiàn)爆發(fā)式增長,由此帶來了海量的算力需求,這對數(shù)據(jù)中心的基礎(chǔ)設(shè)施建設(shè)、技術(shù)等提出了新要求,也讓數(shù)據(jù)中心走向智算中心。如何滿足智算中心建設(shè)需求、解決其中難題、進一步為行業(yè)提供高效算力服務等,成為當前業(yè)界關(guān)注的焦點。

  8月31日,以“AI造物 算引變革”為主題的第十八屆中國IDC產(chǎn)業(yè)(長三角)年度大典在上海舉行。本次大會邀請到了來自政府部門、行業(yè)協(xié)會、知名企業(yè)的數(shù)百位專家學者,共同探討數(shù)據(jù)中心和云計算領(lǐng)域的最新動態(tài)和趨勢。

  在美國西部掘金時代,淘金者發(fā)財?shù)纳伲u鏟子、牛仔褲等“賣鏟人”卻實實在在所獲不菲。在大模型時代,GPU(算力芯片)、DPU(專用數(shù)據(jù)處理器)、液冷、高速連接線等就是給產(chǎn)業(yè)提供配套的“賣鏟人”。與會多位專家強調(diào),大模型時代,智算中心迎來快速發(fā)展,算力基座先行,高端算力芯片等“賣鏟人”也迎來新機遇。

  向智算中心加速演進

  以大模型為代表的AIGC火熱發(fā)展,帶來了AI算力需求的爆發(fā)式增長,直接驅(qū)動算力基礎(chǔ)設(shè)施迭代創(chuàng)新,數(shù)據(jù)中心正在向智算中心加速演進。

  “往年,算力的年化增長率為20%至30%;今年,保守估計增速在50%以上,呈現(xiàn)井噴的狀態(tài)。”燧原科技產(chǎn)品市場總經(jīng)理高平表示,這對行業(yè)的核心部件有新要求,如AI芯片從以前單純的追求算力指標到追求帶寬和大存儲,服務器的穩(wěn)定可靠性也是越來越重要。

  騰訊云分布式云產(chǎn)品負責人楊志華表示,未來,AI服務將無處不在,企業(yè)的需求和算力會被重構(gòu)。在AI高速浪潮推動下,傳統(tǒng)的應用系統(tǒng)必須迭代更新,否則就會落后于競爭對手。分布式云將是下一步的首選。企業(yè)的算力底層云服務的運維可以交給騰訊云等。

  算力產(chǎn)業(yè)有多大的成長潛力?華為數(shù)字能源中國區(qū)副總裁胡春池稱:“我們未來要真正掌握和占據(jù)數(shù)字經(jīng)濟的高地,中國人工智能的發(fā)展還有很長的路要走。站在未來十年來看,至少我們的算力需求的增長應該是在百倍以上!

  當前在數(shù)據(jù)中心向智算中心加速演變的過程中,技術(shù)、運維等方面還存在著諸多難點。中國航空規(guī)劃設(shè)計研究總院有限公司電子工程設(shè)計院副院長范強表示,從基礎(chǔ)設(shè)施的角度來說,有兩個難點:一是供應鏈,因為電的供應是一個大問題,還有內(nèi)部的改造,配電房的比例、架構(gòu)等都很重要;二是GPU服務器的制冷技術(shù),因為純靠風冷制冷效率越來越低,能否和液冷結(jié)合,這是未來非常好的發(fā)展方向。

  “賣鏟人”淘金大模型時代

  “‘算力浦江計劃’明確提出,高性能算力占比35%、國產(chǎn)化算力占比達到50%以上。”上海市通信管理局信息通信發(fā)展處魏征介紹,“算力浦江計劃”助力國產(chǎn)芯片制造,大量的GPU、DPU企業(yè)落地上海,構(gòu)建了完整的算力芯片產(chǎn)業(yè)布局。

  “AI大模型對算力的核心訴求是大帶寬和低時延,這就需要新型算力底座支撐,硬件不再以CPU(中央處理器)為中心,而是從芯片內(nèi)到節(jié)點內(nèi)向系統(tǒng)級分布式異構(gòu)延伸,CPU+GPU+DPU+PFGA(可編程邏輯門陣列芯片)成為主流的趨勢。”中科馭數(shù)產(chǎn)品運營部副總經(jīng)理曹輝認為,DPU可為AI算力底座提供必需的大帶寬和低時延能力,云、邊、端構(gòu)成了泛在的立體架構(gòu),通過與DPU的深度融合,構(gòu)成新型的算力底座。

  曹輝介紹,作為DPU芯片初創(chuàng)公司,中科馭數(shù)將iaaS層(基礎(chǔ)設(shè)施即服務,包括網(wǎng)絡(luò)、存儲、云原生和安全等)放在DPU上運行,從而為用戶提供全套的性能更高和算力更好的解決方案,超低時延可低至1微秒。魏征介紹,上海市通信管理局的綠色算力“試點+改造”項目顯示,使用DPU芯片,數(shù)據(jù)中心的數(shù)據(jù)傳輸降低能耗可降低超過35%。

  隨著大模型浪潮涌起,智算中心除了需要更多的GPU、DPU等芯片,其服務器巨大的能耗、數(shù)據(jù)高速交換等也對散熱、節(jié)能、互聯(lián)等提出新需求。

  “幾年前AI芯片的功率是兩三百瓦,未來可能達到六七百甚至上千瓦,是名副其實的電老虎!备咂秸J為,AI服務器能耗的降低、穩(wěn)定可靠性變得越來越重要,液冷很重要。范強介紹,普通的數(shù)據(jù)中心機架功率4千瓦至8千瓦,智算中心的兩臺服務器就可能達到10至20千瓦;服務器制冷已經(jīng)從傳統(tǒng)水冷發(fā)展到現(xiàn)在的蒸發(fā)冷、液冷等,需求量巨大。

  互聯(lián)科技華東區(qū)總經(jīng)理練羽認為,算力稀缺將推動國內(nèi)幾十家GPU初創(chuàng)公司的技術(shù)加速突破。

中證網(wǎng)聲明:凡本網(wǎng)注明“來源:中國證券報·中證網(wǎng)”的所有作品,版權(quán)均屬于中國證券報、中證網(wǎng)。中國證券報·中證網(wǎng)與作品作者聯(lián)合聲明,任何組織未經(jīng)中國證券報、中證網(wǎng)以及作者書面授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。