中證網(wǎng)
返回首頁(yè)

鄭海清:今年將是大模型應(yīng)用爆發(fā)年 騰訊大模型會(huì)堅(jiān)持“長(zhǎng)期主義”

王小偉 證券時(shí)報(bào)

  “百模大戰(zhàn)”中,騰訊大模型頗具獨(dú)特性。它的技術(shù)底座是一系列的行業(yè)大模型,客戶(hù)只要加入自己的場(chǎng)景數(shù)據(jù),就可以生成契合自身業(yè)務(wù)需要的專(zhuān)屬模型。產(chǎn)品能力方面,它依托騰訊云TI平臺(tái)構(gòu)建行業(yè)精調(diào)解決方案;產(chǎn)品應(yīng)用方面,在騰訊會(huì)議多款頭部SaaS產(chǎn)品中應(yīng)用;落地方面,智能客服、OCR、跨模態(tài)檢索等都有實(shí)踐。

  騰訊云工業(yè)AI解決方案總經(jīng)理鄭海清認(rèn)為,能夠?qū)ζ髽I(yè)產(chǎn)生長(zhǎng)期價(jià)值的,應(yīng)該是行業(yè)化的、專(zhuān)有的模型!2024年一定是大模型應(yīng)用爆發(fā)的一年,我們的方向是更清晰的,騰訊將堅(jiān)持長(zhǎng)期主義,一定要去進(jìn)行規(guī);膹(fù)制。”

  證券時(shí)報(bào)記者:騰訊云服務(wù)是一個(gè)很多年的業(yè)務(wù),2023年是大模型落地的第一年,這給云服務(wù)業(yè)務(wù)帶來(lái)哪些新的發(fā)展機(jī)遇?

  鄭海清:ChatGPT問(wèn)世之后,搜索量出乎很多人的意料,對(duì)騰訊云來(lái)講,這是一個(gè)百年不遇的機(jī)會(huì)。

  第一,從大型跨國(guó)企業(yè)、央國(guó)企,到一些初創(chuàng)企業(yè)、中小規(guī)模企業(yè),都非常急迫地想知道,大模型能夠?yàn)樗麄儙?lái)什么樣的變化,對(duì)大模型都有非常大的期待。他們更希望能夠從云計(jì)算公司、從騰訊這樣的互聯(lián)網(wǎng)公司知道,該怎么樣利用大模型、怎么樣利用AI,能夠更快速地跟他的業(yè)務(wù)產(chǎn)生關(guān)聯(lián),這對(duì)我們這些做平臺(tái)公司而言,相當(dāng)于打開(kāi)了一扇門(mén)。

  第二,我們有一系列的應(yīng)用,比如騰訊會(huì)議,實(shí)現(xiàn)了用大模型去賦能。這表明,對(duì)云計(jì)算公司而言,可以把我們?cè)瓉?lái)規(guī)劃的一些AI的能力、大模型能力,跟這些企業(yè)的應(yīng)用做更多的結(jié)合。

  第三,大模型背后有算力、有存儲(chǔ),有對(duì)于高速網(wǎng)絡(luò)的需求。這也為云計(jì)算在傳統(tǒng)行業(yè)內(nèi)的普及和推廣起到了加速作用。

  證券時(shí)報(bào)記者:騰訊在2023年6月發(fā)布了大模型,它的特點(diǎn)、優(yōu)勢(shì)是什么?

  鄭海清:去年發(fā)布行業(yè)大模型時(shí),很多客戶(hù)問(wèn):騰訊的通用大模型還沒(méi)有發(fā)布,為什么會(huì)先發(fā)布行業(yè)大模型?這背后是我們?cè)谧龃竽P突蛘咦鋈斯ぶ悄艿臅r(shí)候的一貫思路。

  我們認(rèn)為,能夠?qū)ζ髽I(yè)產(chǎn)生長(zhǎng)期價(jià)值的,應(yīng)該是行業(yè)化的、專(zhuān)有的模型。相對(duì)于萬(wàn)金油、門(mén)門(mén)通那種“通才”,大部分的企業(yè)是依賴(lài)于領(lǐng)域內(nèi)的專(zhuān)家、專(zhuān)業(yè)人士這一類(lèi)的“專(zhuān)才”來(lái)幫他們提供推動(dòng)產(chǎn)品的創(chuàng)新、研發(fā)的創(chuàng)新。行業(yè)大模型就是我們認(rèn)為的這一類(lèi)的“專(zhuān)才”。所以我們?cè)谝婚_(kāi)始就堅(jiān)持行業(yè)大模型加MaaS(模型即服務(wù))服務(wù),去做差異化。我們看中的,是怎么樣結(jié)合企業(yè)內(nèi)部的數(shù)據(jù),結(jié)合企業(yè)行業(yè)領(lǐng)域知識(shí),把一個(gè)模型能夠跟某一個(gè)行業(yè)、某一個(gè)企業(yè)自身的業(yè)務(wù)形態(tài)、業(yè)務(wù)流程,做到緊密地耦合,幫助企業(yè)構(gòu)建他們專(zhuān)屬的模型應(yīng)用,實(shí)現(xiàn)提質(zhì)增效。

  第二,現(xiàn)在大部分企業(yè)在做AI、做大模型的時(shí)候,有著嚴(yán)重的“算力焦慮”,或者圍繞大模型的整個(gè)一套AI架構(gòu),看作是一整套的方案去進(jìn)行優(yōu)化的。所以我們有幾塊核心的技術(shù)。我們對(duì)于在大模型當(dāng)中所應(yīng)用到的高速網(wǎng)絡(luò),推出了星脈網(wǎng)絡(luò)產(chǎn)品,它能夠把整個(gè)的帶寬做到3.25 TB,把整個(gè)GPU的使用效率提升40%左右,而對(duì)于未來(lái)運(yùn)營(yíng)大模型,也能夠把整個(gè)的網(wǎng)絡(luò)成本降到30%—60%。

  第三,我們行業(yè)化大模型產(chǎn)品,除了幫助企業(yè)構(gòu)建基于混合云的一套大模型技術(shù)架構(gòu),最重要的是怎么樣把大模型的服務(wù)的能力提供給客戶(hù),客戶(hù)要能夠把它用起來(lái)。所以我們推出了基于TI平臺(tái)的一整套全新的大模型工具鏈,企業(yè)數(shù)據(jù)提取、標(biāo)注,模型的精調(diào),都能夠做到接近于零代碼。

  證券時(shí)報(bào)記者:發(fā)布至今,騰訊大模型產(chǎn)品取得哪些進(jìn)展?在推廣中有哪些比較典型的案例?

  鄭海清:我們做了一些比較有意思的嘗試。第一個(gè)是電氣行業(yè)的客戶(hù),電氣柜柜體設(shè)計(jì)時(shí),原來(lái)有大量的線下圖紙,需要很多的設(shè)計(jì)工程師,把電路圖、電路板,包括里面的銅板、開(kāi)關(guān),都要重新做一些設(shè)計(jì)。我們基于大模型,對(duì)此做了抽象化,幫助這些設(shè)計(jì)師能夠更快地完成設(shè)計(jì),整個(gè)設(shè)計(jì)的效率提升了大概30%—40%。

  第二個(gè)場(chǎng)景是國(guó)內(nèi)的一家頭部的航空航天企業(yè),利用大模型解決在飛機(jī)研發(fā)過(guò)程中結(jié)構(gòu)仿真的問(wèn)題。原來(lái)的結(jié)構(gòu)仿真利用軟件、利用算子去做一些數(shù)學(xué)或者是物理的模型把結(jié)果算出來(lái),需要非常多的算力去計(jì)算;現(xiàn)在把計(jì)算過(guò)程省略掉,用大模型把這個(gè)結(jié)果給預(yù)測(cè)出來(lái)。我們現(xiàn)在做了一些小規(guī)模的測(cè)試,至少有一到兩個(gè)量級(jí)的提升。

  第三是騰訊云AI的團(tuán)隊(duì)比較擅長(zhǎng)的工業(yè)質(zhì)檢領(lǐng)域。一類(lèi)項(xiàng)目在冷啟動(dòng)的時(shí)候,傳統(tǒng)上可能需要上千張的圖片來(lái)做樣本去訓(xùn)練,需要告訴AI,有哪些種類(lèi)的不良,F(xiàn)在通過(guò)大模型,它有很強(qiáng)的學(xué)習(xí)能力和泛化能力,可以把上千張不良樣本的需求,能夠降到大概十幾、幾十張,這使我們整個(gè)AI項(xiàng)目冷啟動(dòng)大大提速。

  第四類(lèi),在汽車(chē)、出行等行業(yè),常用的傳統(tǒng)的客服機(jī)器人場(chǎng)景。提供一個(gè)AI大模型,幫助企業(yè)內(nèi)部人事服務(wù)、售后工程師,面向客戶(hù)的一些問(wèn)題的查詢(xún)?nèi)ベx能。

  證券時(shí)報(bào)記者:騰訊大模型落地了非常多的場(chǎng)景。項(xiàng)目落地的過(guò)程中,您感受到客戶(hù)最關(guān)心什么?

  鄭海清:第一是安全。我們大模型在企業(yè)應(yīng)用的時(shí)候,需要投喂很多企業(yè)自己的一些數(shù)據(jù)和語(yǔ)料,有一些他們自己的核心競(jìng)爭(zhēng)力的數(shù)據(jù)。我們?cè)谶@個(gè)過(guò)程中,一方面能夠幫助企業(yè)把一些敏感詞匯過(guò)濾掉,另一方面在整個(gè)架構(gòu)上允許數(shù)據(jù)在本地,模型在公有云、也可以在線下,來(lái)解決企業(yè)在數(shù)據(jù)安全上的顧慮。

  第二,企業(yè)不需要一個(gè)“胡說(shuō)八道”的大模型,而是要有一個(gè)精準(zhǔn)性的答案。我們通過(guò)基于TI平臺(tái)的工具鏈,確保企業(yè)可以在我們提供給他的模型基礎(chǔ)之上,以一個(gè)低門(mén)檻的方式,去進(jìn)行模型的再訓(xùn)練和精調(diào)。我們還會(huì)在一開(kāi)始的時(shí)候,有一個(gè)陪跑的過(guò)程。

  第三,關(guān)注成本。我們聚焦架構(gòu)優(yōu)化,幫助企業(yè)以更少的算力去幫助企業(yè)能夠跑出一個(gè)基本的模型,使大模型的算力需求跟目前市面上通用大模型相比,能夠降到30%左右。同時(shí),還通過(guò)像QGPU的方式,通過(guò)騰訊的星脈網(wǎng)絡(luò),能夠讓已有的資源的使用效率達(dá)到最大的提升。以星脈網(wǎng)絡(luò)為例,可以使整個(gè)通信的成本下降40%—60%。

  證券時(shí)報(bào)記者:很多人認(rèn)為今年是大模型落地應(yīng)用的元年,騰訊云是怎么研判大模型的市場(chǎng)演進(jìn)的?

  鄭海清:2024年大概率是大模型應(yīng)用爆發(fā)的一年。我們還在做一些準(zhǔn)備工作,包括一些基礎(chǔ)模型的迭代,包括模型本身的調(diào)整和適配,也涉及一些場(chǎng)景的探索。我們2024年的方向是更清晰的。

  首先,圍繞服務(wù)機(jī)器人,結(jié)合不同的企業(yè)的數(shù)據(jù)做優(yōu)化,做到企業(yè)擁有自己的AI機(jī)器人,讓企業(yè)每一個(gè)研發(fā)人員、營(yíng)銷(xiāo)人員,都有自己的AI助手。

  第二,騰訊把AI的能力、把大模型能力,以API的方式輸出,現(xiàn)在有很多的合作伙伴,會(huì)把騰訊大模型的API植入到它的應(yīng)用里去,圍繞一些營(yíng)銷(xiāo)的SaaS應(yīng)用、巡檢的SaaS應(yīng)用等。這會(huì)帶來(lái)一些SaaS軟件的重構(gòu)。我覺(jué)得這一定是未來(lái)非常關(guān)鍵的應(yīng)用場(chǎng)景。包括我們周?chē)纳鷳B(tài),也會(huì)在這里頭作為重點(diǎn)發(fā)展的方向。

  證券時(shí)報(bào)記者:騰訊2024年對(duì)大模型的發(fā)展目標(biāo)是什么?

  鄭海清: 騰訊堅(jiān)持長(zhǎng)期主義,即我們一定要去進(jìn)行規(guī);膽(yīng)用。這是首要目標(biāo)。

  第二,我們的核心目標(biāo)是怎么樣讓企業(yè)能夠用得好、用得便宜,所以我們還會(huì)圍繞GPU的調(diào)度、能力的優(yōu)化、大模型輕量化等,做得更好。

  第三,把周?chē)竽P蜕鷳B(tài)構(gòu)建好。

中證網(wǎng)聲明:凡本網(wǎng)注明“來(lái)源:中國(guó)證券報(bào)·中證網(wǎng)”的所有作品,版權(quán)均屬于中國(guó)證券報(bào)、中證網(wǎng)。中國(guó)證券報(bào)·中證網(wǎng)與作品作者聯(lián)合聲明,任何組織未經(jīng)中國(guó)證券報(bào)、中證網(wǎng)以及作者書(shū)面授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。