
在技術(shù)自力更生背景下,中國科技巨頭正在尋求基于現(xiàn)有系統(tǒng)和設(shè)備來提升大型語言模型 (LLM)訓(xùn)練的方法,騰訊已升級其高性能計算(HPC)網(wǎng)絡(luò),提升其人工智能(AI)能力。
騰訊云計算部門周一表示,騰訊智能高性能網(wǎng)絡(luò)(中文名為星脈)2.0 版本將使網(wǎng)絡(luò)通信和LLM培訓(xùn)的效率分別提高60%和20%。
由于美國出口規(guī)則嚴格,英偉達先進芯片供應(yīng)受限,而騰訊星脈此次性能提升正是在此背景下實現(xiàn)的。騰訊通過優(yōu)化現(xiàn)有設(shè)施實現(xiàn)了性能提升,而不是試圖在支出和尖端半導(dǎo)體方面與 OpenAI等美國競爭對手正面競爭。
HPC網(wǎng)絡(luò)連接強大的圖形處理單元(GPU)集群,以極高的速度處理數(shù)據(jù)和解決問題。
騰訊稱,在現(xiàn)有HPC網(wǎng)絡(luò)技術(shù)下,計算集群花費了太多時間與其他集群進行通信,導(dǎo)致相當一部分GPU容量處于閑置狀態(tài)。因此,公司升級了網(wǎng)絡(luò),以加快通信過程并降低成本。
騰訊介紹,騰訊星脈網(wǎng)絡(luò)可以支持擁有超過100000個GPU的單個計算集群,規(guī)模是2023年發(fā)布的網(wǎng)絡(luò)初始版本的兩倍。騰訊表示,性能的提升將識別問題所需的時間從之前的幾天縮短到幾分鐘。
騰訊最近大力加強其在快速發(fā)展的人工智能領(lǐng)域的技術(shù),致力于推廣其內(nèi)部LLM以供企業(yè)使用,并且還提供幫助其他公司建立自己模型的服務(wù)。
生成式人工智能服務(wù)的迅速普及導(dǎo)致中國人工智能行業(yè)陷入價格戰(zhàn),由于企業(yè)尋求技術(shù)更大程度的商業(yè)化,所有主要參與者均大幅削減其產(chǎn)品價格。
今年5月,騰訊免費提供渾元LLM精簡版,同時降低標準版價格。此前,包括字節(jié)跳動、百度和阿里巴巴在內(nèi)的競爭對手也采取了類似舉措。
模型訓(xùn)練是一個能源密集型且昂貴的過程,競相提高其效率對于價格戰(zhàn)至關(guān)重要,因為這樣可以讓運營商及其客戶更能負擔得起這項技術(shù)。
百度創(chuàng)始人兼首席執(zhí)行官李彥宏今年4月表示,其旗艦項目Ernie LLM的訓(xùn)練效率在一年內(nèi)提高了5倍多。他說,該模型的推理性能提高了105倍,推理成本降低了99%。
此外,OpenAI還將近期效率的提高視為其5月推出的GPT-4o模型定價大幅降低的原因。








