大模型賽道再添猛將!美團(tuán)LongCat-Flash-Chat開(kāi)源,改寫(xiě)智能體應(yīng)用效率格局

?? 由 文心大模型 生成的文章摘要

美團(tuán)正式向外界發(fā)布了LongCat-Flash-Chat,并同步將其在Github、HuggingFace平臺(tái)開(kāi)源。

據(jù)悉,LongCat-Flash-Chat采用創(chuàng)新性混合專(zhuān)家模型(Mixture-of-Experts,MoE)架構(gòu),總參數(shù)560B,激活參數(shù)18.6B-31.3B(平均27B),實(shí)現(xiàn)了計(jì)算效率與性能的雙重優(yōu)化。根據(jù)多項(xiàng)基準(zhǔn)測(cè)試綜合評(píng)估,作為一款非思考型基礎(chǔ)模型,LongCat-Flash-Chat在僅激活少量參數(shù)的前提下,性能比肩當(dāng)下領(lǐng)先的主流模型,尤其在智能體任務(wù)中具備突出優(yōu)勢(shì)。此外,因?yàn)槊嫦蛲评硇实脑O(shè)計(jì)和創(chuàng)新,LongCat-Flash-Chat具有明顯更快的推理速度,更適合于耗時(shí)較長(zhǎng)的復(fù)雜智能體應(yīng)用。

在模型架構(gòu)層面,LongCat-Flash引入“零計(jì)算專(zhuān)家(Zero-ComputationExperts)”機(jī)制,總參數(shù)量560B,每個(gè)token依據(jù)上下文需求僅激活18.6B-31.3B參數(shù),實(shí)現(xiàn)算力按需分配和高效利用。為控制總算力消耗,訓(xùn)練過(guò)程采用PID控制器實(shí)時(shí)微調(diào)專(zhuān)家偏置,將單token平均激活量穩(wěn)定在約27B。

同時(shí),LongCat-Flash在層間鋪設(shè)跨層通道,使MoE的通信和計(jì)算能很大程度上并行,極大提高了訓(xùn)練和推理效率。配合定制化的底層優(yōu)化,LongCat-Flash在30天內(nèi)完成高效訓(xùn)練,并在H800上實(shí)現(xiàn)單用戶(hù)100+tokens/s的推理速度。LongCat-Flash還對(duì)常用大模型組件和訓(xùn)練方式進(jìn)行了改進(jìn),使用了超參遷移和模型層疊加的方式進(jìn)行訓(xùn)練,并結(jié)合了多項(xiàng)策略保證訓(xùn)練穩(wěn)定性,使得訓(xùn)練全程高效且順利。

針對(duì)智能體(Agentic)能力,LongCat-Flash自建了Agentic評(píng)測(cè)集指導(dǎo)數(shù)據(jù)策略,并在訓(xùn)練全流程進(jìn)行了全面的優(yōu)化,包括使用多智能體方法生成多樣化高質(zhì)量的軌跡數(shù)據(jù)等,實(shí)現(xiàn)了優(yōu)異的智能體能力。

通過(guò)算法和工程層面的聯(lián)合設(shè)計(jì),LongCat-Flash在理論上的成本和速度都大幅領(lǐng)先行業(yè)同等規(guī)模、甚至規(guī)模更小的模型;通過(guò)系統(tǒng)優(yōu)化,LongCat-Flash在H800上達(dá)成了100token/s的生成速度,在保持極致生成速度的同時(shí),輸出成本低至5元/百萬(wàn)token。

「93913原創(chuàng)內(nèi)容,轉(zhuǎn)載請(qǐng)注明出處」