國內(nèi)知名生活方式平臺小紅書宣布對其內(nèi)部辦公應(yīng)用“REDcity”進(jìn)行全面升級,不僅將應(yīng)用名稱正式更改為“hi”,還同步推出了全新Logo,引發(fā)行業(yè)內(nèi)廣泛關(guān)注。此次升級并非簡單的名稱與視覺調(diào)整,而是小紅書基于自身組織發(fā)展需求,對內(nèi)部協(xié)同辦公體系進(jìn)行的一次深度重構(gòu),旨在通過全新的辦公工具,打造支持最佳工作實(shí)踐、助力組織高效管理且充滿社區(qū)文化氛圍的協(xié)同辦公平臺。?
回溯“REDcity”的發(fā)展歷程,作為小紅書早期搭建的內(nèi)部辦公應(yīng)用,它曾承載著員工日常溝通、流程審批、信息共享等基礎(chǔ)功能,陪伴小紅書度過了業(yè)務(wù)快速擴(kuò)張的關(guān)鍵階段。但隨著小紅書員工規(guī)模持續(xù)增長、業(yè)務(wù)板塊不斷細(xì)化,以及遠(yuǎn)程辦公、跨部門協(xié)作需求的日益增多,原有的辦公應(yīng)用在功能完整性、操作便捷性和文化傳遞性上逐漸顯現(xiàn)出提升空間。為了更好地適配公司現(xiàn)階段的發(fā)展節(jié)奏,滿足員工對高效協(xié)同辦公的需求,小紅書啟動了辦公應(yīng)用升級項(xiàng)目,經(jīng)過多輪調(diào)研、設(shè)計(jì)與測試,最終確定以“hi”作為新應(yīng)用名稱,并配套全新的視覺標(biāo)識。?
從名稱來看,“hi”一詞簡潔明了、親切易懂,既打破了傳統(tǒng)辦公應(yīng)用名稱的刻板印象,又傳遞出開放、友好的溝通態(tài)度。它不僅是日常社交中常用的問候語,更象征著小紅書內(nèi)部跨團(tuán)隊(duì)、跨崗位之間無障礙的交流與連接,契合小紅書一直倡導(dǎo)的“社區(qū)化”文化理念。而在Logo設(shè)計(jì)上,全新“hi”Logo采用了簡約現(xiàn)代的風(fēng)格,主色調(diào)延續(xù)了小紅書品牌標(biāo)志性的紅色,搭配流暢的線條設(shè)計(jì),整體視覺效果既富有活力又不失專業(yè)感。Logo中的字母“h”與“i”巧妙融合,形成一個相互支撐的整體,既體現(xiàn)了協(xié)同辦公的核心內(nèi)涵,也寓意著小紅書員工之間相互協(xié)作、共同成長的團(tuán)隊(duì)精神。?
在功能層面,“hi”應(yīng)用在保留原有核心辦公功能的基礎(chǔ)上,進(jìn)行了全方位的優(yōu)化與創(chuàng)新,重點(diǎn)圍繞“創(chuàng)建最佳工作實(shí)踐”“支持組織發(fā)展與管理”“營造社區(qū)文化協(xié)同”三大核心目標(biāo)展開。?
在創(chuàng)建最佳工作實(shí)踐方面,“hi”應(yīng)用針對不同崗位、不同業(yè)務(wù)場景的工作需求,搭建了個性化的工作流程模板庫。無論是內(nèi)容創(chuàng)作團(tuán)隊(duì)的選題策劃、審核發(fā)布流程,還是市場團(tuán)隊(duì)的活動策劃、數(shù)據(jù)復(fù)盤流程,員工都可以直接調(diào)用模板,并根據(jù)實(shí)際需求進(jìn)行靈活調(diào)整,有效減少了重復(fù)的流程搭建工作,提升了工作效率。同時,應(yīng)用還新增了“工作經(jīng)驗(yàn)分享”板塊,員工可以將自己在工作中總結(jié)的優(yōu)秀經(jīng)驗(yàn)、高效方法以圖文、視頻等形式分享至平臺,其他員工可進(jìn)行點(diǎn)贊、評論、收藏,形成內(nèi)部知識共享的良性循環(huán),助力更多員工快速掌握最佳工作實(shí)踐方法。?
小紅書智創(chuàng)音頻技術(shù)團(tuán)隊(duì)正式對外發(fā)布新一代對話合成模型——FireRedTTS-2。這款全新模型的推出,不僅是團(tuán)隊(duì)在音頻技術(shù)領(lǐng)域的又一次重要突破,更針對當(dāng)前對話合成領(lǐng)域普遍存在的靈活性差、發(fā)音錯誤多等核心痛點(diǎn),給出了極具創(chuàng)新性的解決方案,為行業(yè)發(fā)展注入新的活力。?
在當(dāng)前的對話合成技術(shù)應(yīng)用場景中,諸多方案面臨著難以忽視的問題。一方面,靈活性不足成為制約技術(shù)落地的關(guān)鍵瓶頸。傳統(tǒng)模型在應(yīng)對不同場景、不同風(fēng)格的語音合成需求時,往往需要進(jìn)行大量的參數(shù)調(diào)整和模型適配,不僅耗時耗力,還難以快速響應(yīng)多樣化的用戶需求。比如在電商直播場景中,主播可能需要時而親切活潑、時而專業(yè)嚴(yán)謹(jǐn)?shù)恼Z音風(fēng)格,傳統(tǒng)模型很難在這兩種風(fēng)格之間實(shí)現(xiàn)無縫切換,導(dǎo)致用戶體驗(yàn)大打折扣。另一方面,發(fā)音錯誤頻發(fā)的問題也嚴(yán)重影響著合成語音的質(zhì)量。無論是生僻字、多音字的發(fā)音偏差,還是特定領(lǐng)域?qū)I(yè)術(shù)語的不準(zhǔn)確朗讀,都讓合成語音顯得不夠自然、專業(yè),難以滿足教育、醫(yī)療、金融等對語音準(zhǔn)確性要求極高的領(lǐng)域需求。?
為攻克這些痛點(diǎn),小紅書智創(chuàng)音頻技術(shù)團(tuán)隊(duì)進(jìn)行了大量的研發(fā)與探索,最終通過兩大核心技術(shù)升級,實(shí)現(xiàn)了FireRedTTS-2合成效果的跨越式提升。首先,團(tuán)隊(duì)對離散語音編碼器進(jìn)行了全面升級。新一代的離散語音編碼器能夠更精準(zhǔn)地捕捉語音的細(xì)微特征,包括語調(diào)、語氣、節(jié)奏等,將語音信息轉(zhuǎn)化為更豐富、更細(xì)膩的離散表征。這一升級使得模型在處理不同風(fēng)格、不同情感的語音合成任務(wù)時,能夠更好地還原真實(shí)人類的語音特點(diǎn),極大地提升了合成語音的自然度和靈活性。例如,在合成故事朗讀語音時,模型能夠根據(jù)故事情節(jié)的發(fā)展,自動調(diào)整語調(diào)的高低起伏和語速的快慢,讓聽眾仿佛置身于真實(shí)的故事場景中。?
其次,文本語音合成模型的優(yōu)化也是FireRedTTS-2的一大亮點(diǎn)。團(tuán)隊(duì)針對文本處理環(huán)節(jié)進(jìn)行了深度優(yōu)化,引入了更先進(jìn)的文本分析算法,能夠更準(zhǔn)確地理解文本的語義、語法結(jié)構(gòu)以及多音字、生僻字的正確發(fā)音規(guī)則。同時,模型還結(jié)合了海量的語音數(shù)據(jù)進(jìn)行訓(xùn)練,不斷提升對不同領(lǐng)域?qū)I(yè)術(shù)語的發(fā)音準(zhǔn)確性。在實(shí)際測試中,F(xiàn)ireRedTTS-2在處理包含大量專業(yè)術(shù)語的科技文獻(xiàn)朗讀任務(wù)時,發(fā)音準(zhǔn)確率較傳統(tǒng)模型提升了超過20%,有效解決了傳統(tǒng)模型發(fā)音錯誤多的問題。?
憑借著這兩大核心技術(shù)升級,F(xiàn)ireRedTTS-2在多項(xiàng)主客觀測評中均展現(xiàn)出行業(yè)領(lǐng)先的水平。在客觀測評方面,模型在語音自然度、發(fā)音準(zhǔn)確率、語速穩(wěn)定性等關(guān)鍵指標(biāo)上,均大幅超越行業(yè)平均水平,部分指標(biāo)甚至達(dá)到了當(dāng)前行業(yè)的最高標(biāo)準(zhǔn)。其中,語音自然度得分較上一代模型提升了15%,發(fā)音準(zhǔn)確率更是高達(dá)98.5%,幾乎可以媲美專業(yè)播音員的發(fā)音水平。在主觀測評中,團(tuán)隊(duì)邀請了不同年齡段、不同職業(yè)背景的用戶對模型合成的語音進(jìn)行評價,結(jié)果顯示,超過90%的用戶認(rèn)為FireRedTTS-2合成的語音在自然度和可聽性上,與人類真實(shí)語音幾乎沒有差異,在處理多樣化語音需求時的表現(xiàn)也得到了用戶的廣泛認(rèn)可。
社交平臺小紅書,在大模型領(lǐng)域邁出了重要一步,開源了其首個大模型——dots.llm1。這一舉措在業(yè)內(nèi)引起了廣泛關(guān)注,為大模型的發(fā)展注入了新的活力。?
dots.llm1是一個擁有1420億參數(shù)的專家混合模型(MoE)。與其他模型不同的是,它在推理過程中僅激活140億參數(shù)。這種獨(dú)特的設(shè)計(jì)使得模型在保持高性能的同時,能夠大幅度降低訓(xùn)練和推理成本,為模型的廣泛應(yīng)用提供了更經(jīng)濟(jì)高效的解決方案。?
dots.llm1最大的特色之一,是使用了11.2萬億token的非合成高質(zhì)量訓(xùn)練數(shù)據(jù)。在現(xiàn)階段的開源大模型中,如此大規(guī)模的非合成數(shù)據(jù)非常罕見。小紅書憑借自身龐大的語料庫,為模型訓(xùn)練提供了豐富而優(yōu)質(zhì)的數(shù)據(jù)資源。這些數(shù)據(jù)來源于真實(shí)的網(wǎng)絡(luò)內(nèi)容,經(jīng)過精心篩選和處理,確保了數(shù)據(jù)的高質(zhì)量和多樣性。?
得益于高質(zhì)量的訓(xùn)練數(shù)據(jù),在中文測試中,dots.llm1展現(xiàn)出了強(qiáng)大的性能。它以91.3的平均分,超過了DeepSeek開源的V2、V3,以及阿里開源的Qwen2.532B和72B。這一成績充分證明了dots.llm1在中文語言理解和處理方面的卓越能力。無論是語義理解、文本生成還是知識問答,dots.llm1都能給出高質(zhì)量的回答。?
在模型架構(gòu)方面,dots.llm1使用了單向解碼器Transformer架構(gòu),并將前饋網(wǎng)絡(luò)替換為MoE。MoE將模型分為多個專家網(wǎng)絡(luò),每個專家網(wǎng)絡(luò)專注于輸入數(shù)據(jù)的不同方面。在推理過程中,并不激活所有的專家網(wǎng)絡(luò),而是根據(jù)輸入標(biāo)記的特性,動態(tài)地選擇一小部分專家網(wǎng)絡(luò)進(jìn)行計(jì)算。這種稀疏激活的方式極大減少了算力的需求,同時保持了模型的高性能。具體來說,dots.llm1的MoE由128個路由專家和2個共享專家組成。在每個輸入標(biāo)記的處理過程中,dots.llm1會通過一個路由機(jī)制選擇出6個最相關(guān)的專家網(wǎng)絡(luò),加上2個共享專家,總共激活8個專家網(wǎng)絡(luò)。?
此外,dots.llm1采用了經(jīng)典的多頭注意力機(jī)制(MHA),這是一種廣泛應(yīng)用于Transformer架構(gòu)中的注意力機(jī)制。通過引入RMSNorm,dots.llm1能夠更好地控制注意力機(jī)制的輸出,從而提高模型的穩(wěn)定性和性能。在訓(xùn)練過程中,dots.llm1還采用了AdamW優(yōu)化器,進(jìn)一步提高模型的性能和效率。?
在數(shù)據(jù)處理上,dots.llm1構(gòu)建了一套三級數(shù)據(jù)處理流水線,從雜亂無章的原始網(wǎng)頁數(shù)據(jù)中篩選出高質(zhì)量的語料。經(jīng)過TxT360數(shù)據(jù)集對比實(shí)驗(yàn)驗(yàn)證,該流水線處理后的網(wǎng)頁數(shù)據(jù)在MMLU、TriviaQA等基準(zhǔn)測試中表現(xiàn)優(yōu)于當(dāng)前SOTA開源數(shù)據(jù)。