捆绑调教sm免费专区,成人精品av一区二区三区网站,中国少妇内射xxxhd免费 http://pinmang.cn 93913成立于2015年9月13日,是目前國內(nèi)最早且最具知名度和影響力的元宇宙&AI產(chǎn)業(yè)服務(wù)商,通過93913為用戶提供信息服務(wù)以及元宇宙&AI領(lǐng)域相關(guān)廠商提供整體品牌傳播、發(fā)布會(huì)、開發(fā)者大賽、連接商業(yè)項(xiàng)目以及FA投融資顧問等服務(wù)。 Tue, 15 Apr 2025 16:09:38 +0000 zh-CN hourly 1 https://wordpress.org/?v=6.6.2 智譜發(fā)布新一代GLM-4-32B-0414系列模型,性能卓越支持本地部署 http://pinmang.cn/110004.html http://pinmang.cn/110004.html#respond Tue, 15 Apr 2025 16:09:38 +0000 http://pinmang.cn/?p=110004

智譜發(fā)布重磅消息,新一代GLM-4-32B-0414系列模型正式推出。此系列模型參數(shù)規(guī)模達(dá)320億,在效果表現(xiàn)上可與OpenAI GPT系列以及DeepSeek V3/R1系列相媲美,并且具備極為友好的本地部署特性,為廣大用戶在模型使用上提供了更多便捷與可能。

該系列模型包含四款不同類型的模型,分別是GLM-4-32B-Base-0414、GLM-Z1-32B-0414、GLM-Z1-Rumination-32B-0414和GLM-Z1-9B-0414 ,每款模型都有其獨(dú)特的優(yōu)勢(shì)與應(yīng)用方向。在前期的預(yù)訓(xùn)練階段,模型采用了高達(dá)15T的高質(zhì)量數(shù)據(jù),其中大量推理類合成數(shù)據(jù)的運(yùn)用,為后續(xù)強(qiáng)化學(xué)習(xí)擴(kuò)展筑牢根基。而在后訓(xùn)練階段,團(tuán)隊(duì)不僅針對(duì)對(duì)話場景實(shí)現(xiàn)了人類偏好對(duì)齊,還借助拒絕采樣和強(qiáng)化學(xué)習(xí)等先進(jìn)技術(shù),強(qiáng)化了模型在指令遵循、工程代碼、函數(shù)調(diào)用等方面的效果,進(jìn)一步增強(qiáng)了智能體任務(wù)所需的原子能力。?

在實(shí)際應(yīng)用效果方面,GLM-4-32B-0414在多個(gè)領(lǐng)域都取得了出色成績。在工程代碼編寫、Artifacts生成、函數(shù)調(diào)用、搜索問答及報(bào)告撰寫等方面表現(xiàn)亮眼,部分Benchmark測(cè)試結(jié)果甚至能夠與參數(shù)規(guī)模更大的GPT-4o、DeepSeek-V3-0324(671B)等模型相抗衡。其中,GLM-Z1-32B-0414作為具有深度思考能力的推理模型,是在GLM-4-32B-0414基礎(chǔ)上,通過冷啟動(dòng)和擴(kuò)展強(qiáng)化學(xué)習(xí),并針對(duì)數(shù)學(xué)、代碼和邏輯等任務(wù)進(jìn)行專門訓(xùn)練得到的。相較于基礎(chǔ)模型,它在數(shù)理能力以及解決復(fù)雜任務(wù)的能力上有了顯著提升。在訓(xùn)練過程中,團(tuán)隊(duì)引入基于對(duì)戰(zhàn)排序反饋的通用強(qiáng)化學(xué)習(xí),進(jìn)一步提升了模型的通用能力。?

GLM-Z1-Rumination-32B-0414是具有沉思能力的深度推理模型,對(duì)標(biāo)OpenAI Deep Research。該模型能夠通過更長時(shí)間的深度思考來攻克更開放、更復(fù)雜的問題,例如撰寫兩個(gè)城市 AI 發(fā)展對(duì)比情況以及未來發(fā)展規(guī)劃等。它還能結(jié)合搜索工具處理復(fù)雜任務(wù),并且經(jīng)過多種規(guī)則型獎(jiǎng)勵(lì)指導(dǎo)和擴(kuò)展端到端強(qiáng)化學(xué)習(xí)訓(xùn)練,以提升解決復(fù)雜問題的能力。而GLM-Z1-9B-0414 作為一款開源的9B小尺寸模型,在數(shù)學(xué)推理和通用任務(wù)中展現(xiàn)出了極為優(yōu)秀的能力,在同尺寸開源模型中處于領(lǐng)先地位。?

「93913原創(chuàng)內(nèi)容,轉(zhuǎn)載請(qǐng)注明出處」
]]>
http://pinmang.cn/110004.html/feed 0
智譜AI獲得珠海華發(fā)集團(tuán)5億人民幣注資 http://pinmang.cn/109131.html http://pinmang.cn/109131.html#respond Fri, 14 Mar 2025 16:45:46 +0000 http://pinmang.cn/?p=109131

國內(nèi)人工智能初創(chuàng)公司智譜AI成功從國有華發(fā)集團(tuán)獲得了5億元人民幣的融資。值得一提的是,本月早些時(shí)候,該公司已宣布完成另外一筆10億元人民幣的融資。?

據(jù)《珠海特區(qū)報(bào)》周四報(bào)道,總部位于廣東省珠海市的國有企業(yè)華發(fā)集團(tuán),近日正式宣布對(duì)智譜AI進(jìn)行戰(zhàn)略投資。當(dāng)下,中國各城市正積極投身于支持有潛力的人工智能初創(chuàng)企業(yè)的熱潮中。?

智譜人工智能成立于2019年,作為中國“人工智能四小虎”企業(yè)之一,早已吸引了科技巨頭騰訊、美團(tuán)以及小米等企業(yè)的投資。根據(jù)企查查的數(shù)據(jù)顯示,該公司已順利完成超過15輪融資。在2024年7月的一輪融資中,企查查數(shù)據(jù)表明其估值已達(dá)200億元人民幣。?

據(jù)《珠海特區(qū)報(bào)》報(bào)道,本輪華發(fā)集團(tuán)注入的資金,將主要用于推進(jìn)智譜人工智能GLM基金會(huì)模型的技術(shù)創(chuàng)新,以及助力其生態(tài)系統(tǒng)的全面發(fā)展。

在大模型“六小虎”中,智譜的to G業(yè)務(wù)表現(xiàn)較為出色,其中標(biāo)量領(lǐng)跑,投標(biāo)項(xiàng)目覆蓋類型更廣,金額規(guī)模也從數(shù)萬到數(shù)百萬不等。2024年中標(biāo)數(shù)量達(dá)32個(gè),披露金額約1.3億元,僅次于科大訊飛和百度。

依托珠海的產(chǎn)業(yè)和算力基礎(chǔ)、以及智譜全自研GLM基座大模型和成熟的MaaS(Model as a Service)開放平臺(tái),“智譜+珠海華發(fā)空間”將為珠海產(chǎn)業(yè)提供從技術(shù)層、平臺(tái)層到應(yīng)用層的全棧AI技術(shù)支持,創(chuàng)新高密度產(chǎn)業(yè)集群AI生態(tài)區(qū)的模式,加速珠海打造人工智能產(chǎn)業(yè)高地。

「93913原創(chuàng)內(nèi)容,轉(zhuǎn)載請(qǐng)注明出處」
]]>
http://pinmang.cn/109131.html/feed 0
智譜AI增資至3107萬,北京市人工智能產(chǎn)業(yè)投資基金等入股 http://pinmang.cn/105271.html http://pinmang.cn/105271.html#respond Mon, 04 Nov 2024 16:40:05 +0000 http://pinmang.cn/?p=105271

智譜AI的關(guān)聯(lián)公司北京智譜華章科技有限公司發(fā)生工商變更,新增北京市人工智能產(chǎn)業(yè)投資基金(有限合伙)、深圳市招商數(shù)科創(chuàng)新私募股權(quán)投資基金合伙企業(yè)(有限合伙)、湖北長江中信科移動(dòng)通信技術(shù)產(chǎn)業(yè)投資基金合伙企業(yè)(有限合伙)等作為股東。與此同時(shí),公司注冊(cè)資本由約2791萬人民幣增加至約3107萬人民幣。

北京智譜華章科技有限公司成立于2019年6月,法定代表人為劉德兵。其經(jīng)營范圍包括人工智能基礎(chǔ)軟件開發(fā)、人工智能應(yīng)用軟件開發(fā)、軟件開發(fā)、數(shù)據(jù)處理和存儲(chǔ)支持服務(wù)、數(shù)據(jù)處理服務(wù)以及信息技術(shù)咨詢服務(wù)等。目前,該公司由上海飛玡科技有限公司、廣西騰訊創(chuàng)業(yè)投資有限公司、劉德兵以及上述新增股東等共同持股。

據(jù)媒體報(bào)道,今年3月,智譜AI宣布完成新一輪融資,北京市人工智能產(chǎn)業(yè)投資基金參與了此次投資。智譜AI也由此成為北京市人工智能產(chǎn)業(yè)投資基金自成立以來投資的首家AI大模型公司。

「93913原創(chuàng)內(nèi)容,轉(zhuǎn)載請(qǐng)注明出處」
]]>
http://pinmang.cn/105271.html/feed 0