
在全球AI算力需求持續(xù)爆發(fā)的背景下,高通正式推出新一代數據中心AI推理優(yōu)化解決方案,以AI 200和AI 250兩款核心芯片為基礎,搭配專屬加速卡與機架系統,憑借創(chuàng)新技術架構和高效散熱設計,為數據中心AI推理場景提供更具性價比和能效比的算力支撐,進一步完善其在AI基礎設施領域的布局。
此次發(fā)布的解決方案核心在于兩款差異化定位的AI芯片。AI200芯片專為機架級AI推理場景量身打造,聚焦大規(guī)模分布式推理任務,能夠適配云端數據中心的高密度部署需求,在處理自然語言處理、計算機視覺等主流AI推理工作負載時,可實現性能與功耗的精準平衡,滿足企業(yè)級用戶對穩(wěn)定算力輸出的核心訴求。
AI250芯片則搭載創(chuàng)新內存架構,通過優(yōu)化內存帶寬和容量配置,針對性解決AI推理過程中數據讀寫延遲高、帶寬不足等痛點。該架構可更高效地支撐大模型推理時的海量數據交互,尤其適用于對響應速度要求嚴苛的實時推理場景,如智能客服、自動駕駛數據處理、工業(yè)質檢等,為高并發(fā)、低延遲的AI應用提供強勁算力保障。
兩款芯片對應的機架解決方案均采用直接液冷技術,這一設計成為此次發(fā)布的一大亮點。相較于傳統風冷散熱,直接液冷技術具備散熱效率高、能耗損失小、運行噪音低等顯著優(yōu)勢,可有效控制高密度芯片部署帶來的散熱壓力。
在數據中心追求高算力密度部署的趨勢下,液冷技術的應用能夠讓AI加速卡和機架在持續(xù)高負載運行狀態(tài)下保持穩(wěn)定性能,避免因過熱導致的算力衰減,同時降低數據中心的整體能耗,契合“綠色算力”的行業(yè)發(fā)展方向,助力企業(yè)在提升AI算力的同時實現節(jié)能減排目標。
高通同步公布了兩款芯片的商用時間表:AI200預計于2026年正式投入商用,AI250則計劃在2027年實現規(guī)?;涞亍_@一清晰的推進節(jié)奏,為數據中心運營商、云服務提供商及AI解決方案廠商提供了明確的技術選型參考,便于企業(yè)提前規(guī)劃算力升級路徑。
作為全球領先的半導體解決方案提供商,高通此次發(fā)布的新一代數據中心AI推理優(yōu)化解決方案,不僅延續(xù)了其在芯片設計領域的技術積累,更通過軟硬件協同優(yōu)化,填補了不同層級AI推理場景的算力需求缺口。隨著商用進程的推進,該解決方案有望進一步降低AI推理的部署成本和門檻,推動大模型應用、智能計算等領域的規(guī)?;l(fā)展,為數字經濟轉型注入強勁算力動力。








