
為了幫助客戶更有效采用其AI計(jì)算資源,NVIDIA宣布已簽訂最終協(xié)議,收購(gòu)基于Kubernetes 的工作負(fù)載管理和編排軟件供應(yīng)商Run:ai。
如今,客戶人工智能部署變得越來越復(fù)雜,工作負(fù)載分布在云、邊緣和本地?cái)?shù)據(jù)中心基礎(chǔ)設(shè)施上。管理和編排生成式人工智能、推薦系統(tǒng)、搜索引擎和其他工作負(fù)載需要復(fù)雜的調(diào)度,以優(yōu)化系統(tǒng)級(jí)別和底層基礎(chǔ)設(shè)施的性能。
而Run:ai使企業(yè)客戶能管理和優(yōu)化其計(jì)算基礎(chǔ)設(shè)施,無論是在本地、云端還是混合環(huán)境中。
該公司在Kubernetes上構(gòu)建了一個(gè)開放平臺(tái),這是現(xiàn)代人工智能和云基礎(chǔ)設(shè)施的編排層,支持所有流行的Kubernetes變體,并與第三方AI工具和框架集成。
Run:ai的客戶包括一些跨多個(gè)行業(yè)的全球最大企業(yè),這些企業(yè)使用Run:ai平臺(tái)來管理數(shù)據(jù)中心規(guī)模的GPU集群。
Run:ai聯(lián)合創(chuàng)始人兼首席執(zhí)行官Omri Geller表示:“自2020年以來,Run:ai一直與NVIDIA保持密切合作,我們都熱衷于幫助客戶充分采用基礎(chǔ)設(shè)施?!?/p>
Run:ai平臺(tái)可為人工智能開發(fā)者及其團(tuán)隊(duì)提供:
用于管理共享計(jì)算基礎(chǔ)設(shè)施的集中式界面,可以更輕松、更快速訪問復(fù)雜的人工智能工作負(fù)載。
添加用戶、在團(tuán)隊(duì)下管理用戶、提供對(duì)集群資源的訪問、控制配額、優(yōu)先級(jí)和池以及監(jiān)視和報(bào)告資源使用情況的功能。
能夠?yàn)閱为?dú)的任務(wù)匯集GPU并共享計(jì)算力(從GPU的一部分到多個(gè)GPU或運(yùn)行在不同集群的多個(gè)GPU節(jié)點(diǎn))。
高效的GPU集群資源采用,使客戶能從計(jì)算投資中獲得更多收益。
NVIDIA將在不久的將來繼續(xù)以相同的商業(yè)模式提供Run:ai的產(chǎn)品,NVIDIA將繼續(xù)投資 Run:ai產(chǎn)品路線圖,包括啟用NVIDIA DGX Cloud,該平臺(tái)可提供針對(duì)生成式AI優(yōu)化的集成全棧服務(wù)。
NVIDIA HGX、DGX和DGX Cloud客戶將能使用Run:ai AI工作負(fù)載功能,特別是大型語言模型部署。Run:ai解決方案已與NVIDIA DGX、NVIDIA DGX SuperPOD、NVIDIA Base Command、NGC容器和NVIDIA AI Enterprise軟件等產(chǎn)品集成。
NVIDIA加速計(jì)算平臺(tái)和Run:ai平臺(tái)將繼續(xù)支持廣泛的第三方解決方案生態(tài)系統(tǒng),為客戶提供選擇和靈活性。
NVIDIA與Run:ai合作,將使客戶擁有訪問GPU解決方案的單一結(jié)構(gòu),客戶可期望受益于更好的GPU利用率、改進(jìn)的GPU基礎(chǔ)設(shè)施管理以及開放架構(gòu)帶來的更大靈活性。








