英偉達推出全新AI模型,性能表現(xiàn)優(yōu)于GPT-4

?? 由 文心大模型 生成的文章摘要

英偉達悄然發(fā)布了一款全新人工智能模型,其性能表現(xiàn)優(yōu)于OpenAI和Anthropic的產(chǎn)品,標志著該公司人工智能戰(zhàn)略的重大轉(zhuǎn)變,并可能重塑該領(lǐng)域的競爭格局。

該模型名為“Llama-3.1-Nemotron-70B-Instruct”,低調(diào)亮相于熱門人工智能平臺Hugging Face,并因其在多項基準測試中的出色表現(xiàn)而迅速引起人們的關(guān)注。

英偉達稱,新產(chǎn)品在關(guān)鍵評估中取得了最高分,包括Arena Hard基準測試85.0分、AlpacaEval 2 LC 57.6分和GPT-4-Turbo MT-Bench 8.98分。

這些分數(shù)超過了GPT-4o和Claude 3.5 Sonnet等備受推崇的模型,使英偉達躍居AI語言理解和生成的前沿。

此次發(fā)布對英偉達來說是一個關(guān)鍵時刻。該公司主要以圖形處理單元主導地位而聞名,GPU為AI系統(tǒng)提供支持,現(xiàn)在該公司展示了其開發(fā)復(fù)雜AI軟件的能力。此舉標志著一項戰(zhàn)略擴張,可能會改變AI行業(yè)的動態(tài),挑戰(zhàn)以軟件為中心的公司在大型語言模型開發(fā)領(lǐng)域的傳統(tǒng)主導地位。

英偉達創(chuàng)建Llama-3.1-Nemotron-70B-Instruct的方法包括使用先進的訓練技術(shù)(包括從人類反饋中進行強化學習來改進Meta開源Llama 3.1模型。這種方法允許人工智能從人類偏好中學習,從而可能帶來更自然、更符合情境的響應(yīng)。

憑借其卓越的性能,該型號有可能為企業(yè)提供比市場上一些最先進型號更強大、更具成本效益的替代方案。

該模型無需額外提示或?qū)iT的標記即可處理復(fù)雜查詢,這是它與眾不同之處。在演示中,該模型正確回答了“Strawberry中有多少個r?”這個問題,并給出了詳細而準確的回答,展示了對語言的細致理解和提供清晰解釋的能力。

這些結(jié)果之所以特別重要,是因為我們強調(diào)“一致性”,這是人工智能研究中的一個術(shù)語,指的是模型的輸出與用戶的需求和偏好的匹配程度。對于企業(yè)來說,這意味著更少的錯誤、更多有用的響應(yīng),以及最終更高的客戶滿意度。

「93913原創(chuàng)內(nèi)容,轉(zhuǎn)載請注明出處」