微軟推出Phi-3,迄今為止最小的人工智能模型

?? 由 文心大模型 生成的文章摘要

微軟推出了輕量級人工智能模型Phi-3 Mini下一版本,這是該公司計劃發(fā)布的三個小型模型中的第一個。

Phi-3 Mini可測量38億個參數(參數是指模型可以理解多少復雜指令),并在相對于GPT-4等大型語言模型更小的數據集上進行訓練。Phi-3 Min已在Azure、Hugging Face和Ollama上提供,微軟計劃發(fā)布Phi-3 Small(7B參數)和Phi-3 Medium(14B參數)。

微軟于12月發(fā)布了Phi-2,其性能與Llama 2等更大的模型一致。微軟表示,Phi-3的性能比之前的版本更先進,并且可以提供接近于比它大10倍模型的響應。

微軟Azure AI平臺公司副總裁Eric Boyd表示,Phi-3 Mini與GPT-3.5等LLM一樣性能強大,“只是體積更小”。

與大型人工智能模型相比,小型人工智能模型通常運行成本更低,并且在手機和筆記本電腦等個人設備上表現更好。The Information今年早些時候報道稱,微軟正在組建一個專注于輕量級人工智能模型的團隊。除了Phi,微軟還構建了Orca-Math,專注于解決數學問題的模型。

值得一提的是,微軟競爭對手也有小型人工智能模型,其中大多數針對更簡單的任務,例如文檔摘要或編碼輔助。谷歌Gemma 2B和7B非常適合簡單的聊天機器人和語言相關處理;Anthropic Claude 3 Haiku可閱讀帶有圖表的密集研究論文并快速總結,而Meta最近發(fā)布的 Llama 3 8B可用于聊天機器人和編碼輔助。

Boyd表示,開發(fā)者通過“課程”對Phi-3進行了培訓,靈感來自于孩子們如何從睡前故事、單詞更簡單的書籍以及談論更大主題的句子結構中學習。

“市面上沒有足夠的兒童讀物,因此我們列出了3000多個單詞的清單,以制作‘兒童讀物’LLM來訓練Phi。”

Boyd補充,Phi-3建立在之前迭代知識之上。Phi-1專注于編碼,Phi-2學習推理,而Phi-3更擅長編碼和推理。雖然Phi-3系列模型了解一些常識,但它還無法在廣度上擊敗GPT-4或其他LLM,通過互聯網培訓的LLM獲得的答案與像Phi-3這樣的較小模型所得到的答案有很大不同。

「93913原創(chuàng)內容,轉載請注明出處」