市場動態 生活 網路

微軟提出規模僅38億組參數、可在行動裝置更快運作的自然語言模型Phi-3 Mini
接下來更計畫推出Phi-3 Small、Phi-3 Medium

在諸多科技業者均提出可用於行動裝置上執行的大型自然語言模型之後,微軟研究人員提出名為Phi-3 Mini、規模更小的大型自然語言模型,僅以38億組參數規模運作。

微軟提出規模僅38億組參數、可在行動裝置更快運作的自然語言模型Phi-3 Mini<br><span style='color:#848482;font-size:16px;'>接下來更計畫推出Phi-3 Small、Phi-3 Medium</span>, mashdigi-科技、新品、趣聞、趨勢

微軟研究人員表示,Phi-3 Mini相比先前推出的Phi-2參數規模更大一些,同時運作效能可比擬Meta提出的大型自然語言模型Llama 2,本身基於Phi-2模型設計,並且以嚴格過濾的網路數據與合成數據進行訓練,同時僅以38億組參數執行運作,能在行動裝置上以更輕巧形式使用。

而Phi-3 Mini的設計靈感來自兒童讀物,透過更簡單、容易理解語言描述複雜主題,讓人工智慧能更快知曉實際執行需求。

雖然微軟強調Phi-3 Mini運作效能可比擬Llama 2,但整體運作效能仍無法與搭配網路協同運作的大型自然語言模型實際表現,香在數學計算、程式編寫與學術相關測試仍可超越Phi-2,以及包含Mistral、Gemma、Llama-3-In等規模較小的自然語言模型。

不過,由於本身對應參數規模較小,因此Phi-3 Mini對於處理涉及即時、事實相關知識的廣度相對較差,但優點在於可在行動裝置端有更好的執行效率表現。

微軟目前已經透過自身Azure雲端服務平台,並且藉由Hugging Face、Ollama等託管平台提供Phi-3 Mini模型,接下來更計畫推出數據規模達70億組的Phi-3 Small,以及參數規模達140億組的Phi-3 Medium。

楊又肇 (Mash Yang)
mashdigi.com網站創辦人兼主筆,同時也是科技新聞業學習者。

發表迴響

這個網站採用 Akismet 服務減少垃圾留言。進一步了解 Akismet 如何處理網站訪客的留言資料