Mercury:首個商用級別擴散大型語言模型(dLLM)
Mercury是什么?
Mercury是由創業公司Inception Labs推出的首個商用級別擴散大型語言模型(dLLM)。在Copilot Arena基準測試中,Mercury Coder速度超過了包括GPT-4o Mini和Claude 3.5 Haiku等多個現有模型。 在實際應用中,Mercury Coder能夠以極快的速度生成高質量的代碼。
技術原理
擴散模型:Mercury采用擴散模型技術,與傳統自回歸模型不同,它通過“從粗到細”的生成過程,從純噪聲開始,通過多個去噪步驟逐步生成有意義的文本。
并行生成:利用GPU的并行生成機制,Mercury能夠在生成文本時同時修改多個token,從而顯著提高生成速度和效率。
創新點
速度優勢:Mercury在NVIDIA H100上能以每秒超過1000 token的速度運行,比現有的經過速度優化的LLM快5到10倍。
成本效益:通過新的語言生成方法,Mercury將推理成本降低了10倍,同時保持了與前沿模型相當的性能。
糾錯能力:擴散模型的特性使得Mercury能夠在生成過程中不斷改進輸出,糾正錯誤和幻覺。
Mercury功能特征
擴散模型技術:Mercury采用擴散模型,通過“從粗到細”的生成過程,從純噪聲開始,逐步生成有意義的文本。
并行生成:利用GPU的并行生成機制,Mercury能夠在生成文本時同時修改多個token,顯著提高生成速度和效率。
速度優勢:在NVIDIA H100上能以每秒超過1000 token的速度運行,比現有的經過速度優化的LLM快5到10倍。
成本效益:通過新的語言生成方法,Mercury將推理成本降低了10倍,同時保持了與前沿模型相當的性能。
糾錯能力:擴散模型的特性使得Mercury能夠在生成過程中不斷改進輸出,糾正錯誤和幻覺。
Mercury應用
編程與代碼生成:Mercury Coder專門為代碼生成進行了優化,在標準編碼基準測試中表現優異,速度比傳統模型快10倍以上。
Agent應用:Mercury的高速度和效率使其在需要大量規劃和長篇生成的應用中表現出色,如智能客服、代碼助手等。
邊緣應用:由于其高效性,Mercury在資源受限的環境中也能表現出色,如手機或筆記本電腦上的應用。
高級推理:Mercury可以利用錯誤修正來修復幻覺并提升回答質量,適用于需要深度推理的任務。
可控生成:Mercury可以編輯輸出內容,按任意順序生成詞,適用于需要靈活生成內容的場景。
Mercury如何使用?
安裝與配置:Mercury Coder已上線,可公開試用。用戶可以通過Inception Labs提供的playground體驗其功能,或通過API和內部部署服務進行企業級應用。
體驗與測試:用戶可以在Inception Labs的官方網站上體驗Mercury Coder的強大能力,輸入代碼需求,即時生成高質量的代碼。
在線體驗:https://chat.inceptionlabs.ai/
官方介紹:https://www.inceptionlabs.ai/news