
YAYI2
YAYI2簡介
YAYI2,中科聞歌研發的一款新一代開源大語言模型,其中文名為“雅意”。該模型包含 Base 和 Chat 版本,參數規模達到 30B,基于 Transformer 架構構建。
YAYI2采用了超過 2 萬億 Tokens 的高質量、多語言語料進行預訓練。針對通用和特定領域的應用場景,我們采用了百萬級指令進行微調,同時借助人類反饋強化學習方法,以更好地使模型與人類價值觀對齊。
YAYI2雅意核心能力
中文知識問答:AGIEval、CMMLU評測第一,MMLU第二
信息抽取:零樣本中文實體抽取達SOTA,英文對標ChatGPT
多模態交互:圖文互生成、PDF解析、網頁實時理解
角色扮演:支持上萬種自定義角色,超長輪對話關聯
YAYI2雅意技術架構
300億參數規模,支持128k超長上下文(約20萬字文本處理)
從頭預訓練實現,全自主知識產權,兼容華為昇騰等國產GPU
訓練數據包含2.65萬億Tokens,源自200TB原始數據經1000多道清洗工序提煉
支持中英等10+語言,中文Token壓縮率國內領先
YAYI2雅意行業應用
YAYI 2 在多個垂直領域展現出非常的能力,包括媒體宣傳、輿情分析、政務治理、金融分析等。此外,它還被應用于教育、財稅、中醫藥、金融等領域,為企業提供 ai 輔助工具、知識庫問答系統、AI 創作機器人等解決方案。
相較于Llama 2開源模型,YAYI 2在中文場景表現更好,且通過插件就可以實現計算器、天氣查詢等工具的調用。其安全架構強化價值觀對齊,輸出內容經過實時審核,適合政企敏感場景。YAYI目前已在國家部委、金融機構等落地,與華為云、北京銀行等建立生態合作。
YAYI 2 提供了 Base 和 Chat 兩個版本,開源的是 Base 版本,支持開發者在 GitHub 上獲取代碼、模型和訓練數據。此外,該模型遵循 Apache-2.0 協議,允許商用和二次開發。
GitHub 倉庫:https://github.com/wenge-research/YAYI2
HuggingFace:https://huggingface.co/wenge-research/yayi2-30b