
SurveyGO卷姬
SurveyGO卷姬簡介
卷姬是什么?
SurveyGO(卷姬),清華面壁智能團隊推出的ai論文寫作工具,采用LLMxMapReduce-V2技術(shù)實現(xiàn)文獻智能聚合,能根據(jù)用戶輸入主題快速生成結(jié)構(gòu)嚴謹、引用可靠的學術(shù)綜述。
為什么叫卷姬?
因SurveyGO在文獻綜述寫作方面表現(xiàn)出色,能快速處理大量文獻,如同“卷”起學術(shù)內(nèi)卷,且名字中“卷姬”發(fā)音可愛,所以被大家賦予了這個親切的外號。
卷姬核心技術(shù)
它采用了自研的LLMxMapReduce - V2技術(shù),借助文本卷積算法實現(xiàn)多篇參考文獻的聚合,代替現(xiàn)有方法中常用的檢索,從而實現(xiàn)對全部參考章節(jié)的充分利用。該技術(shù)通過以下三個階段實現(xiàn)長文本處理:
初始化階段:通過框架初始化構(gòu)建知識骨架,采用“原料初處理”策略生成結(jié)構(gòu)化摘要。
框架優(yōu)化階段:運用7層卷積神經(jīng)網(wǎng)絡結(jié)合信息熵評估,模擬“廚藝爭霸賽”式迭代優(yōu)化,經(jīng)3輪自優(yōu)化篩選出最佳知識框架。
綜述構(gòu)建階段:采用層級化內(nèi)容生成機制,確保父章節(jié)與子模塊的邏輯自洽。
卷姬技術(shù)原理
LLMxMapReduce-V2 技術(shù):用文本卷積算法聚合多篇參考文獻,類似于卷積神經(jīng)網(wǎng)絡(CNN)在圖像處理中的應用,逐步將局部信息抽象為高級全局表示。模型首先關(guān)注部分引用文章(局部信息),基于多層卷積操作,將局部信息整合成更全面的結(jié)構(gòu)化信息,例如文章的段落結(jié)構(gòu)和主題。引入信息熵估計模塊,指導卷積過程,確保在測試時縮放過程不斷提升結(jié)果的信息含量。
解決上下文長度限制:傳統(tǒng)的檢索增強生成(RAG)方法基于檢索與查詢最相關(guān)的文本片段來生成內(nèi)容,容易忽略一些雖然與主題相關(guān)但無法直接匹配語義相似度的重要內(nèi)容。基于聚合多篇文獻,而不是簡單檢索,充分用所有參考文獻的信息,避免信息丟失。
高質(zhì)量內(nèi)容生成:基于多層卷積操作,提取文獻中的關(guān)鍵信息,整合成結(jié)構(gòu)化的輸出,確保生成文章的邏輯性和連貫性。自動引用相關(guān)的文獻和資料,確保生成內(nèi)容的可信度和專業(yè)性。
評估基準:為科學評估生成文章的質(zhì)量,創(chuàng)建高質(zhì)量的調(diào)查寫作基準SurveyEval,是計算機科學領(lǐng)域首個將調(diào)查與完整參考文獻相結(jié)合的可擴展評估基準。
卷姬使用方法步驟
使用方法
普通模式:適用于快速生成框架性綜述。用戶只需輸入論文標題和關(guān)鍵詞描述(支持中英文),系統(tǒng)自動聯(lián)網(wǎng)檢索相關(guān)文獻并整合。例如輸入《老年IPF患者的治療進展》,SurveyGO會自動拆解為「老年」「IPF」等子議題,生成邏輯嚴密的2.5萬字報告。
專業(yè)模式:支持自定義素材來源,可上傳本地文獻(PDF/Word)或指定數(shù)據(jù)庫(如知網(wǎng)、arXiv),適合需要深度控制參考文獻的課題。同時,上傳文件生成的內(nèi)容可設為「不公開」,避免敏感數(shù)據(jù)泄露。
操作步驟
模式選擇:根據(jù)需求選擇普通模式或?qū)I(yè)模式,并完成相應信息填寫。
提交與等待:完成選題提交后,用戶無需任何操作即可關(guān)閉頁面。系統(tǒng)通過分布式計算框架并行處理文獻,生成時間約1小時(高峰期可能延長)。期間可隨時登錄查看進度,或在「寫作需求表」中圍觀其他用戶的選題并點贊互動。
結(jié)果獲取:生成完成后,點擊標題直接跳轉(zhuǎn)飛書文檔,內(nèi)容包含完整目錄、正文、參考文獻(文內(nèi)引用 + 文末列表),格式可直接復制到論文中。
卷姬優(yōu)勢和不足
優(yōu)勢
技術(shù)突破:采用自研LLMxMapReduce - V2技術(shù),通過文本卷積算法聚合多篇文獻,文獻利用率提升,避免傳統(tǒng)RAG技術(shù)的信息碎片化問題。
內(nèi)容質(zhì)量高:生成2.5萬字以上的長綜述,結(jié)構(gòu)層次分明(現(xiàn)象→原因→對策,宏觀→微觀),邏輯嚴謹且包含專業(yè)圖表。
多語言支持:支持中英文生成,中文報告自動梳理知識脈絡圖。
易用性高:無需復雜操作,普通/專業(yè)雙模式可選,注冊即用。
不足
自定義限制:缺乏細粒度設置(如限定引用文獻語種、排除特定來源),無法滿足高階研究者的個性化需求。
隱私風險:默認公開在線檢索生成的文章,敏感課題易被圍觀。
語言支持不均衡:中文模式含邏輯圖,英文模式無此功能。
引用可靠性:引用來源覆蓋知乎、36氪、高校論壇等平臺,時效性與相關(guān)性較高,幻覺率低,但存在少量非權(quán)威引用(如知乎匿名內(nèi)容)。
處理效率波動:高峰期需排隊,依賴用戶點贊提升優(yōu)先級。
卷姬項目地址
項目官網(wǎng):https://surveygo.thunlp.org/
GitHub倉庫:https://github.com/thunlp/LLMxMapReduce
HuggingFace模型庫:https://huggingface.co/datasets/R0k1e/SurveyEval
arXiv技術(shù)論文:https://arxiv.org/pdf/2504.05732
相關(guān)資訊: