SurveyGO卷姬
SurveyGO卷姬簡(jiǎn)介
卷姬是什么?
SurveyGO(卷姬),清華面壁智能團(tuán)隊(duì)推出的ai論文寫(xiě)作工具,采用LLMxMapReduce-V2技術(shù)實(shí)現(xiàn)文獻(xiàn)智能聚合,能根據(jù)用戶(hù)輸入主題快速生成結(jié)構(gòu)嚴(yán)謹(jǐn)、引用可靠的學(xué)術(shù)綜述。

為什么叫卷姬?
因SurveyGO在文獻(xiàn)綜述寫(xiě)作方面表現(xiàn)出色,能快速處理大量文獻(xiàn),如同“卷”起學(xué)術(shù)內(nèi)卷,且名字中“卷姬”發(fā)音可愛(ài),所以被大家賦予了這個(gè)親切的外號(hào)。
卷姬核心技術(shù)
它采用了自研的LLMxMapReduce - V2技術(shù),借助文本卷積算法實(shí)現(xiàn)多篇參考文獻(xiàn)的聚合,代替現(xiàn)有方法中常用的檢索,從而實(shí)現(xiàn)對(duì)全部參考章節(jié)的充分利用。該技術(shù)通過(guò)以下三個(gè)階段實(shí)現(xiàn)長(zhǎng)文本處理:
初始化階段:通過(guò)框架初始化構(gòu)建知識(shí)骨架,采用“原料初處理”策略生成結(jié)構(gòu)化摘要。
框架優(yōu)化階段:運(yùn)用7層卷積神經(jīng)網(wǎng)絡(luò)結(jié)合信息熵評(píng)估,模擬“廚藝爭(zhēng)霸賽”式迭代優(yōu)化,經(jīng)3輪自?xún)?yōu)化篩選出最佳知識(shí)框架。
綜述構(gòu)建階段:采用層級(jí)化內(nèi)容生成機(jī)制,確保父章節(jié)與子模塊的邏輯自洽。
卷姬技術(shù)原理
LLMxMapReduce-V2 技術(shù):用文本卷積算法聚合多篇參考文獻(xiàn),類(lèi)似于卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像處理中的應(yīng)用,逐步將局部信息抽象為高級(jí)全局表示。模型首先關(guān)注部分引用文章(局部信息),基于多層卷積操作,將局部信息整合成更全面的結(jié)構(gòu)化信息,例如文章的段落結(jié)構(gòu)和主題。引入信息熵估計(jì)模塊,指導(dǎo)卷積過(guò)程,確保在測(cè)試時(shí)縮放過(guò)程不斷提升結(jié)果的信息含量。
解決上下文長(zhǎng)度限制:傳統(tǒng)的檢索增強(qiáng)生成(RAG)方法基于檢索與查詢(xún)最相關(guān)的文本片段來(lái)生成內(nèi)容,容易忽略一些雖然與主題相關(guān)但無(wú)法直接匹配語(yǔ)義相似度的重要內(nèi)容。基于聚合多篇文獻(xiàn),而不是簡(jiǎn)單檢索,充分用所有參考文獻(xiàn)的信息,避免信息丟失。
高質(zhì)量?jī)?nèi)容生成:基于多層卷積操作,提取文獻(xiàn)中的關(guān)鍵信息,整合成結(jié)構(gòu)化的輸出,確保生成文章的邏輯性和連貫性。自動(dòng)引用相關(guān)的文獻(xiàn)和資料,確保生成內(nèi)容的可信度和專(zhuān)業(yè)性。
評(píng)估基準(zhǔn):為科學(xué)評(píng)估生成文章的質(zhì)量,創(chuàng)建高質(zhì)量的調(diào)查寫(xiě)作基準(zhǔn)SurveyEval,是計(jì)算機(jī)科學(xué)領(lǐng)域首個(gè)將調(diào)查與完整參考文獻(xiàn)相結(jié)合的可擴(kuò)展評(píng)估基準(zhǔn)。
卷姬使用方法步驟
使用方法
普通模式:適用于快速生成框架性綜述。用戶(hù)只需輸入論文標(biāo)題和關(guān)鍵詞描述(支持中英文),系統(tǒng)自動(dòng)聯(lián)網(wǎng)檢索相關(guān)文獻(xiàn)并整合。例如輸入《老年IPF患者的治療進(jìn)展》,SurveyGO會(huì)自動(dòng)拆解為「老年」「IPF」等子議題,生成邏輯嚴(yán)密的2.5萬(wàn)字報(bào)告。
專(zhuān)業(yè)模式:支持自定義素材來(lái)源,可上傳本地文獻(xiàn)(PDF/Word)或指定數(shù)據(jù)庫(kù)(如知網(wǎng)、arXiv),適合需要深度控制參考文獻(xiàn)的課題。同時(shí),上傳文件生成的內(nèi)容可設(shè)為「不公開(kāi)」,避免敏感數(shù)據(jù)泄露。
操作步驟
模式選擇:根據(jù)需求選擇普通模式或?qū)I(yè)模式,并完成相應(yīng)信息填寫(xiě)。
提交與等待:完成選題提交后,用戶(hù)無(wú)需任何操作即可關(guān)閉頁(yè)面。系統(tǒng)通過(guò)分布式計(jì)算框架并行處理文獻(xiàn),生成時(shí)間約1小時(shí)(高峰期可能延長(zhǎng))。期間可隨時(shí)登錄查看進(jìn)度,或在「寫(xiě)作需求表」中圍觀其他用戶(hù)的選題并點(diǎn)贊互動(dòng)。
結(jié)果獲取:生成完成后,點(diǎn)擊標(biāo)題直接跳轉(zhuǎn)飛書(shū)文檔,內(nèi)容包含完整目錄、正文、參考文獻(xiàn)(文內(nèi)引用 + 文末列表),格式可直接復(fù)制到論文中。
卷姬優(yōu)勢(shì)和不足
優(yōu)勢(shì)
技術(shù)突破:采用自研LLMxMapReduce - V2技術(shù),通過(guò)文本卷積算法聚合多篇文獻(xiàn),文獻(xiàn)利用率提升,避免傳統(tǒng)RAG技術(shù)的信息碎片化問(wèn)題。
內(nèi)容質(zhì)量高:生成2.5萬(wàn)字以上的長(zhǎng)綜述,結(jié)構(gòu)層次分明(現(xiàn)象→原因→對(duì)策,宏觀→微觀),邏輯嚴(yán)謹(jǐn)且包含專(zhuān)業(yè)圖表。
多語(yǔ)言支持:支持中英文生成,中文報(bào)告自動(dòng)梳理知識(shí)脈絡(luò)圖。
易用性高:無(wú)需復(fù)雜操作,普通/專(zhuān)業(yè)雙模式可選,注冊(cè)即用。
不足
自定義限制:缺乏細(xì)粒度設(shè)置(如限定引用文獻(xiàn)語(yǔ)種、排除特定來(lái)源),無(wú)法滿(mǎn)足高階研究者的個(gè)性化需求。
隱私風(fēng)險(xiǎn):默認(rèn)公開(kāi)在線(xiàn)檢索生成的文章,敏感課題易被圍觀。
語(yǔ)言支持不均衡:中文模式含邏輯圖,英文模式無(wú)此功能。
引用可靠性:引用來(lái)源覆蓋知乎、36氪、高校論壇等平臺(tái),時(shí)效性與相關(guān)性較高,幻覺(jué)率低,但存在少量非權(quán)威引用(如知乎匿名內(nèi)容)。
處理效率波動(dòng):高峰期需排隊(duì),依賴(lài)用戶(hù)點(diǎn)贊提升優(yōu)先級(jí)。
卷姬項(xiàng)目地址
項(xiàng)目官網(wǎng):https://surveygo.thunlp.org/
GitHub倉(cāng)庫(kù):https://github.com/thunlp/LLMxMapReduce
HuggingFace模型庫(kù):https://huggingface.co/datasets/R0k1e/SurveyEval
arXiv技術(shù)論文:https://arxiv.org/pdf/2504.05732
相關(guān)資訊:
提交您的產(chǎn)品
Ai應(yīng)用
Ai資訊
AI生圖
AI生視頻
FastbuildAI






