langchain推出mcpdoc:通過解析llms.txt文件提取信息,解決信息過載不準確問題
MCPdoc是什么?
mcpdoc 是 LangChain 推出的一個可以通過 MCP服務器,將 llms.txt 文件的內容以編程開發工具的形式暴露給集成開發環境或其他應用程序,解決信息過載/不完整/不準確的問題,幫Ai助手理解復雜的框架文檔,為開發者提供更高效、更透明的開發體驗。
mcpdoc原理
mcpdoc 的核心是 MCP 服務器,它負責索引和管理 LLMs 的配置信息,并向 IDE 和其他應用程序提供上下文數據。應用程序根據當前開發環境和代碼上下文,通過 API 調用向 MCP 服務器請求相關的 LLM 配置信息。
mcpdoc核心功能
提供 llms.txt 文件的訪問接口:llms.txt 是一個為 LLMs(Large Language Models,大型語言模型)提供上下文信息的文件,它包含了背景信息、指導內容以及指向詳細文檔的鏈接。mcpdoc 通過 MCP 服務器,將這些信息以標準化的方式提供給 IDEs 或其他應用程序。
支持多種文檔來源:用戶可以通過多種方式指定 llms.txt 文件的來源,包括直接指定 URL、使用 YAML 配置文件或 JSON 配置文件。
增強開發工具的上下文理解能力:通過 MCP 服務器,IDEs 或其他應用程序可以動態獲取和解析 llms.txt 文件中的內容,從而為開發者提供更豐富的上下文信息,幫助他們更好地理解和使用 LLMs。
審計和控制工具調用:與直接使用內置工具讀取和處理 llms.txt 文件相比,mcpdoc 允許用戶審計每次工具調用以及返回的上下文內容,從而提供更高的透明度和控制力。
mcpdoc應用場景
集成開發環境(IDEs):例如 Cursor、Windsurf 等 IDEs 可以通過 mcpdoc 提供的 MCP 服務器,動態獲取 llms.txt 文件中的上下文信息,從而為開發者提供更智能的代碼輔助功能。
AI 輔助開發工具:像 Claude Code/Desktop 等工具可以利用 mcpdoc 提供的上下文信息,為開發者提供更準確的代碼建議和文檔支持。
文檔生成與管理:mcpdoc 可以幫助開發者自動生成和管理與代碼相關的文檔,減少手動編寫和維護文檔的工作量。
mcpdoc使用方法
安裝
首先需要安裝 uv 工具,可以通過以下命令安裝:
curl -LsSf https://astral.sh/uv/install.sh | sh
啟動 MCP 服務器
可以通過以下命令啟動 mcpdoc 服務器,指定 llms.txt 文件的來源:
uvx --from mcpdoc mcpdoc \ --urls "LangGraph:https://langchain-ai.github.io/langgraph/llms.txt" "LangChain:https://python.langchain.com/llms.txt" \ --transport sse \ --port 8082 \ --host localhost
--urls 參數用于指定 llms.txt 文件的來源,可以指定多個 URL。
--transport 參數指定通信方式,例如 sse(Server-Sent Events)。
--port 和 --host 參數用于指定服務器的端口和主機地址。
Github項目:https://github.com/langchain-ai/mcpdoc