🔍 工具核心优势
- 完全本地化部署:基于Ollama框架运行本地大语言模型(LLM)
- 智能迭代研究:3轮自动优化搜索策略(可配置MAX_WEB_RESEARCH_LOOPS)
- 多引擎支持:默认DuckDuckGo,可选Tavily/Perplexity专业搜索API
- 可视化流程:通过LangGraph Studio实时监控研究进程
- 学术级输出:自动生成带完整引用的Markdown报告
🛠️ 五分钟快速上手(Mac/Windows双平台)
环境准备三步骤
-
安装Ollama核心
官方下载页面选择对应系统版本ollama pull deepseek-r1:8b # 推荐兼容JSON输出的模型
-
配置搜索引擎
cp .env.example .env # 按需设置TAVILY_API_KEY/PERPLEXITY_API_KEY
-
启动研究服务器
powershell<br />uvx --refresh --from "langgraph-cli[inmem]" langgraph dev # Mac<br />pip install -e . && langgraph dev # Windows<br />
💡 高级功能解析
可视化研究流程(LangGraph Studio)
访问https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024
可实时查看:
- 知识图谱构建过程
- 每轮迭代的搜索结果
- 最终研究报告生成状态
Docker容器化部署技巧
docker run -p 2024:2024 -e SEARCH_API="tavily" \
-e TAVILY_API_KEY="your_key" ollama-deep-researcher
注意:需单独配置OLLAMA_BASE_URL指向本地服务
⚠️ 常见问题解决方案
JSON输出异常处理
- 推荐模型:Llama3.2/DeepSeek R1(8B)
- 避坑指南:避免使用DeepSeek R1(7B)等不兼容模型
- 错误排查:GitHub Issue#18
浏览器兼容性优化
- 首选Firefox访问LangGraph Studio
- Safari用户需关闭”阻止跨站跟踪”设置
- 检查控制台错误日志定位问题
🚀 企业级部署方案
通过LangChain Academy Module6实现:
- 多节点分布式部署
- 研究任务队列管理
- 自动化报告生成系统
📚 扩展资源
立即体验智能研究革命:
GitHub仓库 | Docker镜像库 | 官方文档
“`