把整座“文档图书馆”装进 AI 大脑:WeKnora 使用指南与场景实战
“
你手边是否有一大堆 PDF、Word、扫描图片或技术手册,却苦于找不到想要的那一段?
本文用通俗语言带你认识 WeKnora(中文名“维娜拉”)——一个能把任意文档变成可对话知识的 AI 框架。读完即可动手部署、上传文件、提问并得到精准回答。
一、WeKnora 是什么?三分钟速览
关键词 | 一句话解释 |
---|---|
大模型 | 用类 GPT 的语言模型理解你的问题并生成答案 |
RAG | Retrieval-Augmented Generation,先检索、再生成,回答更精准 |
多模态 | 同时处理文字、图片、表格,甚至扫描件 |
私有化 | 可完全离线运行,数据不出内网 |
一句话总结:
WeKnora = 文档解析器 + 向量搜索引擎 + 大语言模型,开箱即用,支持本地或 Docker 一键启动。
二、架构图一目了然

-
文档解析层:把 PDF、Word、图片拆成段落,OCR 识别文字。 -
向量化层:调用 BGE、GTE 等模型把段落转成数学向量,存进 pgvector 或 Elasticsearch。 -
检索层:关键词、向量、知识图谱三路召回,互补短板。 -
大模型层:Qwen、DeepSeek 等模型读取最相关片段,生成自然语言答案。
三、核心特性拆给你看
特性 | 日常用语解释 | 你给领导汇报时可用的词 |
---|---|---|
精准理解 | 扫描合同也能读条款 | 多模态结构化解析 |
智能推理 | 支持追问、澄清、多轮对话 | 上下文感知问答 |
灵活扩展 | 想换向量模型?一行配置 | 模块化可插拔 |
高效检索 | 秒级返回 10 个最相关段落 | 混合检索策略 |
简单易用 | 上传文件即可问 | 零代码知识库 |
安全可控 | 断网也能跑 | 私有化部署 |
四、适用场景:把痛点翻译成收益
你是谁 | 常见痛点 | 用 WeKnora 后的收益 |
---|---|---|
企业知识库管理员 | 新人培训资料散落各处 | “公司年假几天?”直接问 AI,答案带原文链接 |
科研人员 | 读论文像大海捞针 | 输入“图 3 的方法复现步骤”,AI 给出对应段落 |
售后工程师 | 客户问题重复又细碎 | 把产品手册扔进去,AI 先挡 80% 咨询 |
法务 | 合同里找不到赔偿条款 | 输入“违约金上限”,秒定位条款 |
医生 | 诊疗指南版本太多 | 用自然语言问“最新糖尿病诊断标准”,AI 给摘要 |
五、功能模块速查表
功能 | 支持情况 | 备注 |
---|---|---|
文档格式 | ✅ PDF / Word / Txt / Markdown / 图片 | OCR + Caption |
嵌入模型 | ✅ 本地、BGE、GTE API | 可自定义 |
向量数据库 | ✅ PostgreSQL pgvector、Elasticsearch | 一键切换 |
检索策略 | ✅ BM25 + Dense + GraphRAG | 自由组合 |
大模型 | ✅ Qwen、DeepSeek | 支持本地 Ollama |
问答能力 | ✅ 多轮对话、提示词模板 | 可配置上下文长度 |
测试与评估 | ✅ 可视化链路追踪 | 支持 BLEU/ROUGE |
部署方式 | ✅ Docker 镜像、本地裸机 | 离线可跑 |
用户界面 | ✅ Web 界面 + RESTful API | 适合业务与开发者 |
六、快速开始:从 0 到提问只需 5 分钟
1. 准备环境
确保电脑已装:
2. 克隆并启动
# 克隆
git clone https://github.com/Tencent/WeKnora.git
cd WeKnora
# 复制配置
cp .env.example .env
# 用文本编辑器打开 .env,按需填写(一般默认即可)
# 一键启动
./scripts/start_all.sh
# 或用 make
make start-all
看到终端提示 All services healthy
即成功。
3. 打开浏览器
服务 | 地址 | 用途 |
---|---|---|
Web 界面 | http://localhost | 上传文档、提问 |
后端 API | http://localhost:8080 | 二次开发 |
链路追踪 | http://localhost:16686 | 观察检索细节 |

4. 上传第一篇文档
-
拖拽 PDF 到“知识上传”区域 -
系统会显示“解析中 → 向量化 → 完成” -
平均 10 页论文约 30 秒完成
5. 提第一个问题
在问答框输入:“这篇论文的创新点是什么?”
AI 会返回带页码的引用段落,右侧还有原文缩略图。
七、微信生态:零代码最快路径
如果你不想自己搭服务器,WeKnora 已接入微信对话开放平台:
-
打开 chatbot.weixin.qq.com -
注册账号 → 创建机器人 → 选择“知识问答” -
上传文档 → 系统自动用 WeKnora 内核完成解析 -
在公众号或小程序里,用户直接提问即可
八、知识图谱:把文档“画”成脑图
开启知识图谱后,WeKnora 会把段落之间的引用、因果、并列关系绘成图:
好处:
-
一眼看出“章节 3.2 被结论引用了 5 次” -
点击节点可跳转原文 -
为后续问答提供更丰富上下文
九、FAQ:你最可能问的 10 个问题
Q1:需要 GPU 吗?
A:推理阶段可选。用本地 Ollama + Qwen-7B,4 核 CPU 也能跑;追求速度可加一张 8 GB 显存的显卡。
Q2:数据会不会泄露?
A:完全离线部署时,数据只在内网硬盘。Docker 镜像可拉取后断网运行。
Q3:支持中文合同里的表格吗?
A:支持。表格会被解析成 Markdown 格式,再向量化检索,问答时能精确到“表 2-1 第三行”。
Q4:可以集成到公司现有系统吗?
A:提供 RESTful API,任何语言都可调用。返回 JSON 含答案、置信度、原文片段与页码。
Q5:如何更新知识库?
A:Web 界面支持“增量上传”。同名文件会覆盖旧版本,向量库自动更新。
Q6:是否支持权限管理?
A:开源版提供最基础的登录验证;企业版可对接 LDAP、OAuth2。
Q7:检索命中率低怎么办?
A:先在“链路追踪”里查看召回片段,如果相关度低,可调 BM25 权重或换 embedding 模型。
Q8:可以只搜索标题不搜索正文吗?
A:可以。检索策略支持“标题加权”,在配置文件里把 title_weight 调高即可。
Q9:Docker 镜像多大?
A:完整镜像约 6 GB,含 Ollama+模型;如果自行托管模型,可缩减到 1.2 GB。
Q10:许可证允许商用吗?
A:MIT 许可证,可商用,只需保留原始版权声明。
十、开发者指南:如何二开或贡献
目录结构速读
WeKnora/
├── cmd/ # 启动入口
├── internal/ # 核心业务
├── config/ # 配置文件
├── migrations/ # 数据库脚本
├── scripts/ # 一键启停
├── services/ # 子服务
├── frontend/ # Vue 前端
└── docs/ # 接口文档
常用命令
# 清空数据库(开发测试用)
make clean-db
# 单独重启检索服务
docker compose restart retrieval
# 查看实时日志
docker compose logs -f llm
贡献流程(写给想提 PR 的你)
-
Fork 项目 → 创建 feature 分支 -
代码格式用 gofmt
自动整理 -
写单元测试,覆盖核心逻辑 -
提交信息用 Conventional Commits
例:feat: add batch upload UI
-
提交 Pull Request,社区 Code Review 通过后合并
十一、真实案例 3 则
案例 1:某券商合规部
背景:每月需核对 2000 份资管合同中的“风险揭示条款”。
做法:
-
将所有 PDF 上传到 WeKnora -
写提示词模板:“找出风险揭示条款并总结 3 条核心内容” -
用 API 批量跑,30 分钟完成原本 3 人天的工作量
案例 2:高校课题组
背景:新生研读 100 篇深度学习论文。
做法:
-
把论文打包上传 -
建微信群机器人,学生问“图 4 的网络结构如何复现” -
回答附页码,学生可一键跳原文
案例 3:制造业售后
背景:设备故障手册 8000 页,客服查找慢。
做法:
-
手册分章节上传 -
客户报修“电机异响”,客服输入症状 -
AI 返回“第 5.3.2 章 图 5-7 轴承润滑检查步骤”
十二、下一步可以做什么?
-
微调 embedding:用领域语料训练更适配的向量模型,提升检索精度 5–15%。 -
接入企业微信:通过开放平台机器人,把知识库直接装进企业微信聊天窗口。 -
做离线 Demo U 盘:把镜像、模型、前端打包进 32 GB U 盘,插入笔记本即可演示。
十三、结语
WeKnora 让“文档”不再是一堆沉睡的文件,而成为随时可对话的知识库。
无论你是开发者、研究员还是业务人员,只需一条命令即可启动,然后像聊天一样查询任何细节。
现在就打开终端,输入:
git clone https://github.com/Tencent/WeKnora.git
./scripts/start_all.sh
把第一份 PDF 拖进去,向它提一个问题——
你会发现,知识从未如此触手可及。