把整座“文档图书馆”装进 AI 大脑:WeKnora 使用指南与场景实战

你手边是否有一大堆 PDF、Word、扫描图片或技术手册,却苦于找不到想要的那一段?
本文用通俗语言带你认识 WeKnora(中文名“维娜拉”)——一个能把任意文档变成可对话知识的 AI 框架。读完即可动手部署、上传文件、提问并得到精准回答。


一、WeKnora 是什么?三分钟速览

关键词 一句话解释
大模型 用类 GPT 的语言模型理解你的问题并生成答案
RAG Retrieval-Augmented Generation,先检索、再生成,回答更精准
多模态 同时处理文字、图片、表格,甚至扫描件
私有化 可完全离线运行,数据不出内网

一句话总结:
WeKnora = 文档解析器 + 向量搜索引擎 + 大语言模型,开箱即用,支持本地或 Docker 一键启动。


二、架构图一目了然

pipeline
  1. 文档解析层:把 PDF、Word、图片拆成段落,OCR 识别文字。
  2. 向量化层:调用 BGE、GTE 等模型把段落转成数学向量,存进 pgvector 或 Elasticsearch。
  3. 检索层:关键词、向量、知识图谱三路召回,互补短板。
  4. 大模型层:Qwen、DeepSeek 等模型读取最相关片段,生成自然语言答案。

三、核心特性拆给你看

特性 日常用语解释 你给领导汇报时可用的词
精准理解 扫描合同也能读条款 多模态结构化解析
智能推理 支持追问、澄清、多轮对话 上下文感知问答
灵活扩展 想换向量模型?一行配置 模块化可插拔
高效检索 秒级返回 10 个最相关段落 混合检索策略
简单易用 上传文件即可问 零代码知识库
安全可控 断网也能跑 私有化部署

四、适用场景:把痛点翻译成收益

你是谁 常见痛点 用 WeKnora 后的收益
企业知识库管理员 新人培训资料散落各处 “公司年假几天?”直接问 AI,答案带原文链接
科研人员 读论文像大海捞针 输入“图 3 的方法复现步骤”,AI 给出对应段落
售后工程师 客户问题重复又细碎 把产品手册扔进去,AI 先挡 80% 咨询
法务 合同里找不到赔偿条款 输入“违约金上限”,秒定位条款
医生 诊疗指南版本太多 用自然语言问“最新糖尿病诊断标准”,AI 给摘要

五、功能模块速查表

功能 支持情况 备注
文档格式 ✅ PDF / Word / Txt / Markdown / 图片 OCR + Caption
嵌入模型 ✅ 本地、BGE、GTE API 可自定义
向量数据库 ✅ PostgreSQL pgvector、Elasticsearch 一键切换
检索策略 ✅ BM25 + Dense + GraphRAG 自由组合
大模型 ✅ Qwen、DeepSeek 支持本地 Ollama
问答能力 ✅ 多轮对话、提示词模板 可配置上下文长度
测试与评估 ✅ 可视化链路追踪 支持 BLEU/ROUGE
部署方式 ✅ Docker 镜像、本地裸机 离线可跑
用户界面 ✅ Web 界面 + RESTful API 适合业务与开发者

六、快速开始:从 0 到提问只需 5 分钟

1. 准备环境

确保电脑已装:

2. 克隆并启动

# 克隆
git clone https://github.com/Tencent/WeKnora.git
cd WeKnora

# 复制配置
cp .env.example .env
# 用文本编辑器打开 .env,按需填写(一般默认即可)

# 一键启动
./scripts/start_all.sh
# 或用 make
make start-all

看到终端提示 All services healthy 即成功。

3. 打开浏览器

服务 地址 用途
Web 界面 http://localhost 上传文档、提问
后端 API http://localhost:8080 二次开发
链路追踪 http://localhost:16686 观察检索细节
knowledges

4. 上传第一篇文档

  • 拖拽 PDF 到“知识上传”区域
  • 系统会显示“解析中 → 向量化 → 完成”
  • 平均 10 页论文约 30 秒完成

5. 提第一个问题

在问答框输入:“这篇论文的创新点是什么?”
AI 会返回带页码的引用段落,右侧还有原文缩略图。


七、微信生态:零代码最快路径

如果你不想自己搭服务器,WeKnora 已接入微信对话开放平台:

  1. 打开 chatbot.weixin.qq.com
  2. 注册账号 → 创建机器人 → 选择“知识问答”
  3. 上传文档 → 系统自动用 WeKnora 内核完成解析
  4. 在公众号或小程序里,用户直接提问即可

八、知识图谱:把文档“画”成脑图

开启知识图谱后,WeKnora 会把段落之间的引用、因果、并列关系绘成图:

graph2
graph1

好处:

  • 一眼看出“章节 3.2 被结论引用了 5 次”
  • 点击节点可跳转原文
  • 为后续问答提供更丰富上下文

九、FAQ:你最可能问的 10 个问题

Q1:需要 GPU 吗?
A:推理阶段可选。用本地 Ollama + Qwen-7B,4 核 CPU 也能跑;追求速度可加一张 8 GB 显存的显卡。

Q2:数据会不会泄露?
A:完全离线部署时,数据只在内网硬盘。Docker 镜像可拉取后断网运行。

Q3:支持中文合同里的表格吗?
A:支持。表格会被解析成 Markdown 格式,再向量化检索,问答时能精确到“表 2-1 第三行”。

Q4:可以集成到公司现有系统吗?
A:提供 RESTful API,任何语言都可调用。返回 JSON 含答案、置信度、原文片段与页码。

Q5:如何更新知识库?
A:Web 界面支持“增量上传”。同名文件会覆盖旧版本,向量库自动更新。

Q6:是否支持权限管理?
A:开源版提供最基础的登录验证;企业版可对接 LDAP、OAuth2。

Q7:检索命中率低怎么办?
A:先在“链路追踪”里查看召回片段,如果相关度低,可调 BM25 权重或换 embedding 模型。

Q8:可以只搜索标题不搜索正文吗?
A:可以。检索策略支持“标题加权”,在配置文件里把 title_weight 调高即可。

Q9:Docker 镜像多大?
A:完整镜像约 6 GB,含 Ollama+模型;如果自行托管模型,可缩减到 1.2 GB。

Q10:许可证允许商用吗?
A:MIT 许可证,可商用,只需保留原始版权声明。


十、开发者指南:如何二开或贡献

目录结构速读

WeKnora/
├── cmd/         # 启动入口
├── internal/    # 核心业务
├── config/      # 配置文件
├── migrations/  # 数据库脚本
├── scripts/     # 一键启停
├── services/    # 子服务
├── frontend/    # Vue 前端
└── docs/        # 接口文档

常用命令

# 清空数据库(开发测试用)
make clean-db

# 单独重启检索服务
docker compose restart retrieval

# 查看实时日志
docker compose logs -f llm

贡献流程(写给想提 PR 的你)

  1. Fork 项目 → 创建 feature 分支
  2. 代码格式用 gofmt 自动整理
  3. 写单元测试,覆盖核心逻辑
  4. 提交信息用 Conventional Commits
    例:feat: add batch upload UI
  5. 提交 Pull Request,社区 Code Review 通过后合并

十一、真实案例 3 则

案例 1:某券商合规部

背景:每月需核对 2000 份资管合同中的“风险揭示条款”。
做法

  • 将所有 PDF 上传到 WeKnora
  • 写提示词模板:“找出风险揭示条款并总结 3 条核心内容”
  • 用 API 批量跑,30 分钟完成原本 3 人天的工作量

案例 2:高校课题组

背景:新生研读 100 篇深度学习论文。
做法

  • 把论文打包上传
  • 建微信群机器人,学生问“图 4 的网络结构如何复现”
  • 回答附页码,学生可一键跳原文

案例 3:制造业售后

背景:设备故障手册 8000 页,客服查找慢。
做法

  • 手册分章节上传
  • 客户报修“电机异响”,客服输入症状
  • AI 返回“第 5.3.2 章 图 5-7 轴承润滑检查步骤”

十二、下一步可以做什么?

  • 微调 embedding:用领域语料训练更适配的向量模型,提升检索精度 5–15%。
  • 接入企业微信:通过开放平台机器人,把知识库直接装进企业微信聊天窗口。
  • 做离线 Demo U 盘:把镜像、模型、前端打包进 32 GB U 盘,插入笔记本即可演示。

十三、结语

WeKnora 让“文档”不再是一堆沉睡的文件,而成为随时可对话的知识库。
无论你是开发者、研究员还是业务人员,只需一条命令即可启动,然后像聊天一样查询任何细节。

现在就打开终端,输入:

git clone https://github.com/Tencent/WeKnora.git
./scripts/start_all.sh

把第一份 PDF 拖进去,向它提一个问题——
你会发现,知识从未如此触手可及