微信公众号自动运营系统:一篇让专科生也能上手的全指南
写在前面:如果你已经用 Docker 部署过博客、用过 GPT 写周报,这篇文章会让你少走三天弯路;如果你连 Flask 都没碰过,跟着“一步一步”做也能把这套系统跑起来。整篇内容只来自官方 README,没有一句外部信息。
目录
-
这套系统到底能替我做什么? -
先别急着装!你的机器够格吗? -
最快 15 分钟上线:一键部署流程 -
手动部署:想省资源、想改代码,看这里 -
第一次登录后必须做的 3 件事 -
日常运营 4 步循环:写、改、排、看数据 -
常见疑问 10 连答(FAQ) -
扩展玩法:插件、模板、集群 -
备份、升级、故障排查清单 -
结尾:把省下来的时间用在选题上
1. 这套系统到底能替我做什么?
功能 | 一句话解释 | 典型场景 |
---|---|---|
AI 内容生成 | 输入主题→AI 写草稿→人工微调 | 临时缺稿、热点跟进 |
智能爬虫改写 | 把同行文章爬下来→AI 重写→去重 | 行业日报、资讯汇总 |
图片自动生成 | 输入标题→DALL-E / SD 出封面 | 不会 PS 也能出图 |
Markdown 转公众号格式 | 复制 Markdown→自动排版→可直接群发 | 技术博客搬运 |
定时发布 | 像闹钟一样到点推送 | 节假日排程 |
数据面板 | 阅读量、点赞、分享图表化 | 月底汇报 |
一句话总结:把“写、排、发、看”四步里机械的部分全部自动化,人只做选题与微调。
2. 先别急着装!你的机器够格吗?
项目 | 最低 | 推荐 |
---|---|---|
Docker | 20.10+ | 24.x |
Docker Compose | 2.0+ | 2.20+ |
CPU | 2 核 | 4 核 |
内存 | 4 GB | 8 GB |
硬盘 | 20 GB 空闲 | 50 GB SSD |
网络 | 能连 GitHub 和 OpenAI | 带科学上网更佳 |
没有域名也能跑,本地 localhost
即可;生产环境建议备案域名+HTTPS。
3. 最快 15 分钟上线:一键部署流程
适合场景:个人号、测试号、不想折腾命令行。
步骤列表
-
克隆仓库 git clone https://github.com/Canqiang/wechat-auto-publisher.git cd wechat-auto-publisher
-
一键初始化 chmod +x scripts/init-project.sh ./scripts/init-project.sh
脚本会自动创建目录、生成自签名 SSL、拉镜像。
-
改配置 cp .env.example .env nano .env
至少填这三行:
OPENAI_API_KEY=sk-xxx WECHAT_APP_ID=wx1234567890 WECHAT_APP_SECRET=xxxx
-
启动 docker-compose up -d
-
浏览器打开 https://localhost
默认账号admin / admin123
,立刻改掉!
4. 手动部署:想省资源、想改代码,看这里
适合场景:已有 PostgreSQL、想用自己的 Nginx、或者 ARM 机器。
-
手动创建目录 mkdir -p data/{logs,images,uploads} ssl
-
生成 SSL(测试用) ./scripts/generate-ssl.sh
生产环境请用 Certbot。
-
只启动数据库和缓存 docker-compose up -d db redis
-
初始化数据库 docker-compose exec db psql -U user -d wechat_auto -f /var/lib/postgresql/data/init.sql
-
再启动其余服务 docker-compose up -d
5. 第一次登录后必须做的 3 件事
顺序 | 菜单路径 | 操作 | 为什么 |
---|---|---|---|
① | 系统设置 → LLM 配置 | 填入 OpenAI 或 Claude 的 key 和 base_url | 没 key 就无法生成文章 |
② | 系统设置 → 微信配置 | 填 AppID、AppSecret、服务器地址 | 公众号后台也要填同样的 URL:https://你的域名/api/wechat/callback |
③ | 系统设置 → 爬虫配置 | 加 1~2 个目标公众号主页 URL | 空着也能用,但改写功能就浪费了 |
6. 日常运营 4 步循环:写、改、排、看数据
6.1 写:AI 生成文章
步骤
-
文章管理 → AI 生成 -
输入主题“夏季露营装备选购” -
选风格“科普 + 口语化”,长度 800~1000 字 -
点“生成”,30 秒出草稿 -
人工微调 → 点击“保存”
6.2 改:爬虫 + 重写
步骤
-
文章管理 → 爬取文章 -
选一篇同行 10w+ 爆文 -
系统自动去重、重写、保留图片 -
人工检查合规 → 保存
6.3 排:定时发布
步骤
-
发布计划 → 新建计划 -
选文章“夏季露营装备选购” -
设时间“明天 08:00”,周期“仅一次” -
保存,系统会提前 5 分钟自动推送
6.4 看:数据面板
次日 10:00 打开“数据分析”
-
阅读量 1.2 万,分享 300+ -
推荐时段图表显示“08:00”是高峰
→ 下次继续用这个时段
7. 常见疑问 10 连答(FAQ)
Q1:可以用国内模型吗?
A:只要接口兼容 OpenAI 格式,把 OPENAI_BASE_URL
改成国内地址即可。
Q2:Docker 端口冲突?
A:在 .env
里改 BACKEND_PORT
、FRONTEND_PORT
再 docker-compose up -d
。
Q3:公众号一天能发几次?
A:订阅号 1 次,服务号 4 次;系统会在超限时报错并邮件提醒。
Q4:文章配图会不会侵权?
A:DALL-E/SD 生成的图理论可商用,但建议再人工筛选。
Q5:如何备份?
A:
./scripts/backup.sh
默认打包 data/
和数据库成 backup-2025-08-18.tar.gz
。
Q6:升级会不会丢数据?
A:升级只替换镜像,卷挂载的 data/
与数据库持久化,不会丢。
Q7:想改前端主题?
A:前端是 React + Ant Design,改 frontend/src/styles/global.less
,再 docker-compose build frontend
。
Q8:日志在哪里看?
A:
docker-compose logs -f backend
docker-compose logs -f frontend
Q9:如何用已有的 PostgreSQL?
A:在 .env
写外部地址即可,例如
DATABASE_URL=postgresql://user:pass@172.17.0.1:5432/wechat_auto
Q10:ARM 机器可以吗?
A:官方镜像支持 linux/amd64 与 linux/arm64,无需额外操作。
8. 扩展玩法:插件、模板、集群
8.1 自定义 LLM 服务
后端 backend/services/llm_service.py
提供了基类,继承后实现 generate()
方法即可接入新模型。
8.2 新增爬虫源
实现 CrawlerInterface
的 fetch()
方法,返回统一格式 JSON,注册到 backend/services/crawler.py
。
8.3 模板市场
Markdown 转公众号的样式模板在 backend/services/markdown_converter.py
,复制一份改 CSS 即可做“极简白”“科技黑”等主题。
8.4 水平扩展
docker-compose up -d --scale backend=3
nginx 负载均衡已配好,无需额外操作。
9. 备份、升级、故障排查清单
场景 | 命令 | 恢复 |
---|---|---|
升级前 | ./scripts/backup.sh |
出错可回滚镜像 |
升级 | docker-compose pull && docker-compose up -d |
30 秒完成 |
磁盘满 | docker system prune -f |
清掉无用镜像 |
数据库误删 | docker-compose exec db psql -U user -d wechat_auto < backup.sql |
5 分钟恢复 |
忘记密码 | 进数据库 update users set password='新哈希' |
用 CLI 重置 |
10. 结尾:把省下来的时间用在选题上
技术细节已经全部摊开:会 Docker 的 15 分钟就能跑起来;不会 Docker 的按“手动部署”也能一步步完成。
真正难的从来不是工具,而是持续产出好选题。这套系统把机械劳动拿走,剩下的时间请留给深度思考——
去露营现场拍素材、去工厂拍产线、去问用户真正关心的问题。
愿你的公众号越来越像一本杂志,而不是又一堆 AI 草稿的堆放场。
祝推送顺利!