在 Obsidian 中构建你的私人 AI 工作流:ChatGPT MD 完全指南
你是否设想过,在一个你完全信任的私人笔记空间里,直接与世界上最强大的语言模型对话?无论是调用云端最新的 GPT-5,还是完全离线运行本地模型,所有对话和思考的痕迹都牢牢掌握在你自己的设备上。
这不再是想象。ChatGPT MD 这款 Obsidian 插件,正将这种体验变为现实。它不仅仅是一个“聊天插件”,更是一个将前沿 AI 能力深度融入个人知识管理系统的桥梁。
为什么你需要关注 ChatGPT MD?
在信息过载的时代,我们的笔记工具需要进化。传统的笔记软件是信息的“仓库”,而融合了 AI 的笔记工具,则可以成为思想的“催化剂”和“协作者”。ChatGPT MD 的核心价值在于三个词:私密、无缝 和 灵活。
-
私密性:通过支持本地大语言模型(如通过 Ollama),你的所有对话、草稿和灵感都可以完全离线处理,无需担忧数据隐私或产生 API 费用。 -
无缝集成:它直接在 Obsidian 的 Markdown 笔记中运行,AI 的回复就是笔记的一部分,可以像编辑任何文本一样进行修改、链接和重组,真正实现了 AI 与思考流程的融合。 -
灵活性:你可以自由在 OpenAI、OpenRouter.ai 的数十种云端模型和你自己电脑上的本地模型之间切换,根据任务需求选择最适合的“大脑”。
下面这张动图展示了它如何在笔记中,结合你提供的网页链接内容进行对话,比如规划一次旅行:

接下来,我将带你全面了解这款工具,从快速入门到高阶技巧,帮助你建立起属于自己的、高效的 AI 辅助思考系统。
最新动态:迎接 GPT-5 时代
ChatGPT MD 始终保持更新,以支持最前沿的模型。在最新的 v2.8.0 版本中,它已经全面支持 OpenAI 最新发布的 GPT-5 系列模型,包括:
-
gpt-5:旗舰型号,拥有更强的推理能力。 -
gpt-5-mini:在速度与效率上做了优化,是平衡之选。 -
gpt-5-nano:超轻量级模型,追求极速响应。 -
gpt-5-chat-latest:始终保持更新的聊天模型。
除了新模型,该版本还在令牌管理、消息服务架构和 API 集成上进行了优化,让对话更加稳定可靠。
五分钟快速入门指南
开始使用 ChatGPT MD 异常简单,只需三步:
-
安装插件:在 Obsidian 中,进入 设置->社区插件->浏览,搜索 “ChatGPT MD” 并点击安装。记得在插件列表中启用它。 -
配置密钥或本地模型:进入插件设置,你可以选择填入你的 OpenAI 或 OpenRouter.ai 的 API 密钥。或者,如果你更注重隐私,可以直接跳到下一步,设置本地的 Ollama。 -
开始对话:在任何笔记中,按下 Cmd+P(Mac) 或Ctrl+P(Windows/Linux),打开命令面板,输入 “ChatGPT MD: Chat” 并执行,就可以基于当前笔记的内容开始聊天了。
一个提升体验的关键建议是:为聊天命令设置一个快捷键。进入 设置 -> 快捷键,搜索 “ChatGPT MD: Chat”,绑定一个顺手的组合键,比如 Cmd+J。这样,你就能在任何笔记中瞬间唤出 AI 对话界面。
深入核心:三大使用模式详解
ChatGPT MD 的强大之处在于它为你提供了多种接入 AI 的路径,你可以根据场景自由选择。
模式一:使用云端主流模型(OpenAI & OpenRouter.ai)
这是最直接的方式,让你能调用包括 GPT-5、Claude、Gemini、DeepSeek 等在内的顶尖模型。
-
OpenAI:在插件设置中填入你的 API 密钥,即可使用所有 OpenAI 官方模型。 -
OpenRouter.ai:这是一个模型聚合平台。在这里获取 API 密钥并填入后,你可以在一个界面里选择来自 Anthropic (Claude)、Google (Gemini)、Meta (Llama)、DeepSeek 甚至 Perplexity 的在线搜索模型。这特别适合需要最新网络信息的任务。
如何为单篇笔记指定特定模型?
你可以在笔记的开头通过“前沿内容”来配置。这给了你极大的灵活性。
---
model: gpt-5 # 指定使用最新的 GPT-5 模型
system_commands: ['请你扮演一位资深的软件架构师']
temperature: 0.7 # 控制回答的创造性
max_tokens: 2000 # 增加输出长度,用于复杂分析
---
# 我的笔记正文
这里是我要咨询 AI 的问题...
模式二:完全私密的本地模型(Ollama 方案)
如果你不希望任何对话数据离开你的电脑,或者想免去 API 费用,Ollama 是最佳选择。它能让你在本地轻松运行各种开源大模型。
设置步骤:
-
安装 Ollama:访问 ollama.ai 下载并安装适用于你操作系统的版本。 -
拉取模型:打开终端(命令行),输入以下命令来下载你感兴趣的模型。例如: ollama pull llama3.2 # Meta 推出的轻量级强模型 ollama pull qwen2.5 # 阿里通义千舞的优秀模型 ollama pull deepseek-r1:7b # 擅长推理的深度求索模型 -
配置插件:在 ChatGPT MD 设置中,找到 “Ollama Defaults” 部分。URL 通常保持 http://localhost:11434不变。在“默认模型”处,填写你想常用的模型,格式为ollama@模型名,例如ollama@llama3.2。 -
开始本地对话:现在,使用聊天命令时,默认就会调用你设置的本地模型了。同样,你可以在单篇笔记中覆盖这个设置: --- model: ollama@deepseek-r1:7b temperature: 0.1 # 对于推理任务,可以降低随机性 ---
如何知道我安装了哪些本地模型?
在终端中运行 ollama list 命令,所有已下载的模型都会显示出来,供你在配置时使用。
模式三:另一本地方案(LM Studio)
LM Studio 是另一个流行的本地模型运行工具,提供了图形化界面来管理和加载模型。
-
安装 LM Studio:从 lmstudio.ai 下载安装。 -
下载并加载模型:在 LM Studio 的图形界面中浏览、下载你喜欢的模型,并将其加载到内存中。 -
启动本地服务器:在 LM Studio 中切换到 “Local Server” 标签页,并点击启动服务器。 -
配置插件:在 ChatGPT MD 设置的 “LM Studio Defaults” 部分,将 URL 设为 http://localhost:1234,并设置你的默认模型,格式如lmstudio@你的模型名。 -
使用:配置完成后,使用方法与 Ollama 完全一致。
解锁高级功能:像专家一样使用
当你熟悉基础对话后,下面这些功能将极大提升你的生产力。
1. 系统指令:为 AI 设定角色
这是获得高质量回答的关键。你可以通过 system_commands 参数,在对话开始前就给 AI 一个明确的定位。
---
system_commands: ['你是一位严格的学术编辑,请检查以下文字的语法、逻辑并提出修改建议。']
model: gpt-5-mini
---
2. 链接上下文:让 AI 阅读你的其他笔记
这是 ChatGPT MD 与普通聊天框最本质的区别。你可以在对话中,直接用 Obsidian 的内部链接 [[笔记名]] 或 Markdown 链接来引用其他笔记。AI 在回答时,会将这些链接内容作为参考上下文,实现真正的“基于你个人知识库的对话”。
3. 注释块:告诉 AI 忽略哪些内容
如果你的笔记中包含不想让 AI 处理的私人记录或临时草稿,可以用特定的注释块语法包裹起来,AI 会自动忽略这些部分。
这是一段 AI 会看到的正常文本。
%% 这是一个注释块
这里面的所有内容,AI 在对话时都会完全忽略,
不会将其作为上下文的一部分。
%%
对话可以继续从这里开始。
4. 聊天模板:固化常用工作流
如果你经常进行某类对话(如代码评审、读书总结、周报生成),可以创建带有特定前沿内容的笔记模板,保存到特定文件夹。之后通过 ChatGPT MD: New Chat From Template 命令,快速基于模板创建新对话,省去重复配置的麻烦。
5. 智能标题与实用工具
-
推断标题:在一段对话进行几次来回后,可以使用 Infer Title命令,让 AI 根据对话内容自动生成一个简洁的笔记标题。 -
添加分隔符:使用 Add Divider命令,在笔记中插入水平分割线,让长对话的结构更清晰。 -
清理对话:使用 Clear Chat命令,可以清空当前笔记中的所有对话消息,但保留前沿配置,方便开始一轮全新的对话。
配置详解:从全局到局部的精细控制
ChatGPT MD 的配置分为两层:全局设置和笔记级前沿设置。笔记级设置会覆盖全局设置,这给了你最大的灵活性。
全局默认配置
插件安装后,已经有了一个合理的默认配置。你可以在插件设置界面修改它们,影响所有没有特殊设置的笔记。
笔记级前沿配置
这是核心配置方式。在笔记的第一行输入 ---,就开始了前沿配置区域。你可以在这里为这篇笔记单独设定所有参数。
一个完整的前沿配置示例:
---
# 模型与基础参数
model: gpt-5-mini # 指定模型
system_commands: ['You are a helpful assistant.']
temperature: 0.3 # 创造性 (0-2)
top_p: 1
max_tokens: 300 # 回复的最大长度
presence_penalty: 0.5
frequency_penalty: 0.5
# 服务端点配置 (可选,不填则使用全局设置)
openaiUrl: https://api.openai.com
# openrouterUrl: https://openrouter.ai
# ollamaUrl: http://localhost:11434
---
重要提示:max_tokens 参数控制 AI 回复的长度。对于简单的问答,300可能足够;但对于代码生成、长文分析等复杂任务,建议将其提高到 2048 或 4096,以获得完整的回答。
关于隐私、安全与数据
ChatGPT MD 的设计哲学是将控制权交还给用户:
-
数据存储:所有对话历史、配置都保存在你的 Obsidian 仓库本地文件中,插件本身不进行任何数据收集或跟踪。 -
API 调用:当使用云端服务(OpenAI/OpenRouter)时,插件仅与你指定的 API 端点直接通信。 -
终极隐私方案:使用 Ollama 或 LM Studio 运行本地模型时,所有数据处理都在你的计算机内部完成,实现了完全的离线隐私和零 API 成本。
常见问题解答
问:如何开始我的第一次聊天?
答:在任何笔记中,打开 Obsidian 命令面板(Cmd+P / Ctrl+P),输入并选择 “ChatGPT MD: Chat” 命令即可。强烈建议为此命令设置快捷键。
问:我可以同时使用多个 AI 提供商吗?
答:完全可以。你可以在全局设置中配置多个 API 密钥。在具体对话时,通过前沿中的 model 参数来指定这次使用谁。例如,model: gpt-5 调用 OpenAI,model: ollama@llama3.2 调用本地 Ollama 模型。
问:我想使用自己公司部署的或第三方兼容 OpenAI API 的模型,怎么设置?
答:你需要知道该服务的端点 URL 和 API 密钥。在全局设置或笔记前沿中,使用 openaiUrl 参数指定你的自定义端点 URL,并在 API 密钥处填写对应的密钥即可。这适用于 Azure OpenAI Service 或许多其他提供兼容 API 的托管服务。
问:笔记前沿里的 url 参数不见了?
答:从 v2.2.0 开始,为了更清晰地区分不同服务,已弃用单一的 url 参数,改为服务专用的参数:openaiUrl, openrouterUrl, ollamaUrl。请更新你的旧笔记和模板。
问:如何体验即将发布的新功能?
答:你可以通过 Obsidian 的 BRAT 插件来加入 Beta 测试。但请注意,测试版可能存在不稳定风险,务必在全新的、不重要的仓库中进行测试,切勿直接在主力知识库上使用,以防数据损失。
结语:让 AI 成为你思维的延伸
ChatGPT MD 不仅仅是一个工具,它代表了一种新的工作理念:将外部强大的智能与内部私密的思考空间无缝结合。无论是追求极致效率和最新模型能力的云端路线,还是注重隐私控制和成本节约的本地路线,它都为你提供了坚实的技术实现。
它的魅力在于,AI 的回复不再是悬浮在某个网页上的临时文本,而是直接沉淀为你个人知识库中可编辑、可链接、可复用的一部分。每一次与 AI 的对话,都在切实地丰富和构建你自己的数字大脑。
现在,是时候打开 Obsidian,安装 ChatGPT MD,开始探索这种融合了人类直觉与机器智能的下一代笔记体验了。从一次简单的提问开始,你会发现,你的知识管理方式,将从此不同。
关于开发者:ChatGPT MD 由 Bram 于 2023 年创立,并由 Deniz 在 2024 年加入共同维护。他们致力于打造能够增强个人生产力的工具。如果你在使用中遇到问题或有改进想法,项目的 GitHub 仓库欢迎所有人的贡献。

