在 Obsidian 中构建你的私人 AI 工作流:ChatGPT MD 完全指南

你是否设想过,在一个你完全信任的私人笔记空间里,直接与世界上最强大的语言模型对话?无论是调用云端最新的 GPT-5,还是完全离线运行本地模型,所有对话和思考的痕迹都牢牢掌握在你自己的设备上。

这不再是想象。ChatGPT MD 这款 Obsidian 插件,正将这种体验变为现实。它不仅仅是一个“聊天插件”,更是一个将前沿 AI 能力深度融入个人知识管理系统的桥梁。

为什么你需要关注 ChatGPT MD?

在信息过载的时代,我们的笔记工具需要进化。传统的笔记软件是信息的“仓库”,而融合了 AI 的笔记工具,则可以成为思想的“催化剂”和“协作者”。ChatGPT MD 的核心价值在于三个词:私密无缝灵活

  • 私密性:通过支持本地大语言模型(如通过 Ollama),你的所有对话、草稿和灵感都可以完全离线处理,无需担忧数据隐私或产生 API 费用。
  • 无缝集成:它直接在 Obsidian 的 Markdown 笔记中运行,AI 的回复就是笔记的一部分,可以像编辑任何文本一样进行修改、链接和重组,真正实现了 AI 与思考流程的融合。
  • 灵活性:你可以自由在 OpenAI、OpenRouter.ai 的数十种云端模型和你自己电脑上的本地模型之间切换,根据任务需求选择最适合的“大脑”。

下面这张动图展示了它如何在笔记中,结合你提供的网页链接内容进行对话,比如规划一次旅行:
在Obsidian中与AI对话,讨论包含链接内容的假期计划

接下来,我将带你全面了解这款工具,从快速入门到高阶技巧,帮助你建立起属于自己的、高效的 AI 辅助思考系统。

最新动态:迎接 GPT-5 时代

ChatGPT MD 始终保持更新,以支持最前沿的模型。在最新的 v2.8.0 版本中,它已经全面支持 OpenAI 最新发布的 GPT-5 系列模型,包括:

  • gpt-5:旗舰型号,拥有更强的推理能力。
  • gpt-5-mini:在速度与效率上做了优化,是平衡之选。
  • gpt-5-nano:超轻量级模型,追求极速响应。
  • gpt-5-chat-latest:始终保持更新的聊天模型。

除了新模型,该版本还在令牌管理、消息服务架构和 API 集成上进行了优化,让对话更加稳定可靠。

五分钟快速入门指南

开始使用 ChatGPT MD 异常简单,只需三步:

  1. 安装插件:在 Obsidian 中,进入 设置 -> 社区插件 -> 浏览,搜索 “ChatGPT MD” 并点击安装。记得在插件列表中启用它。
  2. 配置密钥或本地模型:进入插件设置,你可以选择填入你的 OpenAI 或 OpenRouter.ai 的 API 密钥。或者,如果你更注重隐私,可以直接跳到下一步,设置本地的 Ollama。
  3. 开始对话:在任何笔记中,按下 Cmd+P (Mac) 或 Ctrl+P (Windows/Linux),打开命令面板,输入 “ChatGPT MD: Chat” 并执行,就可以基于当前笔记的内容开始聊天了。

一个提升体验的关键建议是:为聊天命令设置一个快捷键。进入 设置 -> 快捷键,搜索 “ChatGPT MD: Chat”,绑定一个顺手的组合键,比如 Cmd+J。这样,你就能在任何笔记中瞬间唤出 AI 对话界面。

深入核心:三大使用模式详解

ChatGPT MD 的强大之处在于它为你提供了多种接入 AI 的路径,你可以根据场景自由选择。

模式一:使用云端主流模型(OpenAI & OpenRouter.ai)

这是最直接的方式,让你能调用包括 GPT-5、Claude、Gemini、DeepSeek 等在内的顶尖模型。

  • OpenAI:在插件设置中填入你的 API 密钥,即可使用所有 OpenAI 官方模型。
  • OpenRouter.ai:这是一个模型聚合平台。在这里获取 API 密钥并填入后,你可以在一个界面里选择来自 Anthropic (Claude)、Google (Gemini)、Meta (Llama)、DeepSeek 甚至 Perplexity 的在线搜索模型。这特别适合需要最新网络信息的任务。

如何为单篇笔记指定特定模型?
你可以在笔记的开头通过“前沿内容”来配置。这给了你极大的灵活性。

---
model: gpt-5  # 指定使用最新的 GPT-5 模型
system_commands: ['请你扮演一位资深的软件架构师']
temperature: 0.7  # 控制回答的创造性
max_tokens: 2000  # 增加输出长度,用于复杂分析
---
# 我的笔记正文
这里是我要咨询 AI 的问题...

模式二:完全私密的本地模型(Ollama 方案)

如果你不希望任何对话数据离开你的电脑,或者想免去 API 费用,Ollama 是最佳选择。它能让你在本地轻松运行各种开源大模型。

设置步骤:

  1. 安装 Ollama:访问 ollama.ai 下载并安装适用于你操作系统的版本。
  2. 拉取模型:打开终端(命令行),输入以下命令来下载你感兴趣的模型。例如:

    ollama pull llama3.2  # Meta 推出的轻量级强模型
    ollama pull qwen2.5   # 阿里通义千舞的优秀模型
    ollama pull deepseek-r1:7b  # 擅长推理的深度求索模型
    
  3. 配置插件:在 ChatGPT MD 设置中,找到 “Ollama Defaults” 部分。URL 通常保持 http://localhost:11434 不变。在“默认模型”处,填写你想常用的模型,格式为 ollama@模型名,例如 ollama@llama3.2
  4. 开始本地对话:现在,使用聊天命令时,默认就会调用你设置的本地模型了。同样,你可以在单篇笔记中覆盖这个设置:

    ---
    model: ollama@deepseek-r1:7b
    temperature: 0.1  # 对于推理任务,可以降低随机性
    ---
    

如何知道我安装了哪些本地模型?
在终端中运行 ollama list 命令,所有已下载的模型都会显示出来,供你在配置时使用。

模式三:另一本地方案(LM Studio)

LM Studio 是另一个流行的本地模型运行工具,提供了图形化界面来管理和加载模型。

  1. 安装 LM Studio:从 lmstudio.ai 下载安装。
  2. 下载并加载模型:在 LM Studio 的图形界面中浏览、下载你喜欢的模型,并将其加载到内存中。
  3. 启动本地服务器:在 LM Studio 中切换到 “Local Server” 标签页,并点击启动服务器。
  4. 配置插件:在 ChatGPT MD 设置的 “LM Studio Defaults” 部分,将 URL 设为 http://localhost:1234,并设置你的默认模型,格式如 lmstudio@你的模型名
  5. 使用:配置完成后,使用方法与 Ollama 完全一致。

解锁高级功能:像专家一样使用

当你熟悉基础对话后,下面这些功能将极大提升你的生产力。

1. 系统指令:为 AI 设定角色

这是获得高质量回答的关键。你可以通过 system_commands 参数,在对话开始前就给 AI 一个明确的定位。

---
system_commands: ['你是一位严格的学术编辑,请检查以下文字的语法、逻辑并提出修改建议。']
model: gpt-5-mini
---

2. 链接上下文:让 AI 阅读你的其他笔记

这是 ChatGPT MD 与普通聊天框最本质的区别。你可以在对话中,直接用 Obsidian 的内部链接 [[笔记名]] 或 Markdown 链接来引用其他笔记。AI 在回答时,会将这些链接内容作为参考上下文,实现真正的“基于你个人知识库的对话”。

3. 注释块:告诉 AI 忽略哪些内容

如果你的笔记中包含不想让 AI 处理的私人记录或临时草稿,可以用特定的注释块语法包裹起来,AI 会自动忽略这些部分。

这是一段 AI 会看到的正常文本。

%% 这是一个注释块
这里面的所有内容,AI 在对话时都会完全忽略,
不会将其作为上下文的一部分。
%%

对话可以继续从这里开始。

4. 聊天模板:固化常用工作流

如果你经常进行某类对话(如代码评审、读书总结、周报生成),可以创建带有特定前沿内容的笔记模板,保存到特定文件夹。之后通过 ChatGPT MD: New Chat From Template 命令,快速基于模板创建新对话,省去重复配置的麻烦。

5. 智能标题与实用工具

  • 推断标题:在一段对话进行几次来回后,可以使用 Infer Title 命令,让 AI 根据对话内容自动生成一个简洁的笔记标题。
  • 添加分隔符:使用 Add Divider 命令,在笔记中插入水平分割线,让长对话的结构更清晰。
  • 清理对话:使用 Clear Chat 命令,可以清空当前笔记中的所有对话消息,但保留前沿配置,方便开始一轮全新的对话。

配置详解:从全局到局部的精细控制

ChatGPT MD 的配置分为两层:全局设置笔记级前沿设置。笔记级设置会覆盖全局设置,这给了你最大的灵活性。

全局默认配置

插件安装后,已经有了一个合理的默认配置。你可以在插件设置界面修改它们,影响所有没有特殊设置的笔记。

笔记级前沿配置

这是核心配置方式。在笔记的第一行输入 ---,就开始了前沿配置区域。你可以在这里为这篇笔记单独设定所有参数。

一个完整的前沿配置示例:

---
# 模型与基础参数
model: gpt-5-mini  # 指定模型
system_commands: ['You are a helpful assistant.']
temperature: 0.3    # 创造性 (0-2)
top_p: 1
max_tokens: 300     # 回复的最大长度
presence_penalty: 0.5
frequency_penalty: 0.5

# 服务端点配置 (可选,不填则使用全局设置)
openaiUrl: https://api.openai.com
# openrouterUrl: https://openrouter.ai
# ollamaUrl: http://localhost:11434
---

重要提示max_tokens 参数控制 AI 回复的长度。对于简单的问答,300可能足够;但对于代码生成、长文分析等复杂任务,建议将其提高到 20484096,以获得完整的回答。

关于隐私、安全与数据

ChatGPT MD 的设计哲学是将控制权交还给用户:

  • 数据存储:所有对话历史、配置都保存在你的 Obsidian 仓库本地文件中,插件本身不进行任何数据收集或跟踪。
  • API 调用:当使用云端服务(OpenAI/OpenRouter)时,插件仅与你指定的 API 端点直接通信。
  • 终极隐私方案:使用 Ollama 或 LM Studio 运行本地模型时,所有数据处理都在你的计算机内部完成,实现了完全的离线隐私和零 API 成本。

常见问题解答

问:如何开始我的第一次聊天?
答:在任何笔记中,打开 Obsidian 命令面板(Cmd+P / Ctrl+P),输入并选择 “ChatGPT MD: Chat” 命令即可。强烈建议为此命令设置快捷键。

问:我可以同时使用多个 AI 提供商吗?
答:完全可以。你可以在全局设置中配置多个 API 密钥。在具体对话时,通过前沿中的 model 参数来指定这次使用谁。例如,model: gpt-5 调用 OpenAI,model: ollama@llama3.2 调用本地 Ollama 模型。

问:我想使用自己公司部署的或第三方兼容 OpenAI API 的模型,怎么设置?
答:你需要知道该服务的端点 URL 和 API 密钥。在全局设置或笔记前沿中,使用 openaiUrl 参数指定你的自定义端点 URL,并在 API 密钥处填写对应的密钥即可。这适用于 Azure OpenAI Service 或许多其他提供兼容 API 的托管服务。

问:笔记前沿里的 url 参数不见了?
答:从 v2.2.0 开始,为了更清晰地区分不同服务,已弃用单一的 url 参数,改为服务专用的参数:openaiUrl, openrouterUrl, ollamaUrl。请更新你的旧笔记和模板。

问:如何体验即将发布的新功能?
答:你可以通过 Obsidian 的 BRAT 插件来加入 Beta 测试。但请注意,测试版可能存在不稳定风险,务必在全新的、不重要的仓库中进行测试,切勿直接在主力知识库上使用,以防数据损失。

结语:让 AI 成为你思维的延伸

ChatGPT MD 不仅仅是一个工具,它代表了一种新的工作理念:将外部强大的智能与内部私密的思考空间无缝结合。无论是追求极致效率和最新模型能力的云端路线,还是注重隐私控制和成本节约的本地路线,它都为你提供了坚实的技术实现。

它的魅力在于,AI 的回复不再是悬浮在某个网页上的临时文本,而是直接沉淀为你个人知识库中可编辑、可链接、可复用的一部分。每一次与 AI 的对话,都在切实地丰富和构建你自己的数字大脑。

现在,是时候打开 Obsidian,安装 ChatGPT MD,开始探索这种融合了人类直觉与机器智能的下一代笔记体验了。从一次简单的提问开始,你会发现,你的知识管理方式,将从此不同。


关于开发者:ChatGPT MD 由 Bram 于 2023 年创立,并由 Deniz 在 2024 年加入共同维护。他们致力于打造能够增强个人生产力的工具。如果你在使用中遇到问题或有改进想法,项目的 GitHub 仓库欢迎所有人的贡献。