MackingJAI:用 ChatGPT 桌面端在本地模拟 OpenAI/Ollama API 的实用指南
有没有想过,不用 API Key,就能在本地像和官方接口一样愉快地对话?MackingJAI 就是这样一个小工具——只需配合 ChatGPT Mac 应用和 Apple Shortcuts,轻松把本地 ChatGPT 桌面端伪装成 OpenAI 或 Ollama API。下面,我们一步步来玩转它,无论是调试、测试,还是日常开发,都能瞬间上手。
目录
- 
MackingJAI 是什么?  - 
为啥要用它?  - 
它到底怎么跑起来?  - 
秒装指南:从零到可用 - 
准备工作  - 
安装 DMG  - 
导入 Shortcut  - 
配好本地代理  
 - 
 - 
常见接入示例 - 
Curl 一行命令  - 
Python SDK 零改动  - 
LangChain 无缝切换  - 
Docker & Open-webui  - 
Raycast 快捷入口  
 - 
 - 
参数去哪儿找?深度解读  - 
妙用小贴士  - 
遇到问题别慌(FAQ)  - 
现状&展望  - 
HowTo & FAQ Schema 快速参考  
MackingJAI 是什么?
简单来说,MackingJAI 就是一层“魔法”代理,让你在本地调用 ChatGPT 桌面版,就像在调用 OpenAI 或 Ollama 的官方 API。一切请求都拦截到 127.0.0.1:11435,再通过 Apple Shortcuts 转给 ChatGPT 桌面端,最后把结果打包成官方格式返回——完全零门槛。
亮点速览
不用 Key:随便填个 “Bearer No need for API” 就能跑 即装即用:安装 DMG,加个 Shortcut,马上能发请求 多模型支持:桌面端有的模型都能调 接入灵活:Curl、Python、LangChain、Raycast……一通百通 
为啥要用它?
- 
零成本测试:不花一分钱就能本地搞起对话接口,真香!  - 
数据不出门:所有交互只在本机环回,不会跑到外网。  - 
立即响应:没网络卡顿、没限流,一键调试就是这么爽。  - 
框架通吃:不管你是用哪种工具,只要支持 OpenAI 接口,都能直接切入。  
它到底怎么跑起来?
- 
Shortcut 拦截:先在 Apple Shortcuts 安装好 MackingJAI 的脚本,监听 http://127.0.0.1:11435/*的请求。 - 
转给桌面端:Shortcut 拿到请求后,把它连同 headers、body 以 JSON 形式传给 ChatGPT Mac App。  - 
桌面端回答:ChatGPT 按照 model、messages 等字段生成回复内容。  - 
返还给客户端:Shortcut 把 ChatGPT 的输出重新装箱,一份标准 OpenAI/Ollama JSON 就这样出来了。  
flowchart LR
  Client[你的代码或工具] -->|POST /v1/chat/completions| Proxy[127.0.0.1:11435]
  Proxy --> Shortcut{Apple Shortcut}
  Shortcut --> ChatGPT[ChatGPT Mac App]
  ChatGPT --> Shortcut
  Shortcut --> Client
秒装指南:从零到可用
准备工作
- 
系统:macOS 12 以上  - 
ChatGPT 桌面版:下载安装并登录  - 
Shortcuts:已启用,允许本地网络访问  
安装 DMG
- 
访问 MackingJAI Releases  - 
下载最新 .dmg - 
双击拖进“应用程序”  
导入 Shortcut
- 
打开 MackingJAI,菜单里点 Install Shortcut  - 
或者去 iCloud 链接一键导入  
安装时,macOS 可能会弹窗请求“网络访问”“自动化”权限,记得点“允许”。
配好本地代理
在任何兼容 OpenAI 的调用里,把:
- 
API Base 改成 http://127.0.0.1:11435/v1/ - 
API Key 随意填(比如 No need for API) 
Ollama 同理,只要把端口从 11434 换成 11435,路径可以省掉 /v1。
常见接入示例
Curl 一行命令
curl http://127.0.0.1:11435/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer No need for API" \
  -d '{
    "model":"o4-mini-high",
    "messages":[
      {"role":"system","content":"请用是/否回答"},
      {"role":"user","content":"巴黎是法国的首都吗?"}
    ]
  }'
Python SDK 零改动
from openai import OpenAI
client = OpenAI(
    api_key="No need for API",
    base_url="http://127.0.0.1:11435/v1/"
)
resp = client.chat.completions.create(
    model="gpt-4o",
    messages=[
        {"role":"system","content":"你是个助手。"},
        {"role":"user","content":"你好!"}
    ]
)
print(resp.choices[0].message.content)
LangChain 无缝切换
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
    model_name="gpt-4o",
    openai_api_base="http://127.0.0.1:11435/v1",
    openai_api_key="No key",
)
print(llm.invoke([
    ("system","翻译成法语:The quick brown fox jumps over the lazy dog")
]))
Docker & Open-webui
| 场景 | URL | 说明 | 
|---|---|---|
| Docker 内部访问 | http://host.docker.internal:11435 | 
直接抛给本地服务 | 
| OpenAI 兼容调用 | http://host.docker.internal:11435/v1 | 
各种客户端都能照常用 | 
| 无 Docker | 直接把 11434 换成 11435 | 其他全照旧 | 
Raycast 快捷入口
- 
打开 Raycast 设置  - 
在 AI 配置里,把端口填 11435 - 
保存,马上能本地唤起 ChatGPT  
参数去哪儿找?深度解读
| 参数 | 功能说明 | 示例 | 
|---|---|---|
api_key | 
虚拟 Key,仅作兼容,不做校验 | 任意非空字符串 | 
base_url | 
本地代理地址 | http://127.0.0.1:11435/v1 | 
model | 
要调用的模型名称,映射到桌面端已加载的模型 | gpt-4o, o4-mini-high | 
messages | 
对话历史或指令,格式和官方 API 一致 | 同 OpenAI 文档 | 
| 系统权限 | Shortcuts 的网络和自动化权限 | 在“系统偏好”授予 | 
模型映射贴士
专属快照(如 gpt-4o-2024-05-13)会自动匹配同名桌面模型GPT4.1 系列会优雅回退到 GPT-4/GPT-4o/GPT-4o-mini 
妙用小贴士
- 
任务分流:把辅助性任务(标题、标签)丢给轻量模型(如 o3),节省主模型资源。  - 
打开调试:Shortcuts 支持打印请求日志,一键看见到底发了什么。  - 
限速并发:并发多次请求时,加个 100ms 小延迟,不卡就完事。  - 
盯住性能:用活动监视器看看 ChatGPT 桌面占多少 CPU/内存,别一不小心把 Mac 折腾崩。  
遇到问题别慌(FAQ)
Q:为什么提示 Connection refused?
A:通常是 Shortcut 没装好或者没给网络权限。打开 Shortcuts,确认脚本正常导入并在“安全性与隐私”里允许网络访问。
Q:哪里看本地有哪些模型?
A:在 ChatGPT 桌面版“设置 → 模型管理”里,一目了然。
Q:请求没响应或超时?
A:确保 ChatGPT 桌面正在运行、已登录,网络无代理干扰,再看 Shortcut 日志。
Q:想切回官方接口怎么办?
A:把 base_url 换成 https://api.openai.com/v1,真 Key 填上,照常上线用就行。
现状 & 展望
- 
目前:依赖桌面订阅,只能用已授权模型;暂不支持图像消息;macOS 专享。  - 
未来:补充高级参数控制(温度、top_p 等);出 Windows/Linux 版;上线 Homebrew Cask,一键安装升级更顺手。  
HowTo & FAQ Schema 快速参考
<script type="application/ld+json">
{
  "@context":"https://schema.org",
  "@type":"HowTo",
  "name":"本地用 MackingJAI 模拟 OpenAI API",
  "step":[
    {"@type":"HowToStep","name":"装 DMG","text":"下载并拖入应用程序文件夹"},
    {"@type":"HowToStep","name":"导 Shortcut","text":"菜单里点 Install Shortcut 或用 iCloud 链接"},
    {"@type":"HowToStep","name":"改 Base","text":"base_url 填 http://127.0.0.1:11435/v1,api_key 填任意"}
  ]
}
</script>
<script type="application/ld+json">
{
  "@context":"https://schema.org",
  "@type":"FAQPage",
  "mainEntity":[
    {"@type":"Question","name":"Connection refused?","acceptedAnswer":{"@type":"Answer","text":"给 Shortcut 授予网络权限,并确认 ChatGPT 桌面已启动。"}},
    {"@type":"Question","name":"怎么看模型?","acceptedAnswer":{"@type":"Answer","text":"桌面版“设置→模型管理”里查看。"}}
  ]
}
</script>
撰稿:一位喜欢把技术讲得轻松易懂的开发者
适合人群:有 Mac、喜欢折腾本地开发的同学们
更新时间:2025-06-15
