如何在Excel中免费运行本地AI?Ollama集成指南
“
无需API密钥·数据永不离开本地·专为Excel打造的开源AI解决方案
为什么选择本地AI+Excel组合?
当处理敏感数据时,你是否担忧过云端AI服务的隐私风险?通过Ollama在Excel运行本地AI模型,可实现:
- •
数据零外传:所有计算发生在你的电脑 - •
完全免费:无需支付API调用费用 - •
无缝集成:AI结果直接返回Excel单元格 - •
模型自由:支持Gemma、Qwen等主流开源模型
准备工作(10分钟完成)
第一步:安装Ollama核心程序
根据操作系统选择安装方式:
操作系统 | 安装方式 |
---|---|
Windows | 管理员身份运行命令提示符:winget install --id Ollama.Ollama -e |
macOS | 访问官网下载安装包 |
验证安装:
# 启动服务(Windows可能需要)
ollama serve
# 下载测试模型(4B轻量级)
ollama pull gemma3:4b
第二步:获取Excel插件
-
下载专用插件文件(来源网站) -
解除安全锁定: - •
右击下载文件 → 属性 → 勾选”解除锁定” → 确定
- •
-
Excel加载插件: - •
文件 → 选项 → 加载项 - •
管理:选择”Excel加载项” → 转到 - •
浏览 → 选择下载的插件文件 - •
勾选激活后,功能区将出现Ollama标签页
- •
核心功能实战指南
基础应用:单单元格AI交互
=Ollama(A2) // A2单元格输入你的问题
高级参数配置
函数完整结构:
=Ollama(用户消息, [模型], [系统指令], [温度值], [服务器地址], [最大token数])
参数 | 说明 | 示例值 |
---|---|---|
用户消息 | 必填·你的问题 | “总结销售趋势” |
模型 | 可选·指定AI模型 | “qwen3:4b” |
系统指令 | 可选·角色设定 | “用表格形式回复” |
温度值 | 可选·创造力(0.1-2.0) | 0.5(中等创造力) |
服务器地址 | 可选·自定义服务端 | “http://192.168.1.100:11434” |
最大token | 可选·回复长度限制 | 500 |
典型场景配置:
// 指定专业分析模型
=Ollama(B3, "gemma3:4b")
// 控制回复严谨性
=Ollama(C2, "", "", 0.3) // 低创造性
// 远程服务器调用
=Ollama(D4, "qwen3:4b", "用JSON格式输出", , "http://10.0.0.5:11434")
运维管理技巧
服务器控制
功能 | 操作方式 |
---|---|
启动服务 | 功能区点击Start Ollama 或 =StartOllama(11434) |
停止服务 | 点击Stop Ollama 或 =StopOllama() |
重启服务 | =RestartOllama() |
模型管理
查看可用模型:
=ListOllamaModels()
返回格式示例:
- gemma3:4b (3.1 GB) [2025-08-10]
- qwen3:4b (2.3 GB) [2025-08-10]
切换默认模型:
-
点击功能区 Change Model
-
输入目标模型名如 qwen3:4b
开发者进阶应用
VBA集成示例
Sub 获取AI分析()
Dim 分析结果 As String
分析结果 = Application.Run("Ollama", "分析A列销售数据", "gemma3:4b")
Range("B1").Value = 分析结果
End Sub
12个核心函数详解
函数 | 用途 | 示例 |
---|---|---|
=TestOllama() |
测试服务器连接 | =TestOllama("http:192.168.1.100:11434") |
=IsOllamaRunning() |
检查服务状态 | =IF(IsOllamaRunning(),"运行中","已停止") |
=GetSelectedModelInfo() |
获取当前模型 | =GetSelectedModelInfo() |
=GetGlobalTemperature() |
查看全局温度值 | =GetGlobalTemperature() |
=GetGlobalBaseURL() |
获取服务器地址 | =GetGlobalBaseURL() |
常见问题解决方案
服务启动失败怎么办?
-
检查是否管理员权限运行 -
确认端口未被占用(默认11434) -
尝试指定端口: =StartOllama(11435)
模型下载中断如何处理?
-
查看网络连接状态 -
重新执行下载命令: ollama pull gemma3:4b
函数返回#VALUE!错误
-
确认Ollama服务已启动 -
检查模型名称拼写 -
验证服务器地址可达性
技术原理与优势
本地化架构:
Excel → Ollama插件 → 本地Ollama服务 → AI模型
↑
数据永不离开计算机
性能优化机制:
- •
模型预加载至内存 - •
请求批处理功能 - •
智能缓存响应结果
“
关键提示:本文所有技术方案均通过Windows 11 + Excel 365实测验证,模型响应速度取决于本地硬件配置。建议至少配备8GB内存运行4B参数模型。