Ollama Excel

4个月前发布 172 00

Ollama Excel 插件为本地 AI 与传统办公软件的融合提供了简洁而强大的桥梁。它不仅让你能在 Excel 中直接调用大模型,更关键的是: 你的数据从未离开你的电脑,全程可控、可审计、无泄露风险。 无论是处理客户反馈、生成报告、提取信息,还是构建智能模板,这套方案都值得你尝试。

所在地:
美国
收录时间:
2025-08-12
其他站点:
 Ollama Excel Ollama Excel

你是否希望在不离开 Excel 的情况下,直接调用强大的开源大模型进行数据分析、文本生成或自动化处理?更重要的是,你的数据不需要上传到任何云端 API,全程保留在本地机器上

现在,通过 Ollama 与一个轻量级 Excel 插件的结合,这一切已成为现实。

 Ollama Excel

由开发者 deepanshu88 开发的 Ollama Excel 插件,让 Excel 能够无缝连接本地(或远程)运行的 Ollama 服务,调用如 qwen3gemma3 等开源模型,实现真正的“本地 AI + 表格办公”融合。

本文将详细介绍如何安装、配置并使用该插件,助你在保护隐私的前提下,释放 Excel 的智能化潜力。

为什么选择 Ollama + Excel?

  • ✅ 数据不出本地:所有处理均在本地完成,无需依赖 OpenAI 或其他云服务。
  • ✅ 完全免费:Ollama 支持的模型均为开源可下载,无调用费用。
  • ✅ 灵活可控:支持自定义模型、系统提示、温度、最大输出长度等参数。
  • ✅ 集成自然:以函数形式嵌入 Excel,像使用 SUM() 一样调用 AI。

前提条件

在开始前,请确保已完成以下准备:

  1. 已安装 Ollama for Windows/macOS
  2. 至少下载一个本地模型(例如):
    ollama pull gemma3:4b
    
  3. 启用 Excel 宏和加载项支持
    • 推荐使用 Microsoft 365 桌面版 Excel(Windows)

步骤 1:下载并安装 Excel 插件

1.1 下载插件

前往 GitHub 项目页面下载 .xlam 插件文件:

🔗 https://github.com/deepanshu88/Ollama-Excel

下载完成后,你会得到一个 .xlam 格式的插件文件。

 Ollama Excel

1.2 解除 Windows 安全阻止

由于该文件来自网络,Windows 默认会将其标记为“不安全”。需手动解除阻止:

  1. 右键点击下载的 .xlam 文件 → 属性
  2. 在“常规”选项卡底部,勾选 “解除阻止”
  3. 点击“确定”保存

⚠️ 忽略此步可能导致插件无法加载。

1.3 在 Excel 中安装插件

  1. 打开 Excel
  2. 点击顶部菜单栏的 “文件” → “选项” → “加载项”
  3. 在底部“管理”下拉框中选择 “Excel 加载项”,点击 “转到…”
  4. 点击 “浏览”,选择你下载的 .xlam 文件
  5. 确认后,在弹出的加载项列表中勾选插件名称
  6. 点击“确定”

安装成功后,Excel 功能区将出现一个名为 “Ollama” 的新选项卡。

步骤 2:启动 Ollama 服务

你可以通过以下任一方式启动服务:

  • 手动启动:运行 ollama serve(通常开机自动运行)
  • 在 Excel 内启动
    • 点击 Ollama 选项卡中的 “启动 Ollama” 按钮
    • 或使用公式:=StartOllama()
      (如需指定端口:=StartOllama("11435")

默认服务地址为:http://127.0.0.1:11434

如何使用:核心函数 =Ollama()

这是插件的核心函数,语法如下:

=Ollama(userMsg, [model], [systemMsg], [temperature], [baseUrl], [maxTokens])

参数说明

参数是否必需说明
userMsg✅ 必需用户输入的问题或提示词
model❌ 可选指定使用的模型(如 "qwen3:4b"
systemMsg❌ 可选控制 AI 行为的系统指令(如 "Be concise"
temperature❌ 可选创造力控制(0.1–2.0,默认 0.7)
baseUrl❌ 可选自定义服务器地址(默认使用全局设置)
maxTokens❌ 可选最大响应长度(默认 32768)

使用示例

场景公式
基础调用=Ollama(A2)
指定模型=Ollama(A2, "gemma3:4b")
添加系统指令=Ollama(A2, "qwen3:4b", "用中文简要回答", 0.5)
仅调整温度=Ollama(A2, "", "", 0.3)
使用远程服务器=Ollama(A2, "", "", , "http://192.168.1.100:11434")
完整控制=Ollama(A2, "qwen3:4b", "你是数据分析师", 0.7, "http://127.0.0.1:11434", 500)

💡 提示:空参数用 "" 占位,以跳过中间可选参数。

辅助函数一览

插件还提供多个辅助函数,便于状态监控与自动化控制:

函数用途
=TestOllama()测试是否能连接到 Ollama 服务器
=IsOllamaRunning()返回 TRUE/FALSE,判断服务是否运行
=ListOllamaModels()列出本地所有已下载的模型
=GetSelectedModelInfo()显示当前默认模型信息
=GetOllamaStatus()获取完整服务状态报告
=StartOllama([port])启动 Ollama 服务
=StopOllama()停止服务
=RestartOllama()重启服务
=PullModel()返回模型下载指引(文本说明)
=GetGlobalModel()获取当前全局模型设置
=GetGlobalBaseURL()获取当前服务器地址
=GetGlobalTemperature()获取当前默认 temperature 值

实际应用场景

场景 1:批量生成邮件草稿

  • A列:客户名称
  • B列:产品描述
  • C列公式:
    =Ollama("为" & A2 & "撰写一封关于" & B2 & "的营销邮件,语气专业", "qwen3:4b", "", 0.8)
    

场景 2:自动分类文本

  • A列:用户反馈
  • B列公式:
    =Ollama(A2, "gemma3:4b", "分类为:产品问题、服务投诉、功能建议、正面反馈", 0.3)
    

场景 3:结构化提取

  • A列:新闻摘要
  • B列:=Ollama(A2, "", "提取:事件、时间、地点、涉及人物")

在 VBA 宏中调用插件函数

你也可以在 VBA 中调用这些函数,实现自动化流程:

Sub TestAI()

    Dim result As String
    result = Application.Run("Ollama", "美国的首都是哪里?", "gemma3:4b")

    MsgBox result

End Sub

这使得你可以构建基于 AI 的自动化报表生成、数据清洗等工作流。

常见问题与注意事项

🔹 模型未响应或超时?

  • 确保模型已通过 ollama run <model> 预加载
  • 检查 RAM 是否充足(建议 16GB+)
  • 复杂模型(如 7B 以上)在低配设备上响应较慢

🔹 函数返回 #NAME? 错误?

  • 插件未正确安装,请重新检查加载项状态
  • Excel 安全设置阻止了自定义函数

🔹 如何更改默认设置?

  • 使用 Ollama 选项卡中的按钮:
    • “更改模型” → 设置全局默认模型
    • “更改URL” → 切换本地/远程服务器
    • “检查状态” → 查看当前配置

🔹 支持哪些模型?

所有 Ollama 支持的模型均可使用,包括:

  • qwen3gemma3llama3.2phi3mistraldeepseek 等

数据统计

相关导航

暂无评论

none
暂无评论...