Yuns 桌面助手:支持多模型对话与 MCP 工具调用的 AI 桌面宠物
Yuns 桌面助手:支持多模型对话与 MCP 工具调用的 AI 桌面宠物

Yuns 桌面助手:支持多模型对话与 MCP 工具调用的 AI 桌面宠物最新版

官方版无广告24

Yuns 是一款运行在桌面端的 AI 助手,以“桌面宠物”形式呈现,融合了多模型对话能力、视觉分析、MCP(Model Context Protocol)工具调用等实用功能。

更新日期:
2025年12月28日
语言:
中文
平台:

107MB0 人已下载 手机查看

Yuns 是一款运行在桌面端的 AI 助手,以“桌面宠物”形式呈现,融合了多模型对话能力、视觉分析、MCP(Model Context Protocol)工具调用等实用功能。它不仅支持主流国内外 AI 模型,还允许用户通过标准化协议让 AI 自主操作本地系统资源,实现真正意义上的“智能代理”。

多模型 AI 对话:覆盖国内外主流服务商

Yuns 支持超过 10 家 AI 提供商的模型接入,涵盖国际和国内服务,用户可自由切换使用。

国际服务

  • DeepSeek:DeepSeek-V3 Chat、DeepSeek-R1 推理模型
  • Google Gemini:Gemini 3 Pro/Flash、Gemini 2.5 系列(最新)
  • OpenAI:GPT-4o、o1/o3 推理系列
  • Anthropic Claude:Claude Sonnet 4、Claude 3.5 系列
  • Groq(免费):Llama 3.3 70B,提供高速推理

国内服务

  • 智谱 GLM:GLM-4 Plus、GLM-4V 视觉模型
  • 月之暗面 Kimi:Moonshot v1 系列(支持 128K 超长上下文)
  • 零一万物 Yi:Yi Lightning、Yi Large
  • 硅基流动:Qwen2.5、DeepSeek-V3 托管版

自定义 API

  • 支持任意 OpenAI 兼容接口
  • 可手动输入模型 ID,灵活接入私有或第三方模型

视觉分析:一键截屏,AI 解读

  • 点击按钮即可截取当前屏幕并发送给 AI 分析
  • 支持多模态视觉理解(如图像内容识别、文字提取等)
  • 截图前自动隐藏 Yuns 窗口,确保图像干净无干扰

MCP 工具调用:让 AI 操作你的电脑

Yuns 实现了 Model Context Protocol (MCP) 标准,使 AI 能够调用本地工具完成复杂任务。

内置预设工具

  • 文件系统:读写本地文件
  • 终端命令:执行系统 Shell 指令
  • 网络请求:发起 HTTP 请求

自定义 MCP 服务器

  • 支持添加外部 MCP 服务
  • 可配置命令路径与参数

预设配置示例

# 文件系统
command: npx
args: -y @modelcontextprotocol/server-filesystem C:/

# 终端命令
command: npx
args: -y @anthropics/mcp-server-shell

# 网络请求
command: npx
args: -y @anthropics/mcp-server-fetch

启用后,AI 可在对话中自主决定调用工具,例如:“帮我创建一个名为 notes.txt 的文件,并写入今天的工作计划”。

Gemini API 中转站:兼容 OpenAI 格式

为方便在其他应用中使用 Gemini,Yuns 内置 Gemini API 代理服务

  • 默认端口:3001
  • 访问地址:http://127.0.0.1:3001/v1/chat/completions
  • 支持 OpenAI 兼容格式调用
  • 自动从配置中同步多个 Gemini Key,支持轮询负载均衡

网络代理与通用设置

代理配置

  • 支持 HTTP/HTTPS 代理
  • 动态生效,无需重启应用
  • 可测试代理连接状态

其他设置

  • 窗口置顶:在“通用设置”中开启
  • 宠物尺寸调节:小(180×180)、中(230×230,默认)、大(280×280)
  • 主题切换:支持明/暗色模式
  • 对话导出:可保存为 Markdown 文件,路径可在 config.js 中自定义

快速配置指南

1. 配置 API

  • 双击桌面宠物打开对话窗口
  • 点击右上角 ⚙️ 进入设置 → “API 配置”
  • 填写 API 地址与密钥,点击“测试连接”验证
  • 支持的默认地址与推荐模型如下表:
提供商默认 API 地址推荐模型
DeepSeekhttps://api.deepseek.com/v1/chat/completionsdeepseek-chatdeepseek-reasoner
Google Geminihttps://generativelanguage.googleapis.com/v1beta/modelsgemini-3-pro-previewgemini-2.5-flash
OpenAIhttps://api.openai.com/v1/chat/completionsgpt-4oo1o3-mini
Anthropichttps://api.anthropic.com/v1/messagesclaude-sonnet-4claude-3-5-sonnet
Groqhttps://api.groq.com/openai/v1/chat/completionsllama-3.3-70b-versatile
智谱 GLMhttps://open.bigmodel.cn/api/paas/v4/chat/completionsglm-4-plusglm-4v-plus
月之暗面 Kimihttps://api.moonshot.cn/v1/chat/completionsmoonshot-v1-128k
零一万物 Yihttps://api.lingyiwanwu.com/v1/chat/completionsyi-lightningyi-large
硅基流动https://api.siliconflow.cn/v1/chat/completionsQwen/Qwen2.5-72B-Instruct

注:部分内容页面(如 deepseek.com 和 siliconflow.cn 的 API 端点)曾被用于展示非相关内容,建议用户仅从官方渠道获取 API 地址。

2. 配置 MCP 工具

  • 进入“设置” → “🛠️ MCP 工具”
  • 开启“启用 MCP 工具调用”
  • 选择预设或添加自定义服务器,勾选“启用此服务器”并连接

3. 启用 Gemini 中转站

  • 进入“设置” → “API 中转站”
  • 开启服务(默认端口 3001)
  • 其他应用可通过 http://127.0.0.1:3001/v1/chat/completions 调用

4. 使用自定义 API 或中转站

  • 选择“自定义 API”类型
  • 填入中转站提供的 API 地址与 Key
  • 可从列表选择模型,或手动输入模型 ID

相关软件

LM Studio

LM Studio - 最新版

LM Studio 是一款开源程序,旨在帮助用户在本地设备上运行和实验各种大语言模型,它提供了一个简单而强大的界面,用于配置和推理模型,并能够利用显卡加速计算。此外,该程序完全支持离线运行,适合个人用户在笔记本电脑或台式机上部署开源模型。

暂无评论

none
暂无评论...