混元球(HunyuanBall)
混元球(HunyuanBall)

混元球(HunyuanBall)最新版

官方版无广告13

混元球(HunyuanBall)是一款在 Windows 10/11 上本地运行的翻译服务工具,基于腾讯开源的 Hunyuan-MT-1.5-1.8B GGUF 模型,通过 llama-server 提供 OpenAI 兼容 API,并内置 WebUI 界面。专为需要离线、私有、高效翻译的用户设计。

更新日期:
2026年1月26日
语言:
中文
平台:

1.06G3 人已下载 手机查看

无需联网 · 不占显存 · 支持沉浸式翻译插件 · 开箱即用

混元球(HunyuanBall)是一款在 Windows 10/11 上本地运行的翻译服务工具,基于腾讯开源的 Hunyuan-MT-1.5-1.8B GGUF 模型,通过 llama-server 提供 OpenAI 兼容 API,并内置 WebUI 界面。专为需要离线、私有、高效翻译的用户设计。

核心价值

  • ✅ 完全本地运行:无网络请求,数据不出本机
  • ✅ 纯 CPU 推理:无需独立显卡,笔记本也能流畅使用
  • ✅ 低资源占用:仅需 ~1.2GB 内存,启动后额外占用约 300MB
  • ✅ 无缝集成「沉浸式翻译」:一键配置,实现网页/YouTube 字幕全文翻译
  • ✅ 支持 33 种语言 + 5 种民汉/方言:覆盖主流语种及小语种(如捷克语、冰岛语、马拉地语等)

技术亮点:腾讯 Hunyuan-MT-1.5-1.8B 模型

  • 专为端侧设备优化,量化后仅 1.8B 参数
  • 在 Flores200、WMT25、民汉翻译测试集 上表现优异:
    • 超越多数中等开源模型
    • 接近 Gemini-3.0-Pro 的 90% 水平
    • 在部分任务上优于主流商用 API
  • 仅需 1GB 内存即可流畅运行,适合日常科研、阅读、字幕翻译等场景

快速开始

1. 准备环境

2. 下载模型

将模型文件放入 models/ 目录:
🔗 Hugging Face 模型下载(Q4/Q6/Q8 可选)

示例路径:

models/HY-MT1.5-1.8B-Q4_K_M.gguf

3. 启动服务

双击 HYBall.exe,系统托盘将出现图标。

  • 默认 API 地址:http://127.0.0.1:58088/v1/chat/completions
  • WebUI 界面:webui/index.html(自动打开或手动访问)

集成「沉浸式翻译」插件

  1. 打开插件设置 → 翻译服务 → 添加自定义服务 → 选择 OpenAI
  2. 填写以下参数:
配置项
自定义名称混元球 (HunyuanBall)
API Keyhunyuan
接口地址http://127.0.0.1:58088/v1/chat/completions
每秒最大请求数1~2(低配)或 4(高配)
每次请求最大长度600(低配)或 1000(高配)
每次请求最大段落1~2(稳定)或 4(高速)

💡 提示:若修改默认端口,请同步更新接口地址。

配置说明(config.json

{
  "model_path": "models/HY-MT1.5-1.8B-Q4_K_M.gguf",
  "host": "127.0.0.1",
  "port": 58088,
  "threads": 2,
  "threads_batch": 2,
  "ctx": 1024,
  "batch": 256,
  "extra_args": ["--no-webui"],
  "autostart": true,
  "open_webui_on_ready": true,
  "show_tips": true
}

关键参数建议

场景推荐配置
低配机器(如 i5/R5)threads=1~2ctx=1024batch=256
沉浸式翻译:QPS=1, 段落数=1, 长度=600
高性能机器(如 Ryzen 7/9)threads=4~8ctx=2048batch=512
沉浸式翻译:QPS=4, 段落数=4, 长度=1000

路径支持 / 或 \\,如 models/HY-MT1.5-1.8B-Q4_K_M.gguf

📁 目录结构

混元球/
├── HYBall.exe          # 主程序(托盘应用)
├── _internal/          # 运行时依赖(勿删)
├── config.json         # 配置文件
├── llama/              # llama-server 及 DLL
├── webui/              # 内置 WebUI 界面
├── models/             # 放置 .gguf 模型文件
└── logs/               # 日志目录(launcher.log / llama-server.log)

❓ 常见问题

Q:启动失败,提示“找不到模型”?

A:检查 models/ 目录是否存在 .gguf 文件,且 model_path 路径正确。

Q:翻译速度慢?

A:降低并发参数(段落数、QPS),或减少 ctx 和 batch。CPU 翻译首次响应约 1.5–3 秒,后续更快。

Q:端口 58088 被占用?

A:修改 config.json 中的 port 为其他空闲端口(如 58100)。

Q:日志在哪里?

A:

  • 托盘程序日志:logs/launcher.log
  • 模型服务日志:logs/llama-server.log

性能实测(Ryzen 3700X)

  • 内存占用:1.2–1.5 GB
  • 首次翻译响应:1.5–3 秒
  • 后续请求:显著加速(缓存生效)
  • 网页全文翻译:基本 1–3 秒内完成(合理配置下)

未来计划

  • 支持 macOS / Linux
  • 图形化配置界面
  • 多模型切换支持
  • 更智能的上下文分片策略

相关软件

TextGO

TextGO - 最新版

TextGO 是一款跨平台的全局快捷键工具,专为文字工作者设计。它不依赖复杂的组合键,而是通过智能识别你选中的文本内容,自动匹配并执行对应操作——真正实现“选中即处理”,大幅降低认知负担。
Evo Chat 

Evo Chat  - 最新版

Evo Chat是一个现代化的开源 AI 对话平台,致力于打造最优雅的大模型交互入口。它支持对接 ChatGPT,Deepseak, 等主流大语言模型(LLM)服务商,并在此基础上不断进化,识库增强、多模态处理、MCP等扩展能力,让 AI 能力更加丰富。支持全平台部署,为用户提供无处不在的 AI 能力入口。
Polyglot Air

Polyglot Air - 最新版

Polyglot Air 是一款轻量级桌面应用,将高质量、100% 本地的 AI 翻译与文本处理能力直接嵌入你的工作流。无需复制粘贴,无需联网,无需牺牲隐私——选中文本,按下快捷键,即刻获得翻译、润色或总结。

暂无评论

none
暂无评论...