混元球(HunyuanBall)
混元球(HunyuanBall)

混元球(HunyuanBall)最新版

官方版无广告20

混元球(HunyuanBall)是一款在 Windows 10/11 上本地运行的翻译服务工具,基于腾讯开源的 Hunyuan-MT-1.5-1.8B GGUF 模型,通过 llama-server 提供 OpenAI 兼容 API,并内置 WebUI 界面。专为需要离线、私有、高效翻译的用户设计。

更新日期:
2026年1月26日
语言:
中文
平台:

1.06G3 人已下载 手机查看

无需联网 · 不占显存 · 支持沉浸式翻译插件 · 开箱即用

混元球(HunyuanBall)是一款在 Windows 10/11 上本地运行的翻译服务工具,基于腾讯开源的 Hunyuan-MT-1.5-1.8B GGUF 模型,通过 llama-server 提供 OpenAI 兼容 API,并内置 WebUI 界面。专为需要离线、私有、高效翻译的用户设计。

核心价值

  • ✅ 完全本地运行:无网络请求,数据不出本机
  • ✅ 纯 CPU 推理:无需独立显卡,笔记本也能流畅使用
  • ✅ 低资源占用:仅需 ~1.2GB 内存,启动后额外占用约 300MB
  • ✅ 无缝集成「沉浸式翻译」:一键配置,实现网页/YouTube 字幕全文翻译
  • ✅ 支持 33 种语言 + 5 种民汉/方言:覆盖主流语种及小语种(如捷克语、冰岛语、马拉地语等)

技术亮点:腾讯 Hunyuan-MT-1.5-1.8B 模型

  • 专为端侧设备优化,量化后仅 1.8B 参数
  • 在 Flores200、WMT25、民汉翻译测试集 上表现优异:
    • 超越多数中等开源模型
    • 接近 Gemini-3.0-Pro 的 90% 水平
    • 在部分任务上优于主流商用 API
  • 仅需 1GB 内存即可流畅运行,适合日常科研、阅读、字幕翻译等场景

快速开始

1. 准备环境

2. 下载模型

将模型文件放入 models/ 目录:
🔗 Hugging Face 模型下载(Q4/Q6/Q8 可选)

示例路径:

models/HY-MT1.5-1.8B-Q4_K_M.gguf

3. 启动服务

双击 HYBall.exe,系统托盘将出现图标。

  • 默认 API 地址:http://127.0.0.1:58088/v1/chat/completions
  • WebUI 界面:webui/index.html(自动打开或手动访问)

集成「沉浸式翻译」插件

  1. 打开插件设置 → 翻译服务 → 添加自定义服务 → 选择 OpenAI
  2. 填写以下参数:
配置项
自定义名称混元球 (HunyuanBall)
API Keyhunyuan
接口地址http://127.0.0.1:58088/v1/chat/completions
每秒最大请求数1~2(低配)或 4(高配)
每次请求最大长度600(低配)或 1000(高配)
每次请求最大段落1~2(稳定)或 4(高速)

💡 提示:若修改默认端口,请同步更新接口地址。

配置说明(config.json

{
  "model_path": "models/HY-MT1.5-1.8B-Q4_K_M.gguf",
  "host": "127.0.0.1",
  "port": 58088,
  "threads": 2,
  "threads_batch": 2,
  "ctx": 1024,
  "batch": 256,
  "extra_args": ["--no-webui"],
  "autostart": true,
  "open_webui_on_ready": true,
  "show_tips": true
}

关键参数建议

场景推荐配置
低配机器(如 i5/R5)threads=1~2ctx=1024batch=256
沉浸式翻译:QPS=1, 段落数=1, 长度=600
高性能机器(如 Ryzen 7/9)threads=4~8ctx=2048batch=512
沉浸式翻译:QPS=4, 段落数=4, 长度=1000

路径支持 / 或 \\,如 models/HY-MT1.5-1.8B-Q4_K_M.gguf

📁 目录结构

混元球/
├── HYBall.exe          # 主程序(托盘应用)
├── _internal/          # 运行时依赖(勿删)
├── config.json         # 配置文件
├── llama/              # llama-server 及 DLL
├── webui/              # 内置 WebUI 界面
├── models/             # 放置 .gguf 模型文件
└── logs/               # 日志目录(launcher.log / llama-server.log)

❓ 常见问题

Q:启动失败,提示“找不到模型”?

A:检查 models/ 目录是否存在 .gguf 文件,且 model_path 路径正确。

Q:翻译速度慢?

A:降低并发参数(段落数、QPS),或减少 ctx 和 batch。CPU 翻译首次响应约 1.5–3 秒,后续更快。

Q:端口 58088 被占用?

A:修改 config.json 中的 port 为其他空闲端口(如 58100)。

Q:日志在哪里?

A:

  • 托盘程序日志:logs/launcher.log
  • 模型服务日志:logs/llama-server.log

性能实测(Ryzen 3700X)

  • 内存占用:1.2–1.5 GB
  • 首次翻译响应:1.5–3 秒
  • 后续请求:显著加速(缓存生效)
  • 网页全文翻译:基本 1–3 秒内完成(合理配置下)

未来计划

  • 支持 macOS / Linux
  • 图形化配置界面
  • 多模型切换支持
  • 更智能的上下文分片策略

相关软件

OpenClaw Manager

OpenClaw Manager - 最新版

OpenClaw Manager 是一款基于 Tauri 2.0 + React + TypeScript + Rust 构建的高性能跨平台 AI 助手图形化管理工具,它为命令行版 OpenClaw 提供了可视化操作界面,无需记忆复杂命令,就能完成服务监控、模型配置、渠道连接等全流程操作,对新手更友好,同时兼顾高性能与跨平台兼容性。
TextGO

TextGO - 最新版

TextGO 是一款跨平台的全局快捷键工具,专为文字工作者设计。它不依赖复杂的组合键,而是通过智能识别你选中的文本内容,自动匹配并执行对应操作——真正实现“选中即处理”,大幅降低认知负担。

暂无评论

none
暂无评论...