TextGO - 最新版
TextGO 是一款跨平台的全局快捷键工具,专为文字工作者设计。它不依赖复杂的组合键,而是通过智能识别你选中的文本内容,自动匹配并执行对应操作——真正实现“选中即处理”,大幅降低认知负担。


混元球(HunyuanBall)是一款在 Windows 10/11 上本地运行的翻译服务工具,基于腾讯开源的 Hunyuan-MT-1.5-1.8B GGUF 模型,通过 llama-server 提供 OpenAI 兼容 API,并内置 WebUI 界面。专为需要离线、私有、高效翻译的用户设计。
1.06G3 人已下载 手机查看
无需联网 · 不占显存 · 支持沉浸式翻译插件 · 开箱即用
混元球(HunyuanBall)是一款在 Windows 10/11 上本地运行的翻译服务工具,基于腾讯开源的 Hunyuan-MT-1.5-1.8B GGUF 模型,通过 llama-server 提供 OpenAI 兼容 API,并内置 WebUI 界面。专为需要离线、私有、高效翻译的用户设计。
将模型文件放入 models/ 目录:
🔗 Hugging Face 模型下载(Q4/Q6/Q8 可选)
示例路径:
models/HY-MT1.5-1.8B-Q4_K_M.gguf
双击 HYBall.exe,系统托盘将出现图标。
http://127.0.0.1:58088/v1/chat/completionswebui/index.html(自动打开或手动访问)| 配置项 | 值 |
|---|---|
| 自定义名称 | 混元球 (HunyuanBall) |
| API Key | hunyuan |
| 接口地址 | http://127.0.0.1:58088/v1/chat/completions |
| 每秒最大请求数 | 1~2(低配)或 4(高配) |
| 每次请求最大长度 | 600(低配)或 1000(高配) |
| 每次请求最大段落 | 1~2(稳定)或 4(高速) |
💡 提示:若修改默认端口,请同步更新接口地址。
config.json){
"model_path": "models/HY-MT1.5-1.8B-Q4_K_M.gguf",
"host": "127.0.0.1",
"port": 58088,
"threads": 2,
"threads_batch": 2,
"ctx": 1024,
"batch": 256,
"extra_args": ["--no-webui"],
"autostart": true,
"open_webui_on_ready": true,
"show_tips": true
}
| 场景 | 推荐配置 |
|---|---|
| 低配机器(如 i5/R5) | threads=1~2, ctx=1024, batch=256沉浸式翻译:QPS=1, 段落数=1, 长度=600 |
| 高性能机器(如 Ryzen 7/9) | threads=4~8, ctx=2048, batch=512沉浸式翻译:QPS=4, 段落数=4, 长度=1000 |
路径支持
/或\\,如models/HY-MT1.5-1.8B-Q4_K_M.gguf
混元球/
├── HYBall.exe # 主程序(托盘应用)
├── _internal/ # 运行时依赖(勿删)
├── config.json # 配置文件
├── llama/ # llama-server 及 DLL
├── webui/ # 内置 WebUI 界面
├── models/ # 放置 .gguf 模型文件
└── logs/ # 日志目录(launcher.log / llama-server.log)
Q:启动失败,提示“找不到模型”?
A:检查 models/ 目录是否存在 .gguf 文件,且 model_path 路径正确。
Q:翻译速度慢?
A:降低并发参数(段落数、QPS),或减少 ctx 和 batch。CPU 翻译首次响应约 1.5–3 秒,后续更快。
Q:端口 58088 被占用?
A:修改 config.json 中的 port 为其他空闲端口(如 58100)。
Q:日志在哪里?
A:
logs/launcher.loglogs/llama-server.log