Cloi CLI

7个月前发布 179 00

Cloi CLI 是一款专注于隐私与安全的本地化调试工具,适合需要高效解决代码问题的开发者。尽管目前仍处于 Beta 阶段,但其强大的功能和灵活的定制选项已经展现出巨大的潜力。

所在地:
美国
收录时间:
2025-05-05
Cloi CLICloi CLI

在现代开发环境中,调试是一项既重要又耗时的任务。Cloi CLI 是一款本地化的、上下文感知的调试代理工具,简化这一过程。它完全运行在你的设备上,确保代码和数据的隐私安全,同时提供自动化修复功能,帮助开发者快速定位并解决问题。

核心特性

Cloi CLI 专为习惯终端操作且重视隐私的开发者设计,具有以下特点:

  • 100% 本地运行:你的代码不会离开设备,无需依赖云端服务或 API 密钥,确保数据隐私与安全。
  • 自动化修复(Beta):通过单一命令分析错误,并直接在代码库中应用修复补丁。
  • 安全可控:所有更改在应用前均需手动审查,确保开发者对每一步操作拥有完全控制权。
  • 可定制性:默认搭载 Phi-4 模型,支持通过 Ollama 更换模型以满足不同需求。
  • 免费开源:提供可扩展架构,支持分叉、定制和社区贡献。

安装与使用

安装

Cloi CLI 可全局安装,无需任何 API 密钥,完全本地运行。

  1. 确保你的系统满足以下要求:

    • 内存:最低 8GB RAM(建议 16GB+)
    • 存储:至少 10GB 可用空间(Phi-4 模型占用约 9.1GB)
    • 处理器:已在 M2 和 M3 芯片上测试
    • 操作系统:macOS(Big Sur 11.0+)、Linux 和 Windows(有限测试)
    • 运行时环境:Node.js 14+ 和 Python 3.6+
    • Shell:Zsh、Fish 或 Bash(有限测试)
  2. 在项目目录中调用 Cloi CLI,开始调试。

使用方法

进入终端后,可以通过以下命令与 Cloi 交互:

  • 输入 内存cloi --help 内存查看所有可用命令。
  • 使用 内存--model 内存标志指定 Ollama 模型,例如:cloi --model phi-4
  • 使用 内存/model 内存命令查看本地已安装的 Ollama 模型。

Beta 功能与注意事项

Cloi CLI 目前处于 Beta 阶段,部分功能仍在完善中。以下是需要注意的事项:

  • 自动化修复功能
    尽管自动化修复功能可以显著提升效率,但我们强烈建议:

    • 在接受任何更改前仔细审查内容。
    • 首先在开发环境中测试更改。
    • 在使用自动化修复功能前备份代码。
  • Ollama 集成
    Cloi CLI 默认使用 Phi-4 模型,并支持通过 Ollama 更换模型。最新版本引入了基于 JSON 的结构化输出,提升了补丁的稳健性。

更新日志

[1.0.5] - 2025年5月4日 晚上9:10(太平洋标准时间)

  • 错误修复:解决了 内存package.json 内存中的依赖问题。
  • 依赖升级:将 Ollama 从废弃的 0.1.1 版本升级至 0.5.15,修复了 内存ollama.chat 内存API 端点问题。

[1.0.2] - 2025年5月4日 中午12:20(太平洋标准时间)

  • 功能增强:集成了 Ollama 最新 API 的结构化输出,创建更稳健的补丁。
  • CLI 模型选择:新增 内存--model 内存标志,允许直接从命令行指定 Ollama 模型。
  • UI 改进/model 内存命令现可显示本地安装的 Ollama 模型。
  • 内部重构:优化了代码结构,提升了项目的概念完整性。

数据统计

相关导航

暂无评论

none
暂无评论...