Cortex
Cortex

Cortex最新版

官方版无广告56

Cortex 是一款类似于 Ollama 的开源命令行软件,专为运行大语言模型而设计。它通过简洁的命令行操作,让用户能够快速启动和运行大型语言模型,支持 macOS、Windows 和 Linux 等多种操作系统。

更新日期:
2025年2月24日
语言:
中文
平台:

1.75GB 0 人已下载 手机查看

Cortex 是一款由 Homebrew 开发类似于 Ollama 的命令行工具,旨在帮助用户快速启动和运行开源大语言模型。它支持多种操作系统(macOS、Windows 和 Linux)。如果你不习惯使用命令行,Homebrew还提供了带有 UI 界面的 Jan 软件,方便不熟悉命令行操作的用户使用。

Cortex

核心特点

  • 多引擎支持:从 llama.cpp 开始,用户可以自由添加自己的引擎,满足多样化的使用需求。
  • 硬件优化:Cortex 能够自动检测 GPU(支持英伟达、AMD 和英特尔),并根据硬件配置进行优化,确保最佳性能。
Cortex

主要特性

  • 简洁的 CLI:受 Ollama 启发,Cortex 提供了简洁高效的命令行界面,让用户能够快速上手。
  • 完整的 C++ 实现:基于 C++ 开发,Cortex 可以轻松打包到桌面和移动应用中,具备高效的性能表现。
  • 灵活的模型管理:支持从 Hugging Face 或 Cortex 内置模型库拉取模型,并以通用文件格式存储,方便管理和使用。
  • 可交换的推理后端:默认支持 llamacpp 和 ONNXRuntime,用户可以根据需求选择不同的推理后端。
  • 独立部署或集成:Cortex 可以作为独立的 API 服务器运行,也可以集成到 Jan.ai 等应用中,提供灵活的部署选项。
  • 自动 API 文档:服务器端提供自动化的 API 文档,方便开发者快速接入和使用。
  • 未来规划:Cortex 的路线图包括实现与 OpenAI API 的完全兼容,支持工具、运行、多模态和实时 API。

推理后端

  • llama.cpp:跨平台,适合大多数笔记本电脑、台式机和操作系统。
  • ONNX Runtime(未来支持):适用于 Windows Copilot+ PC 和 NPU,同时支持传统机器学习模型。

模型管理

Cortex.cpp 允许用户从多个模型中心拉取模型,提供广泛的模型访问权限。支持的模型中心包括:

  • Hugging Face
  • Cortex 内置模型

硬件要求指南

作为参考,运行不同规模的模型需要以下显存容量:

  • 3B 模型:建议至少 8 GB 可用显存
  • 7B 模型:建议至少 16 GB 可用显存
  • 14B 模型:建议至少 32 GB 可用显存

Cortex 适用场景

Cortex 适合以下用户和场景:

  1. 开发者:希望快速部署和运行开源大语言模型,进行开发和测试。
  2. 研究人员:需要灵活的模型管理和高效的推理后端,支持多种硬件平台。
  3. 企业用户:希望通过本地部署和 API 集成,将大语言模型应用于实际业务。
  4. 普通用户:通过 Jan.ai 的 UI 界面,轻松使用大语言模型,无需命令行操作。

相关软件

LM Studio - 最新版

LM Studio 是一款开源程序,旨在帮助用户在本地设备上运行和实验各种大语言模型,它提供了一个简单而强大的界面,用于配置和推理模型,并能够利用显卡加速计算。此外,该程序完全支持离线运行,适合个人用户在笔记本电脑或台式机上部署开源模型。

暂无评论

none
暂无评论...