
Inference.net
Inference.net 让开发者只需几行代码即可轻松访问领先的开源AI模型。我们的使命是打造最佳的AI原生平台,让开发者能够构建自己的AI应用。
AIClient2API 是一个突破客户端限制的 API 代理服务,将 Gemini、Antigravity、Qwen Code、Kiro 等原本仅限客户端内使用的免费大模型,转换为可供任何应用调用的标准 OpenAI 兼容接口。
AIClient-2-API 是一款专为突破大模型使用限制打造的 API 代理服务,基于 Node.js 构建,能将 Gemini CLI、Antigravity、Qwen Code、Kiro 等原本仅限客户端使用的免费大模型,统一封装为标准的 OpenAI 兼容接口。无论是想免费调用 Claude Opus 4.5、Gemini 3.0 Pro 等高级模型,还是让 Cherry-Studio、NextChat 等工具无缝对接多平台模型,这款工具都能一站式解决,还内置高可用机制和可视化管理控制台,兼顾实用性与易用性。

一行命令即可启动,自动映射所需端口,配置目录持久化不丢失:
docker run -d \
-p 3000:3000 \ # Web UI 控制台端口
-p 8085-8087:8085-8087 \# OAuth 回调端口(Gemini:8085、Antigravity:8086、iFlow:8087)
-p 1455:1455 \ # Codex 回调端口
-p 19876-19880:19876-19880 \# Kiro 回调端口
--restart=always \ # 容器异常自动重启
-v "/home/user/aiclient-configs:/app/configs" \ # 替换为实际路径,持久化配置
--name aiclient2api \
justlikemaki/aiclient-2-api
# 进入 docker 目录(需先克隆项目)
cd docker
# 创建配置目录
mkdir -p configs
# 启动(使用预构建镜像)
docker compose up -d
# 如需从源码构建,先修改 docker-compose.yml:
# 1. 注释 image: justlikemaki/aiclient-2-api:latest
# 2. 取消 build: 部分注释
# 3. 执行构建并启动
docker compose up -d --build
无需手动装依赖,脚本自动完成环境检查、依赖安装、服务启动:
# Linux/macOS
chmod +x install-and-run.sh && ./install-and-run.sh
# Windows
双击运行 install-and-run.bat
脚本/容器启动成功后,打开浏览器访问:http://localhost:3000
默认登录密码:admin123(登录后可在控制台或修改 pwd 文件修改密码)
控制台集成全量管理功能,无需懂代码也能配置:
支持图片、文档等多种格式输入,比如上传图片调用 Gemini 3 Pro 进行图文理解,上传代码文件让 Qwen3 Coder Plus 分析优化,适配更多应用场景。
已适配当前主流高级模型,仅需在控制台配置对应端点即可使用:
configs 目录,否则容器重启后配置会丢失;




