
oLLM
oLLM 是一个轻量级的 Python 库,用于大型上下文 LLM 推理,基于 Huggingface Transformers 和 PyTorch 构建。它使运行像 gpt-oss-20B、qwen3-next-80B 或 Llama-3.1-8B-Instruct 这样的模型在 100k 上下文下使用约 200 美元的消费级 GPU(8GB VRAM)成为可能。不使用量化——仅使用 fp16/bf16 精度。
ALLWEONE® AI Presentation Generator 是一款开源的 AI 驱动演示文稿生成工具,灵感源自 Gamma.app,但更强调开放性、自定义能力与本地模型兼容性。用户可在几分钟内生成结构完整、设计专业的幻灯片,并全程掌控内容与样式。

| 类别 | 技术/工具 |
|---|---|
| 前端框架 | Next.js + React + TypeScript |
| 样式 | Tailwind CSS |
| 数据库 | PostgreSQL + Prisma ORM |
| AI 集成 | OpenAI API、Together AI |
| 身份验证 | NextAuth.js(支持 Google) |
| UI 组件 | Radix UI |
| 文件上传 | UploadThing |
| 拖放交互 | DND Kit |
ALLWEONE 支持通过 Ollama 或 LM Studio 调用本地运行的 AI 模型:
ollama pull llama3.1 等命令下载模型,启动服务即可在应用中选择使用。提示:本地模型模式适合注重隐私或希望离线使用的用户,同时可降低 API 调用成本。
.env.example)。pnpm db:push 创建表结构。pnpm dev,访问 http://localhost:3000 即可开始使用。






