新英伟达发布 Nemotron 3 Super:1200 亿参数 MoE 架构,智能体吞吐量飙升 5 倍随着企业 AI 应用从简单的聊天机器人向复杂的多智能体系统(Multi-Agent Systems)演进,两大瓶颈日益凸显:上下文爆炸导致成本激增与目标漂移,以及每一步都需大模型推理带来的高昂"思考税...大语言模型# NVIDIA Nemotron 3 Super# 英伟达4小时前030
Ai2 发布 Olmo Hybrid:混合架构的“效率革命”,用一半数据训练出同等能力的 7B 模型“如果 Transformer 是记忆大师,线性 RNN 是状态追踪者,那么混合模型就是集两者之大成的‘全能选手’。” 艾伦AI研究所(Ai2)今日正式发布了 Olmo Hybrid,这是一个全新的 ...大语言模型# Olmo Hybrid# 艾伦AI研究所4天前0150
印度SarvamAI 开源 30B/105B 推理模型,全栈自研挑战全球巨头印度初创公司 SarvamAI 开源了其旗舰推理模型系列:Sarvam 30B 和 Sarvam 105B。这两个模型不仅是目前印度本土构建的最大规模开源模型,更代表了全球范围内罕见的全栈自研(Ful...大语言模型# Sarvam 105B# Sarvam 30B# SarvamAI4天前0150
OpenAI 发布 GPT-5.4:原生“计算机使用”能力觉醒,智能体正式接管复杂工作流“它不再只是陪你聊天的机器人,而是能真正操作你电脑、编写并调试代码、处理复杂报表的数字员工。” OpenAI 正式推出 GPT-5.4,这是 GPT-5 系列中迄今为止最强大的通用模型。它不仅继承了 ...大语言模型早报# GPT-5.4# OpenAI# 智能体5天前0100
谷歌 Gemini 3.1 Flash-Lite 发布:首字速度快 2.5 倍,每百万输入仅$0.25,重新定义高性价比 AI在 AI 模型竞相追求更大参数、更强能力的今天,谷歌反其道而行之,推出了 Gemini 3.1 Flash-Lite。这款专为高容量、低延迟、低成本场景打造的新模型,旨在证明:在速度与效率的赛道上,轻...大语言模型早报# Gemini 3.1 Flash-Lite# 谷歌1周前0240
OpenAI 推出 GPT-5.3 Instant:告别“说教式”拒答,幻觉率最高直降 27%,重塑日常对话体验OpenAI 今日正式向 ChatGPT 所有用户及 API 开发者推送 GPT-5.3 Instant 更新。将作为ChatGPT的默认模型,此次升级并未追求参数量或新能力的爆发,而是专注于打磨日常...大语言模型早报# GPT-5.3 Instant# OpenAI1周前0170
Qwen3.5 小模型系列重磅发布:0.8B 至 9B 全覆盖,原生多模态与强化学习赋能边缘智能通义千问(Qwen)家族再添新成员!Qwen3.5 小模型系列今日正式发布,涵盖 0.8B、2B、4B、9B 四种参数量级。这一系列模型不仅继承了 Qwen3.5 大模型的强大基因,更在效率与性能的平...大语言模型# Qwen3.51周前0660
Perplexity 开源两款高性能嵌入模型:4B 参数支持二进制量化,检索效果超越 Gemini 与 Qwen在检索增强生成(RAG)和大规模语义搜索领域,嵌入模型(Embedding Model)的性能与成本往往难以兼得。今日,AI搜索引擎 Perplexity AI 发布了专为互联网规模检索任务打造的两款...大语言模型# Perplexity# pplx-embed-context-v1# pplx-embed-v12周前0210
Inception Labs 发布 Mercury 2:扩散式 LLM 打破自回归瓶颈,推理速度提升 10 倍在大型语言模型(LLM)领域,自回归(Autoregressive)架构长期占据主导地位,但其“逐字生成”的特性已成为高延迟场景的痛点。今日,Inception Labs 正式推出 Mercury 2...大语言模型# Inception Labs# Mercury 2# 扩散式 LLM2周前0310
西班牙“准独角兽”Multiverse 发布免费压缩模型Hypernova-60B-2602:60B 参数仅占 32GB,性能比肩 Mistral Large 3大型语言模型(LLM)虽强,但“大”往往意味着高昂的部署成本和难以逾越的硬件门槛。西班牙巴斯克地区的初创公司 Multiverse Computing 正试图打破这一僵局。 今日,该公司正式发布了 H...大语言模型# Hypernova-60B-2602# Multiverse2周前0640
Qwen3.5 中型模型系列重磅开源:35B 越级挑战 235B,架构效率重塑 AI 新标杆在基础大模型的竞赛中,参数规模曾是衡量智能的唯一标尺。但今天,阿里 Qwen 项目组用最新发布的 Qwen3.5 中型模型系列 证明:推动智能进步的,不再仅仅是更大的参数,而是更优的架构、更精的数据和...大语言模型# Qwen3.5-122B-A10B# Qwen3.5-27B# Qwen3.5-35B-A3B2周前0620
LiquidAI 发布 LFM2-24B-A2B:240 亿参数 MoE 模型,仅需 20 亿激活即可在 32GB 内存笔记本上流畅运行大模型是否只能存在于云端集群?LiquidAI 给出了否定的答案。 LiquidAI 正式发布了 LFM2-24B-A2B,这是其 LFM2 家族中规模最大的早期模型。这款稀疏混合专家(MoE)模型拥...大语言模型# LFM2-24B-A2B# LiquidAI2周前05530