Anthropic发布 Claude Opus 4.1:代理任务、现实世界编码和推理的升级Anthropic今天发布了 Claude Opus 4.1,这是对 Claude Opus 4 在代理任务、现实世界编码和推理方面的升级。我们计划在未来几周发布对模型的更大改进。 Claude Op...大语言模型# Anthropic# Claude Opus 4.14个月前02670
Homunculus-12B:在消费级显卡上运行的高效推理模型随着大语言模型不断向轻量化和高性能方向演进,Arcee Homunculus-12B 成为一个值得关注的新成员。它是一款基于 Qwen3-235B 蒸馏而来、部署在 Mistral-Nemo 架构上的...大语言模型# Homunculus-12B# 推理模型6个月前02670
Kurma AI专为水产养殖领域打造的通用语言模型AQUA-7B和AQUA-1B:以生成式 AI 重塑美国水产养殖业美国拥有广阔的海岸线、纯净的水域资源以及领先的技术基础,具备发展高产、可持续水产养殖业的天然优势。然而,这一潜力远未被充分挖掘。 据2021年数据显示,美国人均海产品消费量已达约 20.5磅,其中 8...大语言模型# AQUA-1B# AQUA-7B# Kurma AI5个月前02640
卡内基梅隆大学推出 L1-1.5B:用强化学习优化 AI 推理过程,精准控制“思考”时长推理语言模型通过生成更长的思维链序列来提升性能,但目前无法控制推理长度,导致计算资源分配低效。模型可能生成过长输出浪费资源,或过早停止导致性能不佳。传统方法(如使用“等待”或“最终答案”标记)会降低性...大语言模型# L1-1.5B# 卡内基梅隆大学# 推理模型9个月前02640
字节跳动 Seed 团队发布 Seed-OSS 系列开源模型:36B 参数,512K 长上下文,可灵活调整思考长度字节跳动Seed团队正式推出Seed-OSS系列开放权重模型,该系列均为36B参数规模,聚焦长上下文处理、推理能力与代理任务优化,以Apache-2.0许可证开源,为开发者与研究社区提供高实用性工具...大语言模型# Seed-OSS# 字节跳动4个月前02600
Jan-Nano:40亿参数的紧凑型研究专用语言模型正式上线Menlo发布一款专为深度研究任务设计的小型语言模型 Jan-Nano 。该模型拥有 40亿参数规模,在保证轻量级部署的同时展现出强大的推理能力。此模型基于 Qwen3-4B 构建,并经过 DAPO ...大语言模型# Jan-Nano# 小型语言模型6个月前02590
EleutherAI 发布首个大规模许可训练数据集 The Common Pile v0.1近日,开源人工智能研究组织 EleutherAI 正式发布了名为 The Common Pile v0.1 的全新训练数据集。该数据集据称是目前用于训练 AI 模型的最大合法授权+公共领域文本集合之一...大语言模型# EleutherAI# The Common Pile v0.1# 数据集6个月前02590
面壁智能发布 MiniCPM 4.0:端侧大模型效率再升级,极限提速 220 倍!6 日晚,面壁智能正式发布了新一代高效端侧大语言模型 MiniCPM 4.0。该系列模型以极致轻量化和高效推理为核心目标,结合自研 CPM.cu 推理框架 和稀疏注意力机制,在端侧设备上实现了惊人的性...大语言模型# MiniCPM 4.0# 面壁智能6个月前02580
小米团队发布 MiMo-7B系列模型:专为推理任务从头开始训练的模型在强化学习(RL)领域,大型基础模型一直是研究的主流方向。目前,许多成功的强化学习项目,尤其是那些专注于代码推理能力的项目,都依赖于庞大的模型,例如拥有 320 亿参数的模型。然而,要在小型模型中同时...大语言模型# MiMo-7B# 小米7个月前02580
法国AI初创企业Mistral发布高效模型 Mistral Small 3:24亿参数的模型特别针对延迟进行了优化法国AI初创公司Mistral最近发布了其最新的人工智能模型——Mistral Small 3。这款拥有24亿参数的模型特别针对延迟进行了优化,并根据Apache 2.0许可证开放源代码。Mistra...大语言模型# Mistral# Mistral Small 310个月前02580
阿里通义团队推出Qwen2.5-1M:支持100万Token上下文的开源大语言模型阿里通义团队于两个月前升级了 Qwen2.5-Turbo,使其支持最多一百万个Tokens的上下文长度。1月27日,通义团队正式推出开源的 Qwen2.5-1M 模型及其对应的推理框架支持。以下是本次...大语言模型# Qwen2.5-1M10个月前02580
腾讯推出大型混合 Transformer-Mamba 专家混合(MoE)模型Hunyuan-TurboS腾讯推出了Hunyuan-TurboS,这是一个新型的大型混合 Transformer-Mamba 专家混合(MoE)模型。它结合了 Mamba 架构在长序列处理上的高效性与 Transformer ...大语言模型# Hunyuan-TurboS# 腾讯7个月前02570