Anthropic 发布 Claude Sonnet 4.5:编程能力业界领先,可自主开发生产级应用,定价不变周一,Anthropic 正式发布其最新前沿模型 Claude Sonnet 4.5,宣称在编程任务中实现“生产级”输出能力,标志着其在软件工程场景下的可靠性迈上新台阶。 该模型即日起通过 Claud...大语言模型# Anthropic# Claude Sonnet 4.5# 编程模型3个月前01000
DeepSeek 发布DeepSeek-V3.2-Exp:首次引入细粒度稀疏注意力,API 成本直降 50%+在国庆节假期前夕,DeepSeek 正式推出 DeepSeek-V3.2-Exp ——一个面向未来架构演进的实验性(Experimental)版本。该模型并非最终发布版,而是通向新一代高效架构的关键中...大语言模型# DeepSeek# DeepSeek-V3.2-Exp3个月前01600
谷歌发布推出改进的 Gemini 2.5 Flash 和 Flash-Lite 版本:响应更快、成本更低、智能更强谷歌今日推出 Gemini 2.5 Flash 和 Gemini 2.5 Flash-Lite 的预览更新版本,已在 Google AI Studio 与 Vertex AI 平台上线。此次升级聚焦于...大语言模型# Gemini 2.5 Flash# Gemini 2.5 Flash-Lite# 谷歌4个月前01470
Meta 开源代码世界模型CWM:让AI像程序员一样"推演"代码的世界模型Meta近日发布并开源代码世界模型(Code World Model, CWM),这是一款320亿参数的仅解码器大型语言模型(LLM),支持最长131k tokens的上下文长度。不同于传统代码模型仅...大语言模型# CWM# Meta# 代码世界模型4个月前01700
Qwen3-Max 发布:阿里通义迄今最强语言模型,已开放 API在 Qwen3-2507 系列全面上线后,阿里通义实验室正式推出 Qwen3-Max——迄今为止参数规模最大、综合能力最强的 Qwen 模型。 作为 Qwen3 系列的旗舰型号,Qwen3-Max 不...大语言模型# Qwen3-Max4个月前02960
LFM2-2.6B发布:小参数,高性能,重新定义语言模型效率在大模型“军备竞赛”愈演愈烈的今天,参数规模是否仍是衡量能力的唯一标准? Liquid AI 最新推出的 LFM2-2.6B 给出了一个有力的回答: 更优的架构设计,可以让更小的模型,在关键任务上超越...大语言模型# LFM2-2.6B4个月前01380
Qwen3Guard发布:阿里通义实验室推出首款安全护栏模型阿里通义实验室 Qwen 项目组正式推出 Qwen3Guard —— Qwen 家族中首款专为内容安全设计的护栏模型(Safety Guardrail Model)。 该模型基于强大的 Qwen3 架...大语言模型# Qwen3Guard# 安全护栏模型4个月前04590
LIMI :少即是多,78个样本如何训练出高效AI智能体由上海交通大学、上海创智学院、香港理工大学、中国科学技术大学与GAIR联合开展的一项研究,最近提出了一个名为 LIMI 的新方法——全称为 Less is More for Intelligent A...大语言模型# LIMI# 智能体4个月前01660
美团 LongCat 团队发布 LongCat-Flash-Thinking:具备形式化与智能体推理能力的新一代高效推理模型美团 LongCat 团队正式推出 LongCat-Flash-Thinking——一款专注于高复杂度任务推理的大型语言模型(LRM)。该模型在保持前代 LongCat-Flash-Chat 高效响应...大语言模型# LongCat-Flash-Thinking# 推理模型# 美团4个月前01540
浙大×华为联合推出 DeepSeek-R1-Safe:基于昇腾的安全大模型浙江大学网络空间安全学院与华为合作,发布了一款基于 DeepSeek 模型架构 的安全增强型大语言模型 —— DeepSeek-R1-Safe。该模型依托华为昇腾(Ascend)AI 芯片及 Mind...大语言模型# DeepSeek-R1-Safe# 华为4个月前01970
FastMTP:通过增强多令牌预测提升大模型推理效率在大语言模型(LLM)的实际应用中,推理速度是影响用户体验和部署成本的关键因素。尽管模型能力不断提升,但逐个生成 token 的方式带来了较高的延迟和计算开销。推测解码(Speculative Dec...大语言模型# FastMTP# 推理模型4个月前01600
蚂蚁集团开源 Ring-flash-2.0:高效 MoE 架构下的高性能思考模型蚂蚁集团正式宣布开源 Ring-flash-2.0 ——一款基于 MoE(混合专家)架构的高性能“思考型”大语言模型。该模型总参数量达 100B,但在每次推理时仅激活 6.1B 参数(其中非嵌入部分约...大语言模型# Ring-flash-2.0# 蚂蚁集团4个月前02540