DeepSeek 推出 DeepSeek-Prover-V2:为 Lean 4 形式化定理证明设计的开源大语言模型DeepSeek于4月30日发布了 DeepSeek-Prover-V2,这是一个专门用于 Lean 4 形式化定理证明的开源大语言模型。该模型的设计目标是将非形式化的数学推理与形式化的证明构建整合到...大语言模型# DeepSeek# DeepSeek-Prover-V2# DeepSeek-Prover-V2-671B9个月前02280
JetBrains推出其首个用于编码的开源模型Mellum,主要功能为代码补全软件开发公司JetBrains,以提供一系列流行应用程序开发工具而闻名,它们在今天发布了其首个用于编码的开源模型——Mellum。这款模型于周三在Hugging Face平台上公开,通过高度专业化的代...大语言模型# JetBrains# 代码模型# 代码补全9个月前01840
新型检索器ReasonIR-8B:专门针对需要推理的复杂任务进行优化Meta、华盛顿大学、新加坡国立大学、艾伦人工智能研究所、斯坦福大学、麻省理工学院和加州大学伯克利分校的研究人员推出一种名为 ReasonIR-8B 的新型检索器,专门针对需要推理的复杂任务进行优化...大语言模型# ReasonIR-8B# 检索器9个月前02400
小米团队发布 MiMo-7B系列模型:专为推理任务从头开始训练的模型在强化学习(RL)领域,大型基础模型一直是研究的主流方向。目前,许多成功的强化学习项目,尤其是那些专注于代码推理能力的项目,都依赖于庞大的模型,例如拥有 320 亿参数的模型。然而,要在小型模型中同时...大语言模型# MiMo-7B# 小米9个月前02600
阿里推出 Qwen3 系列大模型:开源 8 款模型,性能飞跃,多语言支持,推理能力显著提升阿里 QWEN 团队在今天推出 Qwen3,这是 Qwen 系列大言模型的最新力作。Qwen3 以其卓越的性能和广泛的应用潜力,正在成为开源AI领域的新焦点。 性能突破:超越行业标杆 Qwen3 的旗...大语言模型# QWEN 团队# 阿里巴巴9个月前04900
南加州大学推出一系列紧凑型推理模型Tina:利用LoRA技术实现低成本强化学习在语言模型(LLM)领域,尽管通用任务性能取得了显著进展,但实现强大的多步推理能力仍然是一个重大挑战。这种能力对于复杂问题解决场景(如科学研究和战略规划)至关重要。然而,传统方法如监督微调(SFT)虽...大语言模型# Tina# v# 推理模型9个月前03400
DeepSeek-R1T-Chimera:结合推理能力与高效输出的开放权重模型TNG科技发布了 DeepSeek-R1T-Chimera,这是一个通过创新方法构建的开放权重模型。它将 DeepSeek-R1 的强大推理能力与 DeepSeek-V3 (0324) 的高效 tok...大语言模型# DeepSeek-R1# DeepSeek-R1T-Chimera# DeepSeek-V3-03249个月前04520
Meta发布Web-SSL系列模型:无语言也能学视觉,探索纯视觉自监督学习的潜力近年来,对比语言-图像模型(如CLIP)在多模态任务中表现出色,成为学习视觉表征的主流选择。这些模型通过大规模的图像-文本对进行训练,利用语言监督来融入语义信息,广泛应用于视觉问答(VQA)、文档理解...大语言模型# Meta# Web-SSL9个月前02370
英伟达发布数学推理模型 OpenMath-Nemotron 系列,基于Qwen2.5-32B训练长期以来,数学推理一直是人工智能领域的一项重大挑战。尽管传统的语言模型在生成自然语言文本方面表现出色,但在解决需要深入领域知识和多步骤逻辑推导的复杂数学问题时,它们往往显得力不从心。为了弥合这一差距...大语言模型# OpenMath-Nemotron# Qwen2.5-32B# 数学推理模型9个月前02050
MAI-DS-R1:微软团队基于DeepSeek-R1 推理模型进行后训练的版本MAI-DS-R1 是一个由微软 AI 团队对 DeepSeek-R1 推理模型进行后训练的版本,提升其对受限话题的响应能力并改善其风险状况,同时保持推理能力和竞争力。简单来说就是把欧美的偏见加进去...大语言模型# DeepSeek-R1# MAI-DS-R1# 微软10个月前03070
谷歌发布量化感知训练(QAT)优化版 Gemma 3 模型Gemma 3 QAT谷歌昨日(4月18日)通过官方博文发布了量化感知训练(QAT)优化版的Gemma 3模型。这一版本在保持高质量输出的同时,显著降低了对硬件内存的需求,为本地部署和普通硬件用户带来了福音。 MLX 版本...大语言模型# Gemma 3# Gemma 3 QAT# 谷歌10个月前02100
微软发布20亿参数1-bit模型BitNet b1.58,性能超越主流LLM且更适合边缘设备本周,微软发布了全新的大语言模型家族——BitNet b1.58 LLM。这一系列模型采用了创新的1-bit架构,参数规模达到20亿(2B4T),是迄今为止最大的开源1-bit模型。研究团队表示,这种...大语言模型# BitNet b1.58# 微软10个月前04510