腾讯推出大型混合 Transformer-Mamba 专家混合(MoE)模型Hunyuan-TurboS腾讯推出了Hunyuan-TurboS,这是一个新型的大型混合 Transformer-Mamba 专家混合(MoE)模型。它结合了 Mamba 架构在长序列处理上的高效性与 Transformer ...大语言模型# Hunyuan-TurboS# 腾讯8个月前02700
Mistral 推出新编码模型 Devstral:开源、轻量、性能超越 GPT-4-mini法国AI 初创公司 Mistral 宣布推出其最新开源模型 —— Devstral,专为软件工程任务设计。该模型由 Mistral 与 AI 公司 All Hands AI 联合开发,采用 Apach...大语言模型# All Hands AI# Devstral# Mistral8个月前03840
谷歌推了个能装进手机的大模型Gemma 3n,速度快、内存低、还能听会说谷歌宣布推出其最新开源模型 Gemma 3n 的预览版,这是继 Gemma 3 和 Gemma 3 QAT 后,谷歌在轻量级大模型领域的又一重要进展。 Gemma 3n 专为手机、平板和笔记本电脑等设...大语言模型# Gemma 3n# 谷歌8个月前02350
谷歌新研究模型 Gemini Diffusion:用扩散模型重新定义文本生成谷歌推出了一项新的实验性研究模型 —— Gemini Diffusion,这是其在文本生成领域的一次重要尝试,探索扩散模型在语言任务中的潜力。 不同于传统的自回归模型逐词生成文本的方式,Gemini ...大语言模型# Gemini Diffusion# 扩散模型# 谷歌8个月前03620
Meta推出基于 Llama 3.1 Instruct的大语言模型KernelLLM:专注于使用 Triton 编写高效GPU内核的任务Meta推出了一款名为 KernelLLM 的大语言模型,该模型基于 Llama 3.1 Instruct,专注于使用 Triton 编写高效GPU内核的任务。KernelLLM的核心目标是通过自动化...大语言模型# KernelLLM# Llama 3.1 Instruct# Meta8个月前01350
Falcon-Edge:一系列强大、通用、可微调的1.58位语言模型Falcon 团队正式发布了 Falcon-Edge 系列模型——一组基于 BitNet 架构设计的三值格式语言模型。这些模型不仅具备高性能,还支持灵活的微调能力,为边缘设备上的高效部署提供了全新可能...大语言模型# BitNet# Falcon-Edge8个月前03220
A-M-team推出32B密集语言模型AM-Thinking-v1:专注增强推理能力A-M-team推出了AM-Thinking-v1,一款基于Qwen 2.5-32B-Base构建的32B密集语言模型,专注于提升推理能力。在推理基准测试中,AM-Thinking-v1表现出色,可媲...大语言模型# AM-Thinking-v1# 推理模型8个月前04170
基于 Qwen3 的混合专家(MoE)模型Arcana Qwen3 2.4B A0.6BArcana Qwen3 2.4B A0.6B 是一个基于 Qwen3 的混合专家(MoE)模型,总参数量为 24 亿,每个专家模型拥有 6 亿参数。该模型旨在提供更高的准确性、更高的效率和更低的内存...大语言模型# Arcana Qwen3 2.4B A0.6B# MoE模型# Qwen38个月前02340
INTELLECT-2 发布:首个通过全球分布式强化学习训练的 32B 参数模型Prime Intellect发布 INTELLECT-2,这是首个通过全球分布式强化学习训练的 32B 参数模型。与传统的集中式训练不同,INTELLECT-2 使用完全异步的强化学习(RL),在一...大语言模型# INTELLECT-2# 强化学习8个月前02510
无损压缩框架DFloat11:可将大语言模型的规模缩小约 30%,同时保持与原始模型完全一致的逐位相同输出DFloat11 是一个无损压缩框架,可将大语言模型(LLM)的规模缩小约 30%,同时保持与原始模型完全一致的逐位相同输出。它支持在资源受限的硬件上进行高效的 GPU 推理,且不牺牲准确性。 Git...大语言模型# DFloat11# 无损压缩框架8个月前03030
字节跳动推出Seed-Coder:轻量级开源代码大模型,性能媲美更大规模模型字节跳动近日发布了全新的开源代码大语言模型(LLM)系列——Seed-Coder,标志着其在开源大语言模型生态系统中的首次重要贡献。这一系列模型以轻量化和高性能为核心特点,包括基础模型、指令模型和推理...大语言模型# Seed-Coder# 代码大模型# 字节跳动8个月前03280
阿里通义实验室推出强化学习框架ZEROSEARCH:通过模拟搜索引擎来提升大语言模型的信息检索能力阿里通义实验室推出一种创新的强化学习框架ZEROSEARCH,通过模拟搜索引擎来提升大语言模型(LLMs)的信息检索能力,而无需与真实搜索引擎进行交互。该框架通过轻量级的监督微调(SFT),将 LLM...大语言模型# ZEROSEARCH# 强化学习框架8个月前01960