腾讯推出新一代快思考模型混元 Turbo S腾讯混元团队发布了其自研的快思考模型 Turbo S ,并在腾讯云官网上架,开发者和企业用户可通过 API 调用体验。同时,该模型从今天起在腾讯元宝平台灰度上线,供广大用户体验。 GitHub:htt...大语言模型# 混元 Turbo S# 腾讯1年前02840
微软发布 Phi 系列两款新模型:Phi-4-multimodal 和 Phi-4-mini微软在今天宣布推出 Phi 系列小型语言模型(SLM)的两款新成员——Phi-4-multimodal 和 Phi-4-mini。这两款模型旨在为开发者提供更强大的 AI 功能,分别在多模态处理和文本...大语言模型# Phi-4-mini# Phi-4-multimodal# 微软1年前04540
Anthropic推出首款“混合推理模型”Claude 3.7 Sonnet和代理编码工具Claude CodeAnthropic在今天推出全新模型Claude 3.7 Sonnet,号称业界首个“混合AI推理模型”。它不仅能实时回答问题,还能像人类一样“深度思考”,提供更精准的答案!用户可以自由选择让模型“思...大语言模型# Anthropic# Claude 3.7 Sonnet# Claude Code1年前03550
月之暗面发布Moonlight:使用 Muon 优化器训练的混合专家 (MoE) 模型月之暗面(Moonshot AI)和加州大学洛杉矶分校的研究团队联合发布了 Moonlight,这是一款基于 Muon 优化器训练的混合专家(MoE)模型。该模型包含两种配置:一种具有 30 亿激活参...大语言模型# Moonlight# Moonshot AI# Muon 优化器1年前02350
不影响性能!Perplexity 开源基于DeepSeek-R1推出的无审查版本R1 1776R1 1776是Perplexity基于DeepSeek-R1推出的无审查版本,该模型号称提供公正、准确和真实的信息,同时保持高推理能力。目前,用户可以在 HuggingFace 上下载该模型,或者通...大语言模型# DeepSeek-R1# Perplexity# R1 17761年前07560
卷麻了!阿里在除夕夜推出超大规模的 MoE 模型 Qwen2.5-Max过去,有一种观点认为,持续增加数据规模和模型参数可能是通向人工通用智能(AGI)的一条可行路径。然而,无论是对于稠密模型还是MoE(Mixture of Experts)模型而言,整个大模型社区在训练...大语言模型# MoE# Qwen2.5-Max# 阿里1年前03090
艾伦AI研究所推出Tülu 3 405B:超越 DeepSeek V3 的性能表现艾伦AI研究所在成功推出Tülu 3之后,又在昨天宣布推出Tülu 3 405B——这是首次将完全开放的后训练方法应用于最大规模的开放权重模型。此次发布不仅展示了艾伦AI研究所在大规模参数模型上的可扩...大语言模型# Tülu 3# Tülu 3 405B# 艾伦AI研究所1年前02800
法国AI初创企业Mistral发布高效模型 Mistral Small 3:24亿参数的模型特别针对延迟进行了优化法国AI初创公司Mistral最近发布了其最新的人工智能模型——Mistral Small 3。这款拥有24亿参数的模型特别针对延迟进行了优化,并根据Apache 2.0许可证开放源代码。Mistra...大语言模型# Mistral# Mistral Small 31年前02770
阿里通义团队推出Qwen2.5-1M:支持100万Token上下文的开源大语言模型阿里通义团队于两个月前升级了 Qwen2.5-Turbo,使其支持最多一百万个Tokens的上下文长度。1月27日,通义团队正式推出开源的 Qwen2.5-1M 模型及其对应的推理框架支持。以下是本次...大语言模型# Qwen2.5-1M1年前02670
深度求索发布开源推理大语言模型DeepSeek-R1,性能对标 OpenAI o1 正式版幻方量化旗下的AI公司深度求索(DeepSeek)今日正式发布了其最新的大语言模型DeepSeek-R1,并同步开源了模型权重。这一举措旨在通过提供高性能的开源解决方案,推动人工智能领域的发展。 地址...大语言模型# DeepSeek# DeepSeek-R1# 深度求索1年前03510
Jina AI推出一款1.5B参数的小型语言模型ReaderLM-v2:专注于将原始HTML高效准确地转换为Markdown或JSON格式ReaderLM-v2 是由Jina AI开发的一款1.5B参数的小型语言模型,专注于将原始HTML高效准确地转换为Markdown或JSON格式。这款第二代模型在长上下文处理能力和多语言支持方面有了...大语言模型# ReaderLM-v21年前03470
微软正式开源了Phi-4:拥有140亿参数的小型语言模型去年12月,微软推出了其Phi系列的最新成员——Phi-4,该模型在解决数学问题等方面展现了显著的进步。这些进步主要得益于训练数据质量的提升,特别是采用了高质量的合成数据集和人类生成的内容数据集。然而...大语言模型# Phi-4# 微软1年前03040