小米团队发布 MiMo-7B系列模型:专为推理任务从头开始训练的模型在强化学习(RL)领域,大型基础模型一直是研究的主流方向。目前,许多成功的强化学习项目,尤其是那些专注于代码推理能力的项目,都依赖于庞大的模型,例如拥有 320 亿参数的模型。然而,要在小型模型中同时...大语言模型# MiMo-7B# 小米9个月前02600
阿里推出 Qwen3 系列大模型:开源 8 款模型,性能飞跃,多语言支持,推理能力显著提升阿里 QWEN 团队在今天推出 Qwen3,这是 Qwen 系列大言模型的最新力作。Qwen3 以其卓越的性能和广泛的应用潜力,正在成为开源AI领域的新焦点。 性能突破:超越行业标杆 Qwen3 的旗...大语言模型# QWEN 团队# 阿里巴巴9个月前04430
智象未来推出基于 HiDream-I1 的强大图像编辑模型HiDream-E1北京智象未来科技在开源了图像生成基础模型HiDream-I1后,又在今天推出专注于图像编辑的专用模型HiDream-E1,这是一款专为图像编辑任务设计的先进模型,建立在 HiDream-I1 的核心功...图像模型# HiDream-E1# HiDream-I1# 图像编辑模型9个月前03440
南加州大学推出一系列紧凑型推理模型Tina:利用LoRA技术实现低成本强化学习在语言模型(LLM)领域,尽管通用任务性能取得了显著进展,但实现强大的多步推理能力仍然是一个重大挑战。这种能力对于复杂问题解决场景(如科学研究和战略规划)至关重要。然而,传统方法如监督微调(SFT)虽...大语言模型# Tina# v# 推理模型9个月前03140
DeepSeek-R1T-Chimera:结合推理能力与高效输出的开放权重模型TNG科技发布了 DeepSeek-R1T-Chimera,这是一个通过创新方法构建的开放权重模型。它将 DeepSeek-R1 的强大推理能力与 DeepSeek-V3 (0324) 的高效 tok...大语言模型# DeepSeek-R1# DeepSeek-R1T-Chimera# DeepSeek-V3-03249个月前04470
月之暗面开源端到端语音对话的通用音频模型Kimi-Audio月之暗面开源了一款名为 Kimi-Audio 的通用音频模型。这款模型以其统一的框架和强大的多功能性,在音频处理领域引起了广泛关注。Kimi-Audio 不仅能够处理语音识别、音频问答、字幕生成等任务...语音模型# Kimi-Audio# 月之暗面9个月前02940
新型事件增强型网络 Ev-DeblurVSR:从低分辨率(LR)和模糊的输入视频中恢复出高分辨率(HR)的清晰视频中国科学技术大学类脑智能感知与认知教育部重点实验室、合肥人工智能研究院和新加坡国立大学推出新型事件增强型网络 Ev-DeblurVSR ,旨在解决模糊视频超分辨率(BVSR)任务,即从低分辨率(LR...视频模型# Ev-DeblurVSR# 视频超分模型9个月前03370
Science-T2I框架:通过整合科学知识,提升图像合成模型生成图像的现实感和科学一致性纽约大学、华盛顿大学、宾夕法尼亚大学和 加州大学圣地亚哥分校介绍了一个名为 Science-T2I 的框架,旨在通过整合科学知识,提升图像合成模型生成图像的现实感和科学一致性。该研究的核心是解决现有图...图像模型# Science-T2I# 图像生成模型# 科学9个月前03020
阶跃星辰推出新型通用图像编辑模型Step1X-Edit 阶跃星辰推出新型通用图像编辑模型Step1X-Edit ,图像编辑与自然语言指令结合已成为视觉-语言研究中日益重要的任务。用户可以通过直观的自然语言指令来编辑图像,但这在技术上带来了独特的挑战,例如理...图像模型# Step1X-Edit# 图像编辑模型# 阶跃星辰9个月前03160
天工AI推出多模态推理模型 Skywork R1V2:引入混合强化学习框架,提升模型在复杂推理和通用视觉理解任务中的表现多模态模型的快速发展为通用人工智能(AGI)的实现铺平了道路,但如何在保持跨任务泛化能力的同时提升专业推理能力,仍然是一个关键挑战。近期,天工AI(Skywork AI)推出了下一代多模态推理模型 S...多模态模型# Skywork R1V2# 多模态推理模型# 天工AI9个月前04200
基于 Qwen2-VL-7B 开发的实时视频理解大模型LiveCC:快速分析视频内容,并同步生成自然流畅的语音或文字解说新加坡国立大学和字节跳动的研究人员推出基于 Qwen2-VL-7B 开发的实时视频理解大模型LiveCC,能够像专业解说员一样快速分析视频内容,并同步生成自然流畅的语音或文字解说。特别适合需要即时反馈...多模态模型# LiveCC# Qwen2-VL-7B# 视频理解大模型9个月前03140
Meta发布Web-SSL系列模型:无语言也能学视觉,探索纯视觉自监督学习的潜力近年来,对比语言-图像模型(如CLIP)在多模态任务中表现出色,成为学习视觉表征的主流选择。这些模型通过大规模的图像-文本对进行训练,利用语言监督来融入语义信息,广泛应用于视觉问答(VQA)、文档理解...大语言模型# Meta# Web-SSL9个月前02320