多模态大语言模型ChatRex:提升对人类姿态的感知和理解能力 IDEA的研究人员推出多模态大语言模型ChatRex,它旨在提升对人类姿态的感知和理解能力。ChatRex通过结合视觉和语言模型,能够执行多种与人体姿态相关任务,包括姿态理解、生成和编辑。这个模型特别... 多模态模型# ChatRex# 多模态大语言模型 2周前01230
开源视觉语言模型Moondream:将强大的图像理解能力与极小的资源占用完美结合 Moondream 是一款高效的开源视觉语言模型(VLM),它将强大的图像理解能力与极小的资源占用完美结合。这款模型设计初衷是为各种设备和平台提供多功能且易于访问的人工智能解决方案。 官网:https... 多模态模型# Moondream# 视觉语言模型 2周前01190
无问芯穹推出全球首个端侧全模态理解开源模型Megrez-3B-Omni 12月16日,无问芯穹宣布正式开源其“端模型+端软件+端IP”端上智能一体化解决方案中的小模型——Megrez-3B-Omni,以及纯语言版本模型 Megrez-3B-Instruct。这一举措标志着... 多模态模型# Megrez-3B-Omni# 无问芯穹 2周前01160
微软推出全新多模态大语言模型家族Florence-VL 马里兰大学和微软研究院的研究团队共同提出了Florence-VL,这是一个全新的多模态大语言模型(MLLMs)家族。Florence-VL的视觉表示由生成式视觉基础模型Florence-2生成,与传统... 多模态模型# Florence-VL# 多模态大语言模型# 微软 2周前01140
Hugging Face发布一个用于设备上推理的2B参数小型多模态模型SmolVLM 近年来,随着机器学习技术的飞速发展,视觉-语言模型(VLM)的需求不断增加。这些模型能够处理图像和文本的组合任务,如图像描述、问答和故事生成等。然而,大多数现有的VLM需要大量的计算资源和内存,这限制... 多模态模型# Hugging Face# SmolVLM# 多模态模型 2周前01140
壁智能推出MiniCPM-o 2.6:手机上的 GPT-4o 级多模态大模型,可实时语音通话和视频通话 MiniCPM-o 2.6 是面壁智能推出的 MiniCPM-o 系列中最新且功能最强大的模型。该模型基于 SigLip-400M、Whisper-medium-300M、ChatTTS-200M 和... 多模态模型# MiniCPM-o 2.6# 壁智能# 视频通话 2周前01120
CogAgent-9B-20241220:基于视觉语言模型的开源 GUI agent 模型 图形用户界面(GUI)是用户与软件交互的核心。然而,构建能够有效导航GUI的智能代理一直是一个持续的挑战。传统方法在适应性方面存在不足,尤其是在处理复杂布局或GUI频繁变化时,这些问题限制了自动化GU... 多模态模型# CogAgent-9B-20241220 2周前01120
谷歌推出开源视觉语言模型PaliGemma2:增加了强大的视觉能力,更容易微调 今年5月,谷歌推出了 PaliGemma,这是 Gemma 家族中的第一个视觉语言模型,旨在使一流的视觉AI更加普及。现在,谷歌自豪地推出 PaliGemma 2,这是一个可调视觉语言模型的最新进化版... 多模态模型# PaliGemma2# 视觉语言模型# 谷歌 2周前01110
深度求索推出开源视觉模型DeepSeek-VL2 :支持动态分辨率、处理科研图表、解析各种梗图等 DeepSeek-VL2 是由深度求索(DeepSeek-AI)推出的一系列先进混合专家(MoE, Mixture of Experts)视觉语言模型,旨在显著提升其前代产品 DeepSeek-VL ... 多模态模型# DeepSeek-VL 2# 深度求索 2周前01050
综合多模态系统InternLM-XComposer2.5-OmniLive (浦语·灵笔 2.5 OmniLive):实现实时视频和音频交互 创建能够像人类认知一样长时间与环境互动的AI系统一直是人工智能领域的长期研究目标。尽管多模态大语言模型(MLLMs)在开放世界理解方面取得了显著进展,但在连续和同时的流式感知、记忆和推理方面仍然面临巨... 多模态模型# InternLM-XComposer2.5-OmniLive# 浦语·灵笔 2.5 OmniLive 2周前01050
多模态大语言模型InternVL 2.5:处理和理解来自多种模态(如文本、图像和视频)的信息 InternVL 2.5 是由上海人工智能实验室、商汤科技研究院、清华大学、南京大学、复旦大学、香港中文大学和上海交通大学等多家机构联合推出的一款先进的多模态大语言模型(MLLM)。该模型基于此前发布... 多模态模型# InternVL 2.5# 多模态大语言模型 2周前01040
新型自动化 GUI交互模型 UI-TARS:能够通过感知屏幕截图作为输入,并执行类似人类操作的交互任务(如键盘输入和鼠标操作) 字节跳动与清华大学的研究人员推出新型自动化 GUI(图形用户界面)交互模型 UI-TARS,它是一种原生的 GUI 代理模型,能够通过感知屏幕截图作为输入,并执行类似人类操作的交互任务(如键盘输入和鼠... 多模态模型# UI-TARS# 字节跳动 2周前01030