混合数据专家MoDE:通过聚类方法来提升对比语言-图像预训练(CLIP)的性能来自Meta、哥伦比亚大学、纽约大学和华盛顿大学的研究人员推出机器学习系统MoDE(Mixture of Data Experts,混合数据专家),它通过聚类方法来提升对比语言-图像预训练(CLIP...新技术# CLIP# MoDE# 混合数据专家2年前06040
ConsistentID:生成个性化人像图像时保持高度的面部身份(ID)一致性来自 中山大学深圳校区、中山大学珠海校区、联想研究院和阿联酋起源人工智能研究院推出ConsistentID,它能够在生成个性化人像图像时保持高度的面部身份(ID)一致性。ConsistentID的核心...新技术# ConsistentID# 个性化人像2年前01,1120
谷歌推出基于问答的自动评估指标Gecko,用于评估文生图模型的性能谷歌推出基于问答的自动评估指标Gecko2K,用于评估文生图模型的性能。文生图模型生成的图像并不总是能够完全符合文本中的所有细节。因此,评估这些模型生成的图像与文本描述的匹配程度是一个重要的研究问题...新技术# Gecko# Gecko2K# 自动评估2年前06640
采样调节器AlignYouSteps:优化采样步骤,从而提高生成图像的细节和质量英伟达、多伦多大学和矢量研究所的研究人员推出新的采样调节器AlignYouSteps(调整步伐),用于优化采样步骤,从而提高生成图像的细节和质量。这是一种通用且原则性的方法,用于优化扩散模型的采样计划...新技术# AlignYouSteps# 英伟达# 采样调节器2年前08920
无需调整的高分辨率框架HiDiffusion:只需添加一行代码即可提高扩散模型(Stable Diffusion)在生成高分辨率图像方面的能力和效率旷视科技与字节跳动的研究人员推出新型框架HiDiffusion,只需添加一行代码即可提高扩散模型(Stable Diffusion)在生成高分辨率图像方面的能力和效率。现有的扩散模型在生成超出训练时所...新技术# HiDiffusion# Stable Diffusion# 高分辨率框架2年前07530
微软推出小型语言模型Phi-3系列:可在手机端运行的大模型微软推出小型语言模型Phi-3系列,它在性能上可以与一些大型模型相媲美,如Mixtral 8x7B和GPT-3.5,但大小却足以部署在手机上。这项技术的创新之处在于其训练数据集,这是phi-2数据集的...新技术# Phi-3# 微软2年前05240
虚拟服装试穿技术IDM-VTON:根据一个人的图片和一件衣服的图片,生成这个人穿上这件衣服的图像来自韩国科学技术院和OMNIOUS.AI的研究人员推出虚拟服装试穿技术IDM-VTON,该技术能够根据分别描绘人物和服装的图像对,渲染出人物穿着精选服装的视觉效果。虚拟试穿是一种计算机视觉技术,它可以...新技术# IDM-VTON# 虚拟服装试穿# 虚拟试穿2年前08190
多概念定制技术MultiBooth:根据用户的文本描述生成包含多个特定元素的图像清华大学和Meta的研究人员推出新颖且高效的多概念定制技术MultiBooth,此技术用于从文本生成图像时实现多概念定制。简单来说,MultiBooth能够根据用户的文本描述生成包含多个特定元素的图像...新技术# MultiBooth# 多概念定制技术2年前07730
腾讯推出多模态基础模型SEED-X:结合视觉和语言理解的能力,可以处理和生成各种类型的数据,包括图像和文本腾讯AI实验室和ARC实验室共同开发的多模态基础模型SEED-X,这是一个先进的人工智能系统,它结合了视觉和语言理解的能力,可以处理和生成各种类型的数据,包括图像和文本。简单来说,SEED-X就像一个...新技术# SEED-X# 多模态基础模型2年前05600
基于物理的交互式3D对象动态生成方法PhysDreamer:利用视频生成技术实现与3D物体进行物理交互来自麻省理工学院、斯坦福大学、 哥伦比亚大学和康奈尔大学的研究人员推出PhysDreamer系统,这是一个基于物理的交互式3D对象动态生成方法。PhysDreamer能够使静态的3D对象通过视频生成模...新技术# 3D对象# PhysDreamer2年前04810
多模态大语言模型Groma:具备精细化和定位化的视觉感知能力来自香港大学和字节跳动的研究人员推出多模态大语言模型Groma,它具备精细化和定位化的视觉感知能力。Groma不仅能够理解整个图像的内容,还能处理区域级别的任务,比如区域字幕(region capti...新技术# Groma# 多模态大语言模型2年前06500
微软亚洲研究院推出新框架VASA-1:基于一张静态图片和一个语音音频片段,实时生成逼真的会说话的面孔微软亚洲研究院推出新框架VASA-1,它可以根据单张静态图像和语音音频片段,生成具有吸引力的视觉情感技能(VAS)的虚拟角色栩栩如生的说话面孔。这个技术的核心在于它能够精确地捕捉到人脸的微妙动态和头部...新技术# VASA-12年前04820