新型3D生成模型VFusion3D:利用预训练的视频扩散模型来创建可扩展的3D生成模型来自Meta和牛津大学的研究团队推出新型3D生成模型VFusion3D,它利用预训练的视频扩散模型来创建可扩展的3D生成模型。这项技术的核心在于解决3D数据稀缺的问题,因为3D数据不像图片、文本或视频...新技术# 3D生成模型# VFusion3D2年前05210
FouriScale:从预训练的扩散模型中生成高质量的高分辨率图像来自香港中文大学-商汤科技联合实验室、香港中文大学感知与交互智能研究中心、中山大学、商汤科技研究院 和北京航空航天大学的研究团队提出了一种创新的、无需额外训练的方法—FouriScale,它旨在从预训...新技术# FouriScale# 扩散模型2年前04980
3D生成框架ComboVerse:从单张图片中生成复杂的三维资产来自南洋理工大学、上海人工智能实验室和香港中文大学的研究团队推出3D生成框架ComboVerse,它能够从单张图片中生成复杂的三维资产。 项目主页 首先,从模型和数据两个维度对“多物体差距”进行了深入...新技术# 3D# ComboVerse2年前04620
新型框架GVGEN:根据文本描述直接生成三维模型来自上海AI研究所、清华大学、上海交通大学、浙江大学和VAST的研究团队推出新型框架GVGEN,它能够根据文本描述直接生成三维模型。与现有的3D生成方法相比,GVGEN在定性和定量评估中均表现出卓越的...新技术# GVGEN# 三维模型2年前04770
FRESCO:将输入的视频转换成具有特定风格的新视频,同时保持视频中的语义内容和动作的连贯性来自北京大学和南洋理工大学的研究团队推出FRESCO,这是一个用于视频转换的零样本(Zero-Shot)方法。简单来说,FRESCO能够根据文本提示,将输入的视频转换成具有特定风格的新视频,同时保持视...新技术# FRESCO# 视频转换2年前04720
零样本多模态高保真3D人体纹理生成模型TexDreamer:快速地从文本或图像中生成高保真3D人体纹理来自上海大学、腾讯优图实验室、上海交通大学和复旦大学的研究团队推出首个零样本多模态高保真3D人体纹理生成模型TexDreamer,采用高效的纹理适应微调策略,将大型T2I(文生图)模型与语义UV结构相...新技术# 3D人体纹理生成模型# TexDreamer2年前08650
图像编辑技术Prompt-to-Prompt:通过提示词进行局部或全局编辑来自谷歌和特拉维夫大学的团队推出图像编辑技术Prompt-to-Prompt,这是一种直观的从提示到提示的编辑框架,其中编辑操作仅通过文本进行控制。此团队深入分析了文本条件模型,并观察到交叉注意力层在...新技术# Prompt-to-Prompt# 图像编辑# 提示词2年前06260
LaVi-Bridge:将不同的语言模型和生成视觉模型结合起来,用于文生图来自香港大学、香港中文大学、香港科技大学的研究团队推出LaVi-Bridge,它能够将不同的语言模型和生成视觉模型结合起来,用于文本到图像的生成任务。通过利用LoRA和适配器技术,LaVi-Bridg...新技术# LaVi-Bridge# 文生图2年前07870
基于人类与场景互动数据集Trumans开发的动作生成模型来自北京大学人工智能研究院、BIGAI通用人工智能国家重点实验室、北京大学CFCS计算机学院和北京理工大学的研究团队创建一个详细的人类与场景互动数据集trumans,并开发出一种先进的动作生成模型,为...新技术# Trumans# 动作生成模型2年前09650
基于文本的视频编辑模型Emu Video Edit (EVE)Meta推出基于文本的视频编辑模型Emu Video Edit (EVE),它能够在没有监督视频编辑数据的情况下,实现先进的视频编辑功能。 论文 EVE模型通过结合图像编辑适配器和视频生成适配器,并使...新技术# EVE# 视频编辑模型2年前05630
文本编码器Glyph-ByT5:为提高视觉文本渲染的准确性而设计来自微软亚洲研究院、清华大学、北京大学和澳大利亚国立大学的研究团队推出文本编码器Glyph-ByT5,它是为了提高视觉文本渲染的准确性而设计的。Glyph-ByT5通过微调一个字符感知的ByT5编码器...新技术# Glyph-ByT5# 文本编码器2年前05950
StreamMultiDiffusion:实时交互式图像生成和编辑的工具来自韩国首尔国立大学的团队发布新应用StreamMultiDiffusion,这是一种用于实时交互式图像生成和编辑的工具,这是将之前已发布的技术 MultiDiffusion + StreamDiff...新技术# StreamMultiDiffusion# 实时生图2年前09400