视觉布局CGB-DM:基于Transformer的扩散模型的内容与图形平衡布局生成方法清华大学的研究人员推出基于Transformer的扩散模型的内容与图形平衡布局生成方法CGB-DM,简单来说,CGB-DM是一个智能设计系统,它可以根据文本描述生成既美观又和谐的视觉布局。这就像是给一...新技术# CGB-DM# 视觉布局2年前08380
基于SAM的新型视觉模型Open-Vocabulary SAM:交互式的图像分割和识别来自南洋理工大学、上海AI实验室的研究人员推出了一款基于SAM的新型视觉模型Open-Vocabulary SAM,它结合了Segment Anything Model(SAM)和CLIP模型的优势...新技术# Open-Vocabulary SAM# SAM# 图像分割2年前08350
先进的视频深度估计方法ChronoDepth:通过结合视频生成模型的先验知识,有效地提高了深度估计的准确性和时间一致性浙江大学、博洛尼亚大学、蚂蚁集团和Rock Universe的研究人员推出一种先进的视频深度估计方法ChronoDepth,它通过结合视频生成模型的先验知识,有效地提高了深度估计的准确性和时间一致性...新技术# ChronoDepth# 视频深度2年前08340
新型视频生成模型FancyVideo:根据文本提示生成动态丰富且时间上连贯的视频360 AI研究中心和中山大学的研究人员推出新型视频生成模型FancyVideo,它能够根据文本提示生成动态丰富且时间上连贯的视频。FancyVideo通过精心设计的跨帧文本引导模块(CTGM)改进了...新技术# FancyVideo1年前08260
虚拟服装试穿技术IDM-VTON:根据一个人的图片和一件衣服的图片,生成这个人穿上这件衣服的图像来自韩国科学技术院和OMNIOUS.AI的研究人员推出虚拟服装试穿技术IDM-VTON,该技术能够根据分别描绘人物和服装的图像对,渲染出人物穿着精选服装的视觉效果。虚拟试穿是一种计算机视觉技术,它可以...新技术# IDM-VTON# 虚拟服装试穿# 虚拟试穿2年前08260
新型图像抠图技术Matting by Generation:能够生成更高分辨率和细节丰富的抠像结果东京大学、合肥大学、Snap Research、阳明大学、香港中文大学、台湾大学和日本国立信息研究所的研究人员推出新型图像抠图技术Matting by Generation,图像抠图是指从一幅图片中精...新技术# Matting by Generation# 抠图2年前08250
英伟达推出Autoguidance:改进图像生成扩散模型的性能英伟达和阿尔托大学的研究人员推出Autoguidance,改进图像生成扩散模型的性能,特别是通过一种新颖的方法来控制图像质量、结果的变化性以及与给定条件(如类别标签或文本提示)的一致性。扩散模型是一种...新技术# Autoguidance# 英伟达2年前08230
新型图像生成模型FiT:基于Transformer架构,可以生成无限制分辨率和长宽比的图像FiT(Flexible Vision Transformer)是一款新型图像生成模型,基于Transformer架构,旨在生成具有无限制分辨率和长宽比的图像。 GitHub 论文 模型 传统的图像生...新技术# FiT# Transformer# 图像生成模型2年前08230
语音驱动人脸说话生成框架AVCT来自网易伏羲AI实验室、悉尼科技大学的研究人员推出了从单人音频生成单人说话脸部的框架Audio-Visual Correlation Transformer (AVCT),它能够从单个说话者的音频-视...新技术# AVCT2年前08230
清华大学和新畅元科技推出Human4DiT:能够根据单幅图像及任意视点生成高质量、时空连贯的人类视频清华大学和新畅元科技推出新技术Human4DiT,它是一种用于生成高质量、时空一致的人类视频的4D扩散变换器(4D Diffusion Transformer)。这项技术可以从单张图片生成逼真的人类动...新技术# Human4DiT# 新畅元科技# 清华大学2年前08220
双语文本到图像生成模型Taiyi-Diffusion-XL,支持中文提示词IDEA 研究院是由沈向洋创立,他们在2021年11月22日宣布启动“封神榜”大模型开源体系。“封神榜”是由 IDEA-CCNL 的工程师、研究人员、实习生团队共同维护的一项长期开源计划。项目基于Ap...新技术# SDXL# Taiyi-Diffusion-XL# 中文提示词2年前08210
新型视频深度估计方法DepthCrafter:为开放世界(即不受限制、多样化的现实世界场景)的视频生成时间上连贯、细节丰富的深度序列腾讯人工智能实验室、香港科技大学和腾讯 PCG ARC 实验室的研究人员推出新型视频深度估计方法DepthCrafter,能够为开放世界(即不受限制、多样化的现实世界场景)的视频生成时间上连贯、细节丰...新技术# DepthCrafter# 视频深度估计1年前08200