虚拟试衣系统IMAGDressing-v1:帮助用户在线上购物时,更真实地预览服装在不同人身上的效果南京理工大学、华为、 腾讯人工智能实验室和南京大学的研究人员推出可定制的虚拟试衣系统IMAGDressing-v1,这个系统可以帮助用户在线上购物时,更真实地预览服装在不同人身上的效果。IMAGDre...新技术# IMAGDressing-v1# 虚拟穿搭# 虚拟试衣2年前08580
新型文生图模型的微调算法SPIN-DiffusionSPIN-Diffusion是一种新型文生图模型的微调算法。这个算法特别适用于那些只有单个图像与文本提示(prompt)相关联的数据集,它通过一种自我博弈(self-play)的机制,让模型不断地与自...新技术# SPIN-Diffusion# 文生图模型2年前08540
基于SAM的新型视觉模型Open-Vocabulary SAM:交互式的图像分割和识别来自南洋理工大学、上海AI实验室的研究人员推出了一款基于SAM的新型视觉模型Open-Vocabulary SAM,它结合了Segment Anything Model(SAM)和CLIP模型的优势...新技术# Open-Vocabulary SAM# SAM# 图像分割2年前08500
Follow-Your系列新框架Follow-Your-Pose v2:用于于角色图像动画的框架,可以根据一系列的动作信号(比如视频、深度图或姿势序列)生成动画视频来自腾讯混元团队、中山大学、香港科技大学的研究人员推出Follow-Your系列新框架Follow-Your-Pose v2,这是去年发布的Follow-Your-Pose升级版,这是一个用于于角色图...新技术# Follow-Your-Pose v2# 动画视频2年前08450
英伟达推出Autoguidance:改进图像生成扩散模型的性能英伟达和阿尔托大学的研究人员推出Autoguidance,改进图像生成扩散模型的性能,特别是通过一种新颖的方法来控制图像质量、结果的变化性以及与给定条件(如类别标签或文本提示)的一致性。扩散模型是一种...新技术# Autoguidance# 英伟达2年前08440
新型视频深度估计方法DepthCrafter:为开放世界(即不受限制、多样化的现实世界场景)的视频生成时间上连贯、细节丰富的深度序列腾讯人工智能实验室、香港科技大学和腾讯 PCG ARC 实验室的研究人员推出新型视频深度估计方法DepthCrafter,能够为开放世界(即不受限制、多样化的现实世界场景)的视频生成时间上连贯、细节丰...新技术# DepthCrafter# 视频深度估计2年前08380
视频编辑框架AnyV2V:根据文本提示、主题或风格等不同的输入来编辑视频来自滑铁卢大学、Vector研究所和Harmony.AI的研究团队推出新型视频编辑框架AnyV2V,它能够让用户根据文本提示、主题或风格等不同的输入来编辑视频。 项目主页 GitHub Demo 想象...新技术# AnyV2V# 视频编辑2年前08360
高质量人类动作视频生成框架MimicMotion:依据任意运动指令生成高质感、任意长度的视频内容腾讯和上海交通大学的研究人员推出高质量人类动作视频生成框架MimicMotion,依据任意运动指令生成高质感、任意长度的视频内容。简单来说,MimicMotion是一个可以制作出逼真人类动作视频的智能...新技术# MimicMotion# 视频生成2年前08340
新型自编码器LiteVAE:用于提高图像生成模型中的效率和性能来自苏黎世联邦理工学院和迪士尼研究工作室的研究人员推出新型自编码器LiteVAE,它被设计用于提高图像生成模型中的效率和性能。自编码器是一类神经网络,它们通过学习数据的压缩表示来重构数据。在图像处理中...新技术# LiteVAE# 自编码器2年前08290
新型图像生成模型FiT:基于Transformer架构,可以生成无限制分辨率和长宽比的图像FiT(Flexible Vision Transformer)是一款新型图像生成模型,基于Transformer架构,旨在生成具有无限制分辨率和长宽比的图像。 GitHub 论文 模型 传统的图像生...新技术# FiT# Transformer# 图像生成模型2年前08290
无需训练、基于轨迹的可控图像生成技术TraDiffusion:允许用户通过鼠标轨迹来轻松引导图像的生成,而无需进行额外的训练或微调厦门大学和中国科学院大学深圳先进技术研究院的研究人员推出新型图像生成技术TraDiffusion,这项技术的核心在于它允许用户通过鼠标轨迹来轻松引导图像的生成,而无需进行额外的训练或微调。简单来说,就...新技术# TraDiffusion# 图像生成2年前08280
文生图风格化工具Artist:无需训练即可实现美学控制的文本驱动风格化香港理工大学的研究人员推出一种无需训练即可实现美学控制的文本驱动风格化方法Artist。简而言之,Artist能够根据文本描述,将一张静态图片转换成具有特定艺术风格的图像,同时保持图片内容的完整性和细...新技术# Artist# 风格化2年前08280