3D到3D生成方法ThemeStation:根据少量的示例生成具有一致主题的3D资源来自香港城市大学、上海AI实验室、南洋理工大学的研究团队推出3D到3D生成方法ThemeStation,它是一个能够根据少量的示例(exemplars)生成具有一致主题的3D资源的创新方法。其追求两个...新技术# 3D模型# ThemeStation2年前06440
英伟达推出LATTE3D:快速生成3D模型英伟达推出新型大规模文本到3D合成系统LATTE3D,LATTE3D的关键在于构建可扩展的架构,并利用3D数据在优化过程中引入3D感知扩散先验、形状正则化和模型初始化,以确保对不同和复杂的训练提示具有...新技术# 3D模型# LATTE3D2年前05780
创建人物图像动画的新方法Champ:让静态人物图片动起来来自南京大学、复旦大学和阿里巴巴的研究团队推出一种用于创建人物图像动画的新方法Champ,该方法利用潜在扩散框架内的3D人体参数模型来强化当前人体生成技术中的形状对齐和运动引导。例如,你有一张静态的照...新技术# Champ# 图像动画2年前06720
DragAPart:一张图片和加一系列拖动操作作为输入,生成新图片牛津大学视觉几何小组推出DragAPart,它接收一张图片和一系列拖动操作作为输入,能够生成该物体在新状态下的新图片,且新图片与拖动操作所表达的动作相匹配。与先前主要关注物体重新定位的工作不同,Dra...新技术# DragAPart2年前05260
英伟达推出视频生成模型CMD:解决现有视频生成技术在处理高维视频数据时所面临的高内存和计算需求问题英伟达推出新型的视频生成模型内容-运动潜在扩散模型(Content-Motion Latent Diffusion Model,简称CMD),这个模型是为了解决现有视频生成技术在处理高维视频数据时所面...新技术# CMD# 英伟达2年前07370
StyleCineGAN:从单张风景静图生成循环播放的动态图像韩国科学技术院推出StyleCineGAN,它能够自动从单张风景静图生成循环播放的动态图像,也就是所谓的“cinemagraph”,让普通用户和专业人士都能够轻松创建高质量的cinemagraph,无...新技术# StyleCineGAN# 动态图像2年前04930
新型视频生成方法TRF:控制视频内容在给定的起始和结束帧之间进行生成来自马克斯·普朗克智能系统研究所、Adobe和加州大学圣地亚哥分校的研究团队推出新型视频生成方法Time Reversal Fusion(时间反转融合,简称TRF),它能够控制视频内容在给定的起始...新技术# TRF# 视频生成2年前05390
视频编辑框架AnyV2V:根据文本提示、主题或风格等不同的输入来编辑视频来自滑铁卢大学、Vector研究所和Harmony.AI的研究团队推出新型视频编辑框架AnyV2V,它能够让用户根据文本提示、主题或风格等不同的输入来编辑视频。 项目主页 GitHub Demo 想象...新技术# AnyV2V# 视频编辑2年前07590
DreamReward:通过人类偏好反馈来提升从文本到3D内容生成的质量生数科技发布创新框架DreamReward,它专注于通过人类偏好反馈来提升从文本到3D内容生成(text-to-3D generation)的质量。它通过结合人类反馈和先进的机器学习技术,极大地提高了...新技术# 3D模型# DreamReward2年前07110
图像逆向技术ReNoise:可能图像内容进行编辑重建来自特拉维夫大学和谷歌的研究团队推出图像逆向技术ReNoise,这是一种通过迭代噪声处理来实现真实图像在预训练扩散模型域内重建的方法。简单来说,就像我们有时候需要从一张已经损坏或者风格化的照片恢复出原...新技术# ReNoise# 图像编辑# 谷歌2年前05510
3D重建和生成模型GRM:从稀疏视角的图像中快速重建出3D模型来自斯坦福大学、香港科技大学、上海人工智能实验室、 浙江大学和蚂蚁集团的研究团队推出新型大规模3D重建和生成模型GRM(Gaussian Reconstruction Model),GRM是一种基于t...新技术# 3D模型# GRM2年前06930
controllable text-to-3D generation:根据文本提示和条件图像生成高质量、可控制的3D模型来自浙江大学、西湖大学和同济大学的研究团队推出controllable text-to-3D generation,它能够根据文本提示和条件图像生成高质量、可控制的3D模型。这种方法的核心在于使用一种...新技术# 3D模型# controllable text-to-3D generation2年前05100