自回归技术StreamingT2V:能够创建具有丰富运动动力学的长视频,不会出现停滞现象来自Picsart AI研究部门、得克萨斯大学奥斯汀分校、佐治亚理工学院和伊利诺伊大学厄巴纳-香槟分校的研究团队推出先进的自回归技术StreamingT2V,能够创建具有丰富运动动力学的长视频,不会出...新技术# StreamingT2V# 自回归技术2年前06590
3D到3D生成方法ThemeStation:根据少量的示例生成具有一致主题的3D资源来自香港城市大学、上海AI实验室、南洋理工大学的研究团队推出3D到3D生成方法ThemeStation,它是一个能够根据少量的示例(exemplars)生成具有一致主题的3D资源的创新方法。其追求两个...新技术# 3D模型# ThemeStation2年前06430
英伟达推出LATTE3D:快速生成3D模型英伟达推出新型大规模文本到3D合成系统LATTE3D,LATTE3D的关键在于构建可扩展的架构,并利用3D数据在优化过程中引入3D感知扩散先验、形状正则化和模型初始化,以确保对不同和复杂的训练提示具有...新技术# 3D模型# LATTE3D2年前05770
创建人物图像动画的新方法Champ:让静态人物图片动起来来自南京大学、复旦大学和阿里巴巴的研究团队推出一种用于创建人物图像动画的新方法Champ,该方法利用潜在扩散框架内的3D人体参数模型来强化当前人体生成技术中的形状对齐和运动引导。例如,你有一张静态的照...新技术# Champ# 图像动画2年前06700
DragAPart:一张图片和加一系列拖动操作作为输入,生成新图片牛津大学视觉几何小组推出DragAPart,它接收一张图片和一系列拖动操作作为输入,能够生成该物体在新状态下的新图片,且新图片与拖动操作所表达的动作相匹配。与先前主要关注物体重新定位的工作不同,Dra...新技术# DragAPart2年前05260
Stability AI开发者平台上线全新API 服务重点摘要: Stability AI开发者平台现推出了一系列全面的 API 服务,树立了图像生成、放大和编辑的新标杆,未来还将推出更多服务。 这些服务专为开发者和创业者打造,融合了我们先进的图像处理技...科普# Stability AI2年前07100
英伟达推出视频生成模型CMD:解决现有视频生成技术在处理高维视频数据时所面临的高内存和计算需求问题英伟达推出新型的视频生成模型内容-运动潜在扩散模型(Content-Motion Latent Diffusion Model,简称CMD),这个模型是为了解决现有视频生成技术在处理高维视频数据时所面...新技术# CMD# 英伟达2年前07360
StyleCineGAN:从单张风景静图生成循环播放的动态图像韩国科学技术院推出StyleCineGAN,它能够自动从单张风景静图生成循环播放的动态图像,也就是所谓的“cinemagraph”,让普通用户和专业人士都能够轻松创建高质量的cinemagraph,无...新技术# StyleCineGAN# 动态图像2年前04920
新型视频生成方法TRF:控制视频内容在给定的起始和结束帧之间进行生成来自马克斯·普朗克智能系统研究所、Adobe和加州大学圣地亚哥分校的研究团队推出新型视频生成方法Time Reversal Fusion(时间反转融合,简称TRF),它能够控制视频内容在给定的起始...新技术# TRF# 视频生成2年前05360
视频编辑框架AnyV2V:根据文本提示、主题或风格等不同的输入来编辑视频来自滑铁卢大学、Vector研究所和Harmony.AI的研究团队推出新型视频编辑框架AnyV2V,它能够让用户根据文本提示、主题或风格等不同的输入来编辑视频。 项目主页 GitHub Demo 想象...新技术# AnyV2V# 视频编辑2年前07540
DreamReward:通过人类偏好反馈来提升从文本到3D内容生成的质量生数科技发布创新框架DreamReward,它专注于通过人类偏好反馈来提升从文本到3D内容生成(text-to-3D generation)的质量。它通过结合人类反馈和先进的机器学习技术,极大地提高了...新技术# 3D模型# DreamReward2年前07070
图像逆向技术ReNoise:可能图像内容进行编辑重建来自特拉维夫大学和谷歌的研究团队推出图像逆向技术ReNoise,这是一种通过迭代噪声处理来实现真实图像在预训练扩散模型域内重建的方法。简单来说,就像我们有时候需要从一张已经损坏或者风格化的照片恢复出原...新技术# ReNoise# 图像编辑# 谷歌2年前05480