创新框架EMO:只需要提供一张静态照片和一段语音,就能生成口型匹配的视频阿里巴巴推出创新框架EMO,它是一个能够根据音频生成表情丰富的肖像视频的系统。想象一下,你只需要提供一张静态的照片和一段语音,EMO就能创造出一个视频,视频中的人物头像会根据语音的内容和情感变化做出相...新技术# EMO# 口型匹配2年前07100
Multi-LoRA Composition:不经过训练直接融合多个 Lora 不损失效果来自伊利诺伊大学香槟分校和微软公司的研究人员公开了多LoRA组合来生成图像的项目。简单来说,LoRA是一种可以让文本生成图像模型更准确地呈现特定元素(如独特的字符、风格或服装)的技术。论文探讨了如何更...新技术# Lora# Multi-LoRA Composition2年前08710
新框架VSP-LLM:通过观察视频中人的嘴型来理解和翻译说话内容这篇论文介绍了一个名为VSP-LLM(Visual Speech Processing incorporated with LLMs)的新框架,它结合了视觉语音处理和大语言模型(LLMs),以提高视觉...新技术# VSP-LLM# 大语言模型# 视觉语音翻译2年前06820
数据生成管道Gen4Gen:创建高质量的个性化图像和文本描述来自加州大学伯克利分校、牛津大学、哈佛大学、卡耐基梅隆大学、香港大学、加州大学戴维斯分校的研究人员推出数据生成管道Gen4Gen,它用于创建一个名为MyCanvas的数据集,旨在提高文本到图像扩散模型...新技术# Gen4Gen# 数据生成管道2年前04650
创新人工智能系统Genie:从单一图像提示生成无限种可玩(即可通过行动控制的)游戏场景来自不列颠哥伦比亚大学和Google DeepMind研究人员提出创新人工智能系统Genie,它能够从互联网上的未标记视频数据中学习,生成可交互的虚拟环境。Genie的核心功能是将文本、合成图像、照片...新技术# Genie# Google DeepMind1年前05260
T-Stitch:加速预训练扩散模型采样过程来自莫纳什大学、英伟达、威斯康星大学麦迪逊分校、加州理工学院的研究人员推出T-Stitch,它是一种用于加速预训练扩散模型采样过程的方法。 项目主页 GitHub 扩散模型是一类在图像生成领域表现出色...新技术# T-Stitch# 扩散模型# 采样2年前06970
3D重建技术MVD2:针对多视角扩散图像进行高效的三维形状重建来自清华大学和微软亚洲研究院的研究人员推出新型3D重建技术MVD2,它专门针对多视角扩散(Multiview Diffusion,简称MVD)图像进行高效的三维形状重建。 论文地址 MVD是一种新兴的...新技术# 3D重建技术# MVD22年前05720
子对象级图像标记化:用于计算机视觉模型的图像处理来自香港科技大学与小冰AI的研究人员推出名为“子对象级图像标记化”(subobject-level image tokenization)的新方法,这是一种用于计算机视觉模型的图像处理技术。这种方法受...新技术# 子对象级图像标记化2年前06090
多视角图像编辑技术QNeRF:多视角图像编辑的一致性和质量特拉维夫大学、英伟达和卡内基梅隆大学的研究人员推出新型多视角图像编辑技术QNeRF(Query Neural Radiance Field),这项技术旨在解决在对同一场景从多个视角拍摄的图像集进行编辑...新技术# QNeRF# 多视角图像编辑2年前05680
去噪方法GeneOH Diffusion:解决手-物体交互(HOI)去噪的问题来自清华大学、上海人工智能实验室、上海启智研究院的研究人员推出GeneOH Diffusion,它旨在解决手-物体交互(HOI)去噪的问题。在手-物体交互中,我们经常需要准确地追踪手部动作,尤其是在游...新技术# GeneOH Diffusion2年前07350
基于Transformer架构的新型视频生成模型Snap Video来自Snap、特伦托大学、加州大学默塞德分校、布鲁诺·凯斯勒基金会的研究人员推出新型视频生成模型Snap Video,此模型基于Transformer架构,目标是将文本描述转换成高质量的视频内容。 项...新技术# Snap Video# Transformer# 视频生成模型2年前06110
新型图像编辑框架Differential Diffusion:精确地控制图像的编辑过程来自特拉维夫大学、赖希曼大学的研究人员推出新型图像编辑框架Differential Diffusion,此框架的核心特点是能够让用户对图像的每个像素或区域进行不同程度的编辑,这在以往的图像编辑技术中是...新技术# Differential Diffusion# 图像编辑2年前08980