2DGS:从多视角图像重建和渲染三维场景来自上海科技大学和图宾根大学的研究团队推出2D Gaussian Splatting(2DGS),它是一种用于从多视角图像重建和渲染三维场景的方法。 项目主页 论文 2DGS的核心思想是将3D体积简化...新技术# 2DGS# 3D模型# 三维场景2年前01,4650
卷积重建模型CRM:将一张普通的2D图片转换成一个带有纹理的3D模型清华大学、中国人民大学等团队研究人员推出卷积重建模型CRM。该模型可用于将单图像转换为3D纹理网格,可在短短10秒内就从图像中提供了高保真纹理网格,无需任何优化测试。 项目主页 GitHub Demo...3D模型# 3D模型# CRM# 重建模型10个月前09710
图生3D模型TripoSR:将2D图片转换成3D模型图生3D模型Stability AI与Tripo AI携手合作,共同推出TripoSR,这是一个灵感源自LRM(单幅图像到3D的大型重建模型)最新研究成果的快速3D对象重建模型。 模型地址:https://hug...3D模型# 3D模型# TripoSR10个月前09080
MaPa:根据文本描述为3D模型生成逼真的材质来自浙江大学、蚂蚁集团和深圳大学的研究人员推出MaPa,它能够根据文本描述为3D模型生成逼真的材质。与传统的纹理贴图不同,MaPa通过生成程序化的材质图(material graphs)来表示3D模型...新技术# 3D模型# MaPa2年前08490
Stability AI推出全新3D模型SF3D:可在不到一秒的时间内从单张图片快速生成高质量的3D网格模型Stability AI之前与Tripo AI合作推出了图生3D模型TripoSR,Stability AI又基于TripoSR推出了Stable Fast 3D (SF3D) ,它可以在不到一秒的时...3D模型# 3D模型# SF3D# Stability AI10个月前08400
DreamReward:通过人类偏好反馈来提升从文本到3D内容生成的质量生数科技发布创新框架DreamReward,它专注于通过人类偏好反馈来提升从文本到3D内容生成(text-to-3D generation)的质量。它通过结合人类反馈和先进的机器学习技术,极大地提高了...新技术# 3D模型# DreamReward2年前06940
基于两阶段高斯溅射的3D模型DreamPolisher:基于文本描述生成三维(3D)对象来自牛津大学的研究人员推出DreamPolisher,它是一种基于文本描述生成三维(3D)对象的方法。这是一种基于两阶段高斯溅射的方法,该方法强制各视图之间的几何一致性。首先,通过几何优化对粗略的3D...新技术# 3D模型# DreamPolisher2年前06870
3D重建和生成模型GRM:从稀疏视角的图像中快速重建出3D模型来自斯坦福大学、香港科技大学、上海人工智能实验室、 浙江大学和蚂蚁集团的研究团队推出新型大规模3D重建和生成模型GRM(Gaussian Reconstruction Model),GRM是一种基于t...新技术# 3D模型# GRM2年前06870
3D内容生成模型Magic-Boost:将粗糙的3D模型转换成高质量的3D模型来自南洋理工大学和字节跳动的研究人员推出新型3D内容生成模型Magic-Boost,它能够将粗糙的3D模型转换成高质量的3D资产。Magic-Boost是一种多视角条件扩散模型。它能够通过短暂的SDS...3D模型# 3D模型# Magic-Boost10个月前06810
ComfyUI原生支持Hunyuan3D 2.0,开启3D生成新体验ComfyUI现已原生支持腾讯发布的Hunyuan3D 2.0及其多视图生成模型(Hunyuan3D 2.0 MV)系列。这一更新为用户提供了更高效、更便捷的3D模型生成体验,无论是从文本还是图像生成...工作流# 3D模型# ComfyUI# Hunyuan3D-2.08个月前06680
ViewDiff:从文本或图像生成多视图图像来自Meta和慕尼黑工业大学的研究人员推出ViewDiff,它能够根据文本描述或已有的图像输入,生成与3D对象一致的高质量图像。 项目主页 GitHub 想象一下,你只需要告诉计算机你想要的3D对象是...新技术# 3D模型# ViewDiff# 多视角2年前06640
3D到3D生成方法ThemeStation:根据少量的示例生成具有一致主题的3D资源来自香港城市大学、上海AI实验室、南洋理工大学的研究团队推出3D到3D生成方法ThemeStation,它是一个能够根据少量的示例(exemplars)生成具有一致主题的3D资源的创新方法。其追求两个...新技术# 3D模型# ThemeStation2年前06360