OpenAI研发全新从文本生成3D模型的系统Shap-E,大大提升速度

lhw 2023年5月17日17:44:41
评论
摘要

OpenAI在研究文本到三维对象方面取得了快速进展。已经托管至GitHub的Shap-E据称可以直接从文本描述中生成3D asset,或者从提供的图像中构建相关内容。

OpenAI在研究文本到三维对象方面取得了快速进展。已经托管至GitHub的Shap-E据称可以直接从文本描述中生成3D asset,或者从提供的图像中构建相关内容。

如果大家有印象,OpenAI早在2022年12月就发布了能够根据文本提示建立点云形式的基本3D模型的Point-E系统。

现在,团队又发布了速度大大增加的全新系统Shap-E。其中,它能够以 “隐式函数 “的形式建立模型,既可以呈现为纹理网格,又可以呈现为神经辐射场(NeRFs),即使用机器学习从二维图像中开发的三维模型。团队指出,尽管质量不及其他优化模型,但Shap-E的速度要快几个数量级,从而为用户提供了有利的权衡。

OpenAI研发全新从文本生成3D模型的系统Shap-E,大大提升速度

近来生成式图像模型的爆炸性增长,所以社区对训练其他类似模型的兴趣越来越大,如音频、视频和3D asset。大多数都适合于可以直接生成的自然的、固定大小的张量表示,例如图像的像素网格或音频的样本阵列。然而,如何以一种高效生成并易于在下游应用中实现的方式来表示3D asset是一个问题。

最近,隐性神经表征(INRs)已成为流行的3D asset编码方式。为了表示三维资产,INRs通常将3D坐标映射到特定的位置信息,如密度和颜色。一般来说,INRs独立于分辨率,因为它们可以在任意的输入点进行查询,而不是在一个固定的网格或序列中进行信息编码。由于它们是端到端的可微分,INRs能够实现各种下游应用,例如可微分的形状编辑。

在研究中,OpenAI专注于两种类型的INRs的3D表示:

  • 神经辐射场(NeRF)是一种INR,它将3D场景表示为一个将坐标和观察方向映射到密度和RGB颜色的函数。NeRF可以通过查询密度和沿camera光线的颜色,从任意视图中渲染出来,并进行训练以匹配3D场景的ground truth渲染。
  • DMTet和它的扩展GET3D将一个有纹理的三维网格表示为一个将坐标映射到颜色、符号距离和顶点偏移的函数。这个INR能够以可微分的方式构建3D三角形网格,而所得到的网格可以使用可微分光栅化库进行高效渲染。

尽管INR灵活和富有表现力,但为数据集中的每个样本获取INR的过程成本可能十分高昂。另外,每个INR可能存在诸多数字参数,在训练下游生成模型时可能会带来挑战。

针对所述问题,社区有尝试使用带有隐式解码器的自动编码器来获得较小的latent表征,从而直接用现有的生成技术进行建模。另外,有人使用元学习来创建一个共享大部分参数的INRs数据集,然后在自由参数训练扩散模型或归一化流。其他人则进一步建议,基于梯度的元学习根本没有必要,而是可以直接训练一个Transformer编码器来产生以3D对象的多个视图为条件的NeRF参数。

OpenAI结合并扩大了上述几种方法,并最终得出了Shap-E。

这是一个适用于各种复杂的3D latent表征的条件生成模型。首先,团队通过训练一个基于Transformer的编码器来产生3D asset的INR参数。接下来,在编码器的输出上训练一个扩散模型。

与以前的方法不同,产生的INR同时代表NeRFs和网格,允许它们以多种方式渲染或导入下游的3D应用程序。

OpenAI研发全新从文本生成3D模型的系统Shap-E,大大提升速度

Shap-E

在对数百万个3D asset的数据集进行训练时,模型能够在文本提示的条件下产生多样化的、可识别的样本,如上图所示。

OpenAI研发全新从文本生成3D模型的系统Shap-E,大大提升速度

Point-E

与早前提出的显式3D生成式模型Point-E相比,这个模型收敛得更快,并且在共享相同的模型结构、数据集和调节机制的情况下,它可以获得可比或更高的结果。令人惊讶的是,Shap-E和Point-E在以图像为条件时倾向于出现相同成功和失败的案例,这表明对输出表示的非常不同选择依然可以导致类似的模型行为。

OpenAI研发全新从文本生成3D模型的系统Shap-E,大大提升速度

然而,研究人员同时观察到这两个模型之间的质量差异,特别是当直接以文字说明为条件时。像Point-E一样,Shap-E的样本质量依然比基于优化的文本条件的3D生成式方法要差。然而,它在推理时间上比所述方法快了几个数量级,允许一个潜在的有利权衡。

例如,对于质量要求不高的场景元素,用户可以通过Shap-E快速生成相关的3D asset,而对于其他元素,用户则可以使用质量更多的3D生成式方式,从而快速高效地完成场景创建。

 

来源:映维网
投稿:tougao@arinchina.com
稿件/商务合作: 向前(微信 Shixiangqian7)电话:18700987744
创始人:张明军(微信 13720775110)
更多精彩内容,请关注ARinChina微信公众号(ID:X增强现实)
weinxin
我的微信
这是我的微信扫一扫
广告也精彩
lhw
  • 本文由 发表于 2023年5月17日17:44:41
  • 转载请注明:https://www.arinchina.com/19447.html
广告也精彩
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: