西风 发自 凹非寺
量子位 | 公众号 QbitAI

一张图30秒高质量转3D,3D生成圈的一个开源模型,最近成了新晋当红炸子鸡。

不仅上线即冲抱抱脸热榜,GitHub也已揽星超1.6k。

打开网易新闻 查看更多图片

Gradio官方也忍不住下场发推文分享,让大伙儿瞧瞧这个算不算是目前最好的图像转3D模型:

打开网易新闻 查看更多图片

重点是该模型,背后的团队,还是一支来自清北的00后年轻初创团队

CEO毕业于北大计算机系,NOI WC金牌、最佳女选手得主;CTO来自清华姚班;不少成员还是CG Artist,擅长利用CG进行艺术创作,COO就是北大艺术史论与工商管理双学位;团队成立一年内就顺利完成了三轮融资……

量子位还打听到,基于该模型打造的产品还即将上线一波新功能:一张图生成3D全景图一键将视频人物替换为生成角色

这次走红,或许只是这支明星团队的开始。

一张图30秒转3D

细心的家人们可能已经发现了,开头提到的这个爆火的开源模型名为Unique3D,主打高保真度、高一致性、高效率单图转3D。

打开网易新闻 查看更多图片

比起以往基于Score Distillation Sampling(SDS)等方法,Unique3D解决了模型生成需要长时间优化,几何质量差,存在不一致性的问题。

而且Unique3D也优化了基于多视图扩散模型方法受限于局部不一致性和生成分辨率,难以产生精细的纹理和复杂的几何细节的问题。

打开网易新闻 查看更多图片

Unique3D一上线,团队就开源了使用大型开源3D数据集Objaverse训练出的模型版本,还放出了Demo给大伙儿玩。

网友玩过后,一致认为Unique3D的诸多表现都很不错。

打开网易新闻 查看更多图片

打开网易新闻 查看更多图片

胳膊、腿、手腕都做的很好:

打开网易新闻 查看更多图片

这位网友还为生成好的3D模型搭入骨架,解锁高阶玩法:

打开网易新闻 查看更多图片

搭配其他工具,在Blender中组建3D动画也可以:

打开网易新闻 查看更多图片

有网友表示,生成的Mesh视图质量很高:

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

看到这,量子位也忍不住上手体验了一番。

Demo界面很简洁,只需要上传一张图片,然后点击Generate 3D就可以了,也可以简单调整参数Seed,勾选去除背景:

打开网易新闻 查看更多图片

紧接着,生成速度非常快,相比此前模型需要几分钟的生成时间,Unique3D几十秒就能将一张图“啪”的一下转3D:

打开网易新闻 查看更多图片

随手用GPT-4生成一张小怪兽的图,然后上传:

打开网易新闻 查看更多图片

你别说,感觉3D生成后的可爱度直线上升,关键Unique3D生成的纹理和质感都和原图高度一致。

而这一特点也是最为网友所称赞的。

不少网友指出,Unique3D生成的质感很真实,甚至比Stability AI和Tripo AI合作推出的单图转3D模型TripoSR还要好。

打开网易新闻 查看更多图片

在抱抱脸的3D竞技场中,Unique3D目前排名第二,和第一名的InstantMesh差距也很小,票差24:

打开网易新闻 查看更多图片

不过,Unique3D的生成也会有一些瑕疵,比如有时背面分辨率不高,会有一些小斑点等。

打开网易新闻 查看更多图片

生成企鹅效果很好,生成梯子结构就乱了:

打开网易新闻 查看更多图片

对此开发团队表示会继续优化算法,并且有个小Tip:上传的图最好是标准的正面图、无遮挡的那种。

此外,团队还表示最近将加入更多视角的参考,提升对不同视角的兼容度,由于一直在优化算法,模型稳定性可能会受干扰。

说回来,Unique3D是如何将一张图高质量转成3D模型的?

Unique3D里面有什么?

用一张图展现Unique3D的Pipeline是这样婶儿的:

打开网易新闻 查看更多图片

整个流程分三个主要阶段:多视图生成、高分辨率上采样、3D Mesh重建。

具体来说,输入一张图,首先微调版Stable Diffusion模型会根据这张图生成四个256×256分辨率的正交多视图图像,也就是从单一视角推断出物体的其它视角。

然后,通过一个高分辨率上采样过程,使用ControlNet-Tile将图像分辨率提升至512×512,再用Real-ESRGAN进一步提升至2048×2048,同时利用专门的法线扩散模型生成对应的高分辨率法线图

利用多级上采样策略,逐步提高图像分辨率,可以较好地保证生成细节。

接着,团队提出了ISOMER算法,直接基于Mesh进行3D重建,计算负载与空间分辨率的平方成正比。

其中包括以下步骤:

  • 利用前后视图直接快速估计初始Mesh;
  • 通过300次迭代的SGD优化进行粗到细的Mesh优化,引入扩张正则化,避免表面坍塌问题;
  • 利用ExplicitTarget技术为每个顶点分配唯一的优化目标,处理多视图不一致性;
  • 基于多视图图像对精确的几何结构进行着色,使用高效的平滑着色算法完成不可见区域的着色。

由此,从性能上讲,输入一张图在RTX4090 GPU上仅需30秒即可完成3D转换,生成的3D Mesh模型在几何精度和纹理细节上都显著优于基准。

以下是定性比较以及细节对比:

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

所以,Unique3D背后的这个年轻的学霸团队又是哪个?

“年轻人就要玩新模态”

Unique3D背后团队是AVAR AI

有些人对其可能并不陌生,毕竟自2021年成立以来,AVAR AI就在3D这条赛道上多次崭露头角,成立一年后成功融资三轮。

创始人兼CEO胡雅婷,毕业于北大计算机系,曾在谷歌、阿里、字节做过算法工程师。

技术合伙人兼CTO吴凯路,来自清华姚班,在叉院做3D生成和NeRF相关研究,曾提出了FSD(text-to-3d流分数蒸馏)和MemSR(高效训练超分辨率模型)等工作。

在此之前,胡雅婷和吴凯路分别拿过NOI全国信息学奥林匹克竞赛WC金牌、金牌,吴凯路是国家集训队,胡雅婷是最佳女选手。

COO任靳珊,本科毕业于北大,获艺术史论与工商管理双学位,硕士毕业于芝加哥大学,曾在海内外美术馆、腾讯艺术等有过策展商务文创经历。

总之,一句话形容AVAR AI团队:全员平均00后学霸

打开网易新闻 查看更多图片

CEO胡雅婷还透露,团队目前严格意义上的全职员工很少,有一半是深度合作的AI研究员,还有一半是3D艺术家。

其本人在参加信息学算法竞赛前也非常喜欢艺术创作,算法在她看来也是一个非常有创造性的过程:

之所以想创业做图形学,也是因为很喜欢皮克斯,皮克斯就是一个典型的技术+艺术团队。

基于此,AVAR AI的定位也更专注于创作方向。

胡雅婷直言并不想卖3D生成的技术,所以选择直接开源Unique3D:

我们比较关注3D应用场景以及它的下一步,希望可以通过比如做动画以及新的交互方式实现4D,这样就可以让创作者创作出真正有表达力的IP或是数字媒体内容。
所以这个过程中可能竞争力并不是技术本身,我们接下来也会重点关注作品的艺术性和IP的潜力,以及做好创作者社群。

在她看来,形成这种“创作者经济”会是AVAR AI区别于API工具等模式的壁垒,像是Midjourney就形成了一套创作者生态和网络效应。

打开网易新闻 查看更多图片

而AVAR AI此前在AI生成3D内容方面的工作,也为团队新的3D生成项目打下了基础。

在Unique3D之前,AVAR AI的一条业务主线是专注于元宇宙数字品牌,与动画影视公司、知名IP、互联网大厂等都有过合作,例如曾和阿里合作推出3D星球生成器、与奥飞娱乐合作打造IP形象。

面向年轻用户,AVAR AI推出的应用也更加多元,AR、VR、XR方面也有涉猎。

对于新研发的Unique3D模型,团队除开源了用开源数据集训练的模型外,还用更高质量的商用私有数据对模型进行了工程优化并上线到产品网页端——Aiuni AI

打开网易新闻 查看更多图片

上面提到的更多更具表达力的3D应用场景,也在部署中,打开Aiuni AI主页就能看到即将上线的新功能。

例如3D world,一句话、一张图就能生成一个360度全景,而且不只是一张全景图,用户可以导出Mesh,也就是整个场景的3D文件

打开网易新闻 查看更多图片

此外,还有一个叫做DreamCamera功能也将会逐步推出,基于团队的另一项研究Camera Dreamer打造,可以一键将视频人物替换为生成角色,同时Aiuni AI还兼容VisionPro等MR的渲染环境:

打开网易新闻 查看更多图片

在被量子位问到作为一名年轻的科技创业者,有何见解可以分享给其他有志于进入科技和创业领域的年轻人,Aiuni AI CEO胡雅婷给出了这样的回答:

我觉得年轻人就一定要做新模态。比如AIGC创业,文本、图像、视频,大厂都已经入局了,造了很多通用大模型。而年轻人就得去找一些新的模态,要有新的数据和算法,并且有增量的或是下一代的应用场景。

你觉得Unique3D、Aiuni AI的表现如何?感兴趣的家人们可以玩起来了~

Github链接:https://github.com/AiuniAI/Unique3D
Huggingface Demo:https://huggingface.co/spaces/Wuvin/Unique3D
项目主页:https://wukailu.github.io/Unique3D/
论文链接:https://arxiv.org/pdf/2405.20343

参考链接:
[1]https://x.com/NegiTurkey/status/1804750164680483003
[2]https://x.com/fffiloni/status/1799400868074459574
[3]https://x.com/dylan_ebert_/status/1800959099774943470
[4]https://x.com/hAru_mAki_ch/status/1797958793948721178
[5]https://x.com/Frezoaiart/status/1801135447076462608