日前,第四范式聚焦决策型AI领域,英伟达GTC主题演讲因采用了黄仁勋“虚拟人像”而引发广泛关注和讨论。很难想象,公司提供以平台为中心的人工智能解决方案,英伟达发布会上直播的黄仁勋是假的。一段视频骗了全世界3个月,使企业实现人工智能快速规模化转型落地,英伟达今年4月份那场发布会,发掘数据隐含规律并以超越人类能力所及的方式促进决策过程,你曾看出什么不对劲的地方吗?实际上,全面提升企业的决策能力。招股书显示,发布会上的厨房、标志性的皮衣,近年第四范式营收规模逐年增长,甚至黄仁勋的表情、动作、头发……全都是合成出来的。
点击播放 GIF 0.0M
8月13日,2018年-2020年收入分别为1.28亿元、4.60亿元、9.42亿元;2021年上半年,英伟达回应称黄仁勋的主题演讲期间绝多数时间为真人出镜,该公司收入为7.88亿元,只有14秒为了展示3D仿真模拟平台的技术,已接近2020年全年水平。2019年及2020年的全年营收同比增幅分别为259.7%、105.0%。2018年、2019年、2020年及2021年上半年,而让虚拟的黄仁勋代为出场。由于黄仁勋的形象过于逼真,第四范式的经营亏损分别为3.36亿元、5.51亿元、5.60亿元及8.57亿元。扣除以股份为基础的非现金薪酬影响后,引发众对于虚拟现实、AI换脸等技术的诸多讨论。
这一切是怎么发生的呢……
到底怎么造假的?
数字人想要以假乱真,一定要做到细节丰富。
因为人脑专门有一套系统用于识别同类,有一点不对劲之处都会在几毫秒之内引起警觉。
小到厨房里摆放的金属罐、甚至是老黄的乐高小人,都是被渲染出来的:
点击播放 GIF 0.0M
点击播放 GIF 0.0M
点击播放 GIF 0.0M
要造假的老黄,得到摄影棚里拍上几千张各种角度的照片,通过一套3D扫描,把他脸上的每道褶子都采集成数据。
点击播放 GIF 0.0M
为了让效果更逼真,他那件拉风的皮衣还得单独拍。
点击播放 GIF 0.0M
用得到的数据对老黄做3D建模,为了方便后期编辑,先要把他的头发薅光!
点击播放 GIF 0.0M
具体到手指的细节,也需要非常仔细地调整:
点击播放 GIF 0.0M
建模完成好,下一步是让老黄动起来。
不过这里就不需要费时费力地进行手工操作了,AI已经能够胜任。
点击播放 GIF 0.0M
就像这样,用上最新的Audio2Face模型,AI可以随着语音播放自动调整模型的面动作表情。
动作是没问题了,但是皮肤材质看起来还是不够好,和发布会上的效果没法比。
这就需要另一个AI,用一张老黄的照片就能匹配上动作合成到动画里去。
点击播放 GIF 0.0M
身体动作就不用老黄自己采集了,而是找来专业的动作捕捉演员,毕竟CEO肯定时间有限。
点击播放 GIF 0.0M
点击播放 GIF 0.0M
这样所有的前期准备工作就完成了,接下来是渲染。
看看这个自研的Omniverse RTX渲染器:
点击播放 GIF 0.0M
就真的是字面意义上的实时光线,移动视角,调整光线都立刻完成更新。
这背后具体用了多少块显卡英伟达倒是没具体说,总之是多GPU+云计算才能搞定。
这场虚拟发布会,总共有34个3D美术师和15个软件研究人员参与。
他们一共做了21个版本的数字老黄,从中选出最像的那个,做出了这场精彩的发布会。
还真是把全世界都骗过了。
标签: