“永远实时在线”的Omniverse 帮助黄仁勋过了全世界_VER:iTrust Governance Token

英伟达今年4月份那场发布会,你曾看出什么不对劲的地方吗?

你品,你细品:

刚刚,在计算机图形学顶会SIGGRAPH2021上,英伟达通过一部纪录片自曝:那场发布会内藏玄机~

你看到了老黄,但也没完全看到。因为,这是一场当面“造假”的发布会。

画面中老黄的厨房、标志性的皮衣,甚至他的表情、动作、头发……全都是合成出来的。

这是一场开在元宇宙里的发布会,发表演讲的是英伟达CEO黄仁勋的数字人替身。

彼时彼刻,恰如此时此刻。

黄老板真给自己找了个替身。

没错,全世界都被黄仁勋了!

整整三个多月谁也没发现。

而且不光他自己,大到厨房的家具抽屉:

小到厨房里摆放的金属罐、甚至是老黄的乐高小人,都是被渲染出来的:

知道真相的我就如同导演李安:

Suia与Cetus将分别空投10万枚SUI以奖励所有SUIA IDO参与者:5月16日消息,基于公链 Sui 的流动性协议 Cetus 官方宣布,Sui 生态社交协议 Suia 计划空投 10 万枚 SUI 以奖励所有 SUIA IDO 参与者,Cetus 决定额外提供 10 万枚 SUI 来支持这一计划,分发将在 1 天内完成。[2023/5/16 15:06:55]

这一切是怎么发生的呢……

到底怎么造假的?

数字人想要以假乱真,一定要做到细节丰富。

因为人脑专门有一套系统用于识别同类,有一点不对劲之处都会在几毫秒之内引起警觉。

所以要造假的老黄,得到摄影棚里拍上几千张各种角度的照片,通过一套3D扫描,把他脸上的每道褶子都采集成数据。

为了让效果更逼真,他那件拉风的皮衣还得单独拍。

用得到的数据对老黄做3D建模,为了方便后期编辑,先要把他的头发薅光!

具体到手指的细节,也需要非常仔细地调整:

建模完成好,下一步是让老黄动起来。

不过这里就不需要费时费力地进行手工操作了,AI已经能够胜任。

就像这样,用上最新的Audio2Face模型,AI可以随着语音播放自动调整模型的面部动作表情。

SushiSwap 已上线 RouteProcessor2 漏洞赔偿门户:4月26日消息,SushiSwap 已上线 RouteProcessor2 漏洞赔偿门户,可通过该门户获得赔偿的用户为资金保管在 0x74eb 开头的合约中的用户,SushiSwap 将定期更新合约以包含未来可能继续回收的资金。资金未被包含在该合约中的用户需填写谷歌表单来执行单独的索赔流程。[2023/4/26 14:28:11]

动作是没问题了,但是皮肤材质看起来还是不够好,和发布会上的效果没法比。

这就需要另一个AI,用一张老黄的照片就能匹配上动作合成到动画里去。

身体动作就不用老黄自己采集了,而是找来专业的动作捕捉演员,毕竟CEO肯定时间有限。

这样所有的前期准备工作就完成了,接下来是渲染。

看看这个自研的OmniverseRTX渲染器:

就真的是字面意义上的实时光线追踪,移动视角,调整光线都立刻完成更新。

这背后具体用了多少块显卡英伟达倒是没具体说,总之是多GPU+云计算才能搞定。

这场虚拟发布会,总共有34个3D美术师和15个软件研究人员参与。

他们一共做了21个版本的数字老黄,从中选出最像的那个,做出了这场精彩的发布会。

还真是把全世界都过了。

英伟达“造假”有多强

上面这些“造假”的效果,背后都来自于一个名为Omniverse的平台。

没错,英伟达研发的计算机图形学技术太多,多到已经能整合成一个平台了。

币安将于3月29日上线1-20倍JOE永续合约:据官方公告,币安将于北京时间3月29日20:00上线1-20倍JOE永续合约。多资产模式允许用户在多种保证金资产之间交易JOE USDT永续合约,但须遵守适用的折扣率。[2023/3/28 13:31:02]

从CG到优化技术,从工具包到引擎,Omniverse都有提供。

光看Omniverse所承载的CG技术,其实远不止这次发布会用到的“造假”效果,它从渲染、材质,到光影、照明都有涉及,还会不断更新相关技术。

原本只是一纸论文的技术,可能不久后就被英伟达放到了Omniverse上,不少都是与AI相关的技术:

例如,缺损像素修补、插帧,已经被用到老照片和古早视频的修复中;还有基于GAN生成超分辨率图像、直接把2D照片渲染成3D场景,都已经能直接在平台上使用……

Omniverse上的渲染技术,究竟达到一个什么样的水准?

据英伟达表示,平台现在可以实时实现电影级别的画质渲染。

以渲染中非常重要的光源模拟为例,我们都知道,真实世界的光源多种多样,我们看到的其实是各种光照下的景物。

传统的计算机渲染,至少需要将光源迭代30+次,才能达到逼真到毛发的效果,即使用最先进的机器渲染,每一帧也基本都需要几十秒。

用上NeuralRadianceCache等技术后,结合RTXGPU硬件和Omniverse平台,光源渲染直接就能实时进行。

例如,这次GTC大会上对于主机的渲染,就采用了Omniverse平台的技术:

除此之外,包括LOD自动生成等技术也能用AI节约计算量,同时保证足够好的渲染效果。

不止是“以假乱真”的渲染效果,Omniverse还能完成更多意想不到的AI技术。

英伟达利用数字人实时渲染技术,在Omniverse中就能构建更逼真的、更符合物理定律的人类模型。

加密借贷平台Cred在诉讼中将其破产归咎于加密交易所Uphold:7月23日消息,加密借贷平台Cred的清算信托周五起诉加密货币交易所Uphold,称Uphold策划了最终导致Cred在2020年寻求破产保护的产品。

根据Cred Inc. Liquidation Trust的说法,Cred和Uphold共同创建和推广了CredEarn,Cred通过CredEarn借出超过1亿美元的客户存款,然后在2020年破产。诉讼称,“Uphold通过错误地将其宣传为‘安全’、‘有保障’、‘有保险’和‘完全对冲’,促使成千上万的用户加密货币借给CredEarn计划。”诉讼中写道,Uphold知道Cred正在实施一种高风险的对冲策略,并且存在与加密货币收益计划相关的监管风险,Uphold和Schatt没有承担所有这些风险,而是决定通过Cred运行 Earn来将风险从Uphold转移。在一份声明中,Uphold对诉讼中提出的主张提出异议。Uphold坚称Cred完全独立拥有和运营,并表示在向Uphold客户推广产品时,它不知道CredEarn的财务问题。(CoinDesk)[2022/7/23 2:32:58]

例如,帮助车辆、自主机器、机器人等更好地识别,真实的人类是什么样的,从而更好地设计工厂:

这是英伟达在Omniverse上更新了另一项数字孪生技术,将机器人AI放到虚拟环境中训练完成后,可以直接部署到真实环境中。

目前,宝马已经用英伟达的数字孪生技术,对数字工厂的生产流程进行了优化,效率直接拉高30%。

看看这个渲染的速度:

具体渲染效果来看,连光照和细节都能被模拟出来。

高盛执行其首笔与以太坊相关的衍生品交易:金色财经消息,高盛(Goldman Sachs)执行了其首笔以太坊无本金交割远期合约交易,并为机构投资者提供了投资加密货币的间接敞口,其交易对手为金融服务公司 Marex Financial。(CoinDesk)[2022/6/13 4:23:20]

不止是宝马工厂,包括机器人仿真、自驾车仿真在内的一系列技术,也会用到Omniverse平台。

例如,自动驾驶和工厂的AI检测可能存在行人误判,将街头、公告张贴的人脸图片识别为行人,导致事故发生。将逼真的数字人和渲染等技术结合后,就能在仿真环境训练下模拟行人,让AI学会判断图片和真人的区别。

从效果到效率,英伟达都直接刷新了人们对“元宇宙”的认知。

重新定义「元宇宙」

号称“永远实时在线”的Omniverse,是英伟达打造元宇宙的关键。

它不仅能跨平台支持所有用户的物理渲染、模拟和仿真,还能让创作者、审核者在任何地方,只通过软件应用就在一个共享的虚拟世界中进行合作。

毕竟,Omniverse本身就构建于通用场景描述?(UniversalSceneDescription,简称USD)之上。

这是一种开源3D场景数据标准和文件格式,USD之于Omniverse就相当于HTML之于互联网。

USD由皮克斯开发,现在成了英伟达、皮克斯和苹果共同推广的行业标准。USD注重非破坏性便捷和跨软件协作,是x86、arm平台以及各种软件都程能够统一到Omniverse平台上的基础。

目前,全球已经有500多家公司的专业人士上手使用了Omniverse。这其中包括美国航天航空制造商洛克希德马丁公司、曾荣获艾美奖的《南方公园》工作室等知名企业。

国内央视的《飞向月球》太空纪录片,也同样有用到Omniverse,尤其是里面的数字人:

从Omniverse硬件和软件的支持情况来看,英伟达这一次更新也真的是诚意满满。

“将数百万新用户带入元宇宙世界”,真的不是说说而已。

首先,Omniverse这一次集成了Blender和Adobe来实现大规模扩展。

Blender是全球领先的开源3D动画工具,他们将在Blender3.0版本加入USD支持,使用户能够在Blender中直接访问Omniverse制作流程,这无疑会让创作者们的效率直线up。

Adobe就不用多介绍了,家喻户晓。

现在,他们正在和英伟达合作开发一个为Omniverse提供SubstanceMaterial支持的Substance3D插件。

使用这个插件,可以让用户在Omniverse中直接调整Substance3D中的素材。

这能为用户在改稿过程中,节省导出、重新上传的时间。

与此同时,英伟达还发布了一个人工智能3D建模扩展:GANverse3D–Image2Car。

它可以让AI进行3D建模变得更加容易。

只需通过一张汽车照片,GANverse3D就能建立出一个虚拟的3D模型。

这无疑让3D画师们创建场景变得更轻松了。

其次,在硬件上,NVIDIARTX和GeForceRTX系列都支持Omniverse。

这不,英伟达同时还发布了小巧、节能的RTXA2000,它适用于各种标准和小型工作站,可以说是专为创作者的日常工作而设计。

英伟达放言称,A2000将会成为数百万设计师进入元宇宙的门户。

去年12月发布公测版以来,已经有超过5万名个人创作者下载了Omniverse。

而Omniverse的生态系统也在持续壮大,Adobe、Autodesk、BentleySystems等多家软件公司都已加入Omniverse的生态圈。

现在,NvidiaOmniverse企业版的访问名额已经“开抢”了,华硕、BOXXTechnologies、戴尔、惠普、联想、必恩威和超微等平台上都能使用。

不知道以后英伟达的发布会还能不能当真。

反正老黄的假脸是一脸真诚~

OneMoreThing

回到4月那场发布会。我们在英伟达自曝纪录片中,隐约读出另一个事实,当时的老黄是真真假假,虚实交替的。

那么,哪一段是真?哪一段是假?

作为找茬八级团队,怎么能这么轻易就给人过去?于是,我们重新去回看了一遍4月份那场发布会。

果不其然,我们发现了一些不对劲的地方。

这是老黄第一次在发布会上出现时候的样子。看上去问题不大是吧?OK,接着往下看:

这是刚刚那张图4分钟之后,老黄的样子。注意到什么不一样的地方了吗?

请注意,他身上忽然间变成了另外一件皮衣,里面穿的也从Polo衫变成了圆领T恤。

如果你再仔细一点看,你会发现他厨房有些物品的放置也变了。

还有个最直观的区别:老黄本人,还有他背后的厨房,怎么好像分辨率突然提上去了?

高到脑门上的抬头纹都多了几条。

这还没完。

到发布会后半段,老黄穿着同一件皮衣,可是里面的衣服又换回了Polo衫。

过了一会,他摇身一变,把皮衣和Polo衫全换了。

好家伙,你搁这玩排列组合呢?

真搞不懂,老黄来来回回在这换装,是图个啥。除非这是英伟达故意的。

于是,我们拿着放大镜去看了视频,终于注意到,这段老黄手上的动作,有明显的不自然。而且画面也是糊的。

懂了:)

总之,一段视频了全世界3个月,不得不说,黄老板真是又高又硬。

赝品是个好东西!

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

水星链

[0:15ms0-1:29ms