根据真实视频训练 英伟达用AI生成交互式3D虚拟场景 自动构建虚拟世界

  2018年12月04日,英伟达今天推出了一项突破性的人工智能研究,开发者首次可以通过一个根据真实世界视频训练的模型来渲染完全合成的交互式3D环境。

  研究人员利用神经网络来实时渲染一个合成的3D环境。就目前而言,虚拟世界中的每一个对象都需要单独建模,而这个过程成本高昂且十分耗时。与之相比,英伟达采用了一个能够根据真实视频自动进行学习的模型来渲染诸如建筑物,数目和车辆等对象。

  这项技术为游戏,汽车,架构,机器人或虚拟现实快速创建一个虚拟世界提供了潜力。例如,你可以根据真实世界位置生成交互式场景,或者在消费者面向渲染流行歌手的实况演唱会。

  负责这一项目的英伟达Applied Deep Learning Research副总裁Bryan Catanzaro表示:“在25年来,英伟达一直在发明生成交互式图形的新方法,而这是我们第一次通过神经网络实现这一目标。神经网络,特别是生成模型,将改变图形的创建方式。这可以帮助开发者以更低的成本来创建新场景。”

  研究结果是一款简单的驾驶游戏,其中用户可以在城市场景中导航。所有内容都以交互方式呈现,并使用了能够将由传统图形引擎生成的3D世界草图转换为视频的神经网络。据悉,英伟达将在蒙特利尔举行的NeurIPS 2018大会上演示实况demo。

  这个神经网络能够模拟世界的外观,包括照明,材质及其动态。由于场景是完全合成生成,因此看来这可以轻松进行编辑,自由删除,修改或添加对象。

  研究人员指出:“建模和重建视觉世界动态的能力对于建立智能代理至关重要。除了纯粹的科学兴趣,学习如何合成连续视觉体验在计算机视觉,机器人和计算机图形学中存在广泛的应用。”

标签:

免责声明:本网站内容主要来自原创、合作媒体供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 新闻
  • 技术
  • 创投
  • 汽车
  • 产业
  • 通信
  • 区块链
  • 人物
  • 滚石