您现在的位置是:首页 > 财经 > 正文

Google使您可以更轻松地在手机上记录

发布时间:2021-05-21 10:14:55来源:

导读 在今年Google的虚拟Google I O开发者大会上,关于增强现实的新闻并不一定走在前列。但是该公司在Android上对其ARCore工具的更新看起来

在今年Google的虚拟Google I / O开发者大会上,关于增强现实的新闻并不一定走在前列。但是该公司在Android上对其ARCore工具的更新看起来像是在增加一些与苹果的激光雷达相同的世界扫描功能-但没有激光雷达。并且,可以将AR叠加到预先录制的视频中。

根据Google的ARCore 1.24公告,这些新工具可用于与ARCore共享手机捕获的深度图:换句话说,就是物体在“ 3D网格”中的大致位置。根据Google在博客文章中宣布的合作伙伴应用程序,这些应用程序可用于3D扫描,或用于将物体(例如家具)实际放置在充满事物的房间中的AR。

在CNET的Google报表新闻中获取有关Google支持的设备的最新新闻,操作方法和评论。

更有趣(更令人弯腰)的部分是Google记录和共享深度图数据的能力,该公司将其构想为将AR放入预先录制的视频中的一种方式。如果某人已经具有某个房间的深度数据,则该房间的视频最终可能会使用该数据将对象作为效果放置到视频中,可能是社交视频(以TikTok为例)或其他任何地方。

使用ARCore在没有激光雷达的情况下将AR东西分层放置在深度扫描的椅子上。

据Google称,已经在尝试利用这些功能的合作伙伴应用包括:AR Doodads(将复杂的Rube Goldberg事物分层到房间中的应用),LifeAR(使用AR来投影化身的视频通话应用)和VoxPlop(在事实之后将3D效果分层到视频中)。

Google在一年前首次宣布了其深度感应增强现实功能,但现在,这是新的应用之间开放的深度数据共享。Google的帖子解释说:“这些更新利用了运动的深度,使它们可以在数亿个Android设备上使用,而无需依赖专门的传感器。” “尽管不需要诸如飞行时间(ToF)传感器之类的深度传感器,但使用它们可以进一步改善您的体验质量。”

尽管苹果目前依靠AR机房3D网格的物理传感器(激光雷达),但像Niantic这样的一些公司已经在做类似的事情而没有激光雷达。谷歌现在看起来也正在为Android扩展更多这些工具。

标签:

上一篇
下一篇

最新文章