AR Engine(AR引擎服务)是一个用于在HarmonyOS上构建增强现实应用的引擎,提供了运动跟踪、环境跟踪和命中检测等空间计算能力。通过这些能力,您的应用可以实现虚拟世界与现实世界的融合,给消费者提供全新的视觉体验和交互方式。
能力介绍
AR Engine包含三大能力,分别是运动跟踪能力、环境跟踪能力和命中检测能力。
运动跟踪能力
AR Engine通过获取终端设备摄像头数据,结合图像特征和惯性传感器(IMU),计算设备位置(沿x、y、z轴方向位移)和姿态(绕x、y、z轴旋转),实现6自由度(6DoF)运动跟踪能力。
图1 6DoF运动跟踪能力示意图(红色线代表设备运动方向)
环境跟踪能力
AR Engine通过检测和跟踪设备周围的平面及语义,实现环境跟踪能力。环境跟踪能力包括:平面检测、平面语义、目标语义。
-
平面检测
检测水平和竖直平面(如地面、墙面等),并识别平面边界。您的应用可使用这些平面来放置虚拟物体。
图2 平面检测示意图(左图为水平平面,右图为竖直平面)
-
平面语义
检测不同的平面类型。当前支持的平面类型共8种,分别为:墙面、地面、座椅面、桌面、天花板、门面、窗面、床面。
图3 平面语义示意图(蓝色表示地面,绿色表示桌面)
-
目标语义
当目标物体位于平面上时,检测目标物体的形状,当前包括矩形和圆形。
图4 目标语义示意图 (左图为矩形检测,右图为圆形检测)
命中检测能力
AR Engine通过命中检测(Hit Testing)技术,将终端设备屏幕上的兴趣点映射为现实环境中的兴趣点。命中检测以现实环境中的兴趣点为源,发出一条射线连接到摄像头所在位置,返回射线与平面(或特征点)的交点。通过命中检测能力,用户可以通过点击终端设备屏幕,选中现实环境中的兴趣点,与虚拟物体进行交互。
图5 命中检测示意图
场景介绍
通过以上能力,您可以实现AR场景的应用开发,如AR物体摆放等,为用户提供虚实融合的全新交互体验。
AR物体摆放:通过摄像头构建AR虚拟世界,支持用户在虚拟世界中放置虚拟物体。AR物体摆放可用于虚拟家具试用等,实现虚拟与现实世界融合。
最后呢
很多开发朋友不知道需要学习那些鸿蒙技术?鸿蒙开发岗位需要掌握那些核心技术点?为此鸿蒙的开发学习必须要系统性的进行。
而网上有关鸿蒙的开发资料非常的少,假如你想学好鸿蒙的应用开发与系统底层开发。你可以参考这份资料,少走很多弯路,节省没必要的麻烦。由两位前阿里高级研发工程师联合打造的《鸿蒙NEXT星河版OpenHarmony开发文档》里面内容包含了(ArkTS、ArkUI开发组件、Stage模型、多端部署、分布式应用开发、音频、视频、WebGL、OpenHarmony多媒体技术、Napi组件、OpenHarmony内核、Harmony南向开发、鸿蒙项目实战等等)鸿蒙(Harmony NEXT)技术知识点
如果你是一名Android、Java、前端等等开发人员,想要转入鸿蒙方向发展。可以直接领取这份资料辅助你的学习。下面是鸿蒙开发的学习路线图。
针对鸿蒙成长路线打造的鸿蒙学习文档。话不多说,我们直接看详细鸿蒙(OpenHarmony )手册(共计1236页)与鸿蒙(OpenHarmony )开发入门视频,帮助大家在技术的道路上更进一步。
- 《鸿蒙 (OpenHarmony)开发学习视频》
- 《鸿蒙生态应用开发V2.0白皮书》
- 《鸿蒙 (OpenHarmony)开发基础到实战手册》
- OpenHarmony北向、南向开发环境搭建
- 《鸿蒙开发基础》
- 《鸿蒙开发进阶》
- 《鸿蒙开发实战》
总结
鸿蒙—作为国家主力推送的国产操作系统。部分的高校已经取消了安卓课程,从而开设鸿蒙课程;企业纷纷跟进启动了鸿蒙研发。
并且鸿蒙是完全具备无与伦比的机遇和潜力的;预计到年底将有 5,000 款的应用完成原生鸿蒙开发,未来将会支持 50 万款的应用。那么这么多的应用需要开发,也就意味着需要有更多的鸿蒙人才。鸿蒙开发工程师也将会迎来爆发式的增长,学习鸿蒙势在必行! 自↓↓↓拿