扯远了,回到 Nreal Air 本身,基于索尼这两块 Micro OLED,Nreal Air 的「惊鸿锐影」光学引擎 2.0 就包括了「大出瞳直径」的设计,以满足不同人不同瞳距的观看使用 —— 包括我自己,几个同事试佩戴过体验也并没发现因瞳距不合的不适感。
在衡量一块普通屏幕的显示精细程度时,除了看反映总像素量的分辨率外,我们还会看反映显示细腻程度的像素密度 PPI 这个值;而 VR、AR 设备也类似,屏幕的分辨率重要,但视场角 FOV 和角分辨率 PPD 更反映显示的视野和精细程度。
以 Nreal Air 为例,其屏幕的视场角 FOV 为 46 —— 数值越大,视野覆盖的范围就越广,讲真这其实有点小;不过角分辨率PPD 为 49 —— 反映 1 视野所囊括的像素量,理论上自然也是多高,画面就越精细,据说人类眼睛的角分辨率为 60 PPD,它的精细度已经较高了。
Nreal 给到的数据:投屏模式下约等于 4 米距离 130 英寸屏幕的观感,AR 模式下约等于 201 英寸屏幕的观感;这两块 Micro OLED 的入眼最高亮度为 400nits,有 108% 的 sRGB 标准色彩容积覆盖。
这两枚 Mirco OLED,在 Nreal Air 的镜框之上,用一个类棱型模组将顶部 Micro OLED 画面反射到眼球上,同时因为折射率存在,肉眼仍能看到真实世界的样貌,进而实现 AR(现实增强)的显示,这种实现画面投射的光学设计叫做 Birdbath —— 这种显示方式最大的优点是画质损失较少,但视场角难免做得较小,Nreal Air 的 46 在当中算「中上」水平,基本能达到专注视野范围的 45 以上了,但实际观感视野还是比较窄的,实际使用的时候需要频繁摆头来代替转动眼球,以获取更多信息。
Nreal Air 本身是个高度集成化的轻量 AR 显示设备,它负责画面的展现,以及环境的感知 —— 拥有 3DoF 的空间位置感知,主要感知头部的方位,但因轻量化的设计,Nreal Air 并没有摄像头等传感器实现对周围环境的感知和定位,所以功能上它是做不到 HoloLens 这类更高阶产品程度的,而它背后的数据处理、运算,以及供电系统其实是由手机等智能设备作支撑,只需直接连上一个 Type-C 线即可,手机即变成你 Nreal Air 的遥控器、数据处理单元和供电系统。
理论上 Nreal Air 是支持所有 DP 视频协议输出的 Android 手机 / 平板作为主机的,在手机上安装好 Nreal 客户端初始化后,每次连接上手机后即可自动运行,几乎没有开机等待过程,即插即用,手机变成遥控器,形成一束光作为「操作光标」。
我之前(大概两三年前)也体验过类似的量产产品,但那精准度是真的差,时常要重新校准光标,如今重新戴上这类产品,Nreal Air 加上我手上两年前入手的 Xperia 5 II 手机,和 Nreal 客户端,整个的操控是一体且流畅的,使用的这段时间内基本不会出现光束位置漂移的现象,说明 Nreal Air 的定位,以及 Nreal 客户端在 Android 手机的方位标定做得挺好。