本周 AR/VR 圈内最大的新闻莫过于英伟达在北京的召开 GTC 大会。会上不仅来了许多 VR 相关的企业,英伟达更是展示了自己在 VR 开发上面支持的大力度。另一个大新闻莫过于一家名为枭龙科技的 AR 公司,在融资市场如此不景气的情况下,A+ 轮居然拿到了 5000 万的融资。当然我们也不会漏掉刚开过发布会的苹果,虽然他们目前没有任何 AR/VR 设备,但却做好了十足的准备。以下是这周我们为大家整理的沉浸感周刊:
眼下在 AR/VR 领域,大家都看好 AR(增强现实),甚至更甚 VR(虚拟现实),但 AR 不够成熟,其前景也并不明朗。这种环境下,一项新的融资新闻就更值得关注了。
枭龙科技刚刚宣布获得来自京东方领投的 5000 万人民币 A+轮融资,此前该公司曾在 2016 年初获得来自立讯精密领投的数千万人币 A 轮融资。对于这家成立于 15 年 6 月的公司来说,一年内便完成了天使、A 和 A+三轮融资,速度还是非常快的。
京东方一直在押注 AR 领域,事实上该公司早在 2014 年就投资了国外著名 AR 创业公司 Meta。史晓刚认为,两者战略上的契合促成了投资。但京东方能提供的不只这个,他表示以下三点也是促成投资的原因,
一、京东方有很大一块业务是整机代工,双方在整机代工上会形成深度合作。对创业公司来说,研发产品与生产产品之间有着巨大鸿沟,许多产品跳票也是无法跨越这条鸿沟导致的。实际上,枭龙已经开卖的这款产品就是由上一轮投资的领投方立讯精密代工的。
二、枭龙和京东方在整机研发上也会有很强的合作,借助后者很强的供应商资源和研发资源,可以帮助产品做到更小,应用更先进的技术。
三、目前 AR 眼镜在 C 端的销售很难做,而京东方有政府背景,拥有很多 2B 的渠道,在这方面有很多市场资源。
要说对 VR 行业热情最大的产业,那非视频游戏行业莫属了。
在过去的两三年里,媒体上关于青少年戴上 VR 头盔,使用 VR 动作控制器完全沉浸在虚拟世界里的报道铺天盖地而来。虽然和其他人一样,我也相信 VR 技术毫无疑问会变革以及重新定义我们目前所认知的视频游戏,但我坚定地认为 VR 技术能起到的作用远不止这些。
作为一家电子产品公司,苹果一向的策略看起来像是等待市场成熟之后再加入战局,然后再为市场打造出苹果理想式的产品。鉴于目前 AR/VR 市场的规模,以及其面向广泛用户的使用场景,现在执行这个计划还太早了。
即便如此,这也不意味着苹果在 AR/VR 研发上面一点也不积极。实际上,过去几年中,这家公司一直在扩充自己在这一领域内的专家人数,很有可能现在苹果已经组建起一只可观的团队,探索这一新技术能够被怎样运用在自己的产品上。
9 月 13 日在英伟达举办的 GPU 技术大会(GTC China 2016)上,拥有眼球追踪技术的国内创业公司七鑫易维发布了首款针对 HTC Vive 的眼控外设,把这项技术应用到了 VR 上面。
这款号称全球首款 VR 眼配件的产品,为 VR 带来两大功能:眼控交互和注视点渲染,前者为 VR 带来了新的交互式,后者则通过新的渲染方式提高 GPU 的渲染效率。
据介绍,这套产品单眼追踪的功耗不到 500mW,如果工作在省电模式下会更低。而对处理性能的要求黄通兵表示高通的骁龙 820 是支持的,「主流的都没问题」。
不过这套产品不会出单卖的消费版,它预计将在 10 月份登陆京东众筹,售价 3000 元左右,主要面向开发者。而面向消费者的产品将会以与头盔厂商的合作,内置到后者产品当中的形式推出。具体的产品面世时间仍有待确定,但据悉高通的一体机方案会重点推这个技术,国内的大朋和 3Glasses 也很积极。
英伟达这次又把 GTC 从美利坚开到了北京,并且为 VR 单独开辟了一个论坛。由于论坛的主题是「中国制造 2025 以及虚拟现实」,所以在大会上,我们更多听到的是 VR 技术在工业级上的应用。这些技术的运用背后都有英伟达在图形处理上的支持,尤其是专为 VR 开发者准备的开发套件 VRWorks。
在这场全球顶级的计算机视觉领域大会上,据不完全统计,大概有 70% 以上的文章均与深度学习有关,在图像分类、物体检测、语义分割等领域, 深度学习取得的效果已经大幅领先传 统算法。据微软亚洲研究院所述,即使是在 3D 视觉、底层图像处理等传统方法相对主流的领域也有不少学者给出了自己的基于深度学习的解决方案。
以手势识别为例,传统的识别方案大都基于颜色空间,如 RGB,HSV 及 YCrBr。但这些算法都无法排除类肤色物体及黑色皮肤对识别精度的干扰。也有些算法通过对手型轮廓特征进行提取从而完成识别,如 HoG+SVM 的分类识别方法,但仍然无法提高在暗光、逆光等条件下的识别精度。但借助深度学习,如通过 R-CNN 训练大量标注后的手势图像数据,得到的模型在处理带有复杂背景及暗光环境下的手势识别问题时,比传统方案的效果优秀很多。