亮亮视野AR眼镜GLXSS ME,声网助力打造第一视角实时体验
2018年1月17日,亮亮视野在北京MeePark发布新一代AR眼镜与人机协作平台。AR眼镜GLXSS ME(Multi-Edition),为产业AI场景而设计,意在通过第一视角交互,实现多维度的连接、认知与协同。新一代AR眼镜具有强大的AI认知能力,搭载Movidius® Myriad视觉处理器,自主研发神经网络推理框架,可轻松部署各类算法模型。
亮亮视野CEO吴斐
发布会上,亮亮视野新一代AR眼镜也发布了行业内独有的适合于AR传输的协议架构AR Streaming,这一流媒体服务协议基于声网强大的底层传输技术,将GLXSS Live底层的流媒体平台架构向AR Streaming的双流架构升级。在已有的视频流基础上,依托AI与CV技术,把特征流和视频流独立开来,增加新的数据流传输闭环,实现双向AR互动。
这一发布,也是AR眼镜行业内一次革新,更好地实现了智能交互。
声网全球SD-RTN™网络破 解AR眼镜技术难点实时同步交互难点
VR/AR在近几年掀起了一股创业潮很多顶级厂商如Facebook、Samsung、HTC都加入这场布局战中。目前,创业者大多是通过硬件搭配内容和生态来完成布局,但是所有这些因受制于基础设施体验,用户体验并不好,消费者大多也只是体验,实际并不买单。
声网Agora.io首席音频工程师高泽华、行业代表、学术专家在发布会上济济一堂
国内领先的AR眼镜厂商亮亮视野此次专注于用户体验升级和技术革新,通过基于声网Agora.io强大的音视频交互技术和完整的应用服务体系,突破了行业长期以来的一个技术难点,就是如何实现第一视角并保证前端和后端同步实时的交互。
具体来说,在远端的相关工程技术人员无法到达现场的情况下,通过前端的工作人员佩戴AR眼镜以及相关智能设备将现场的音视频流传输到后方,同时后方第一时间就现场情况作出反应并且将相关音视频信息流发回,进行远程协作。这一业务在2018年全新升级,成为GLXSS Live人机协作平台中“人与人”、“人与设备”“人与数据”“人与业务”中重要的组成部分。
这一能力,就要求做底层技术支撑的公司在毫秒级超低延迟的情况下,快速稳定地实现音视频的双向传输,其中的技术难度之大,门槛之高,可以想见。
声网针对以上行业技术难点,在全球部署了超过200个数据中心,自行搭建了服务全球客户的SD-RTN™实时虚拟通信网,超低延时,端到端平均延时达到76ms,实现了实时互动的音视频传输。通过声网的网络架构,为AR智能设备实现交互性强、就像面对面聊天互动一样的使用场景。
2017年声网在全球新增过百个数据中心,其中海外新增数十个,大幅提高美国、中东、东南亚等地区传输质量,声网海外传输有绝对优势。
“我们非常高兴为亮亮视野这样一家具有全球视野的AR眼镜厂商提供底层技术支持。声网的全球布局,实时音视频云传输技术,用第一视角第一时间实现前后端音视频实时传输,我们的SDK也针对AR/VR这类的创新场景,进行了优化适配,相信会在更多的包括工业、医疗、安防、金融等多个领域得到广泛应用,”声网创始人兼CEO赵斌说道。
声网于2014年在硅谷创立,创始人是前YY CTO赵斌先生。声网开创了全球实时云服务,成为实时通信领域最专业的服务商。声网致力于服务开发者。开发者只需简单集成 SDK,最快 30 分钟让 App 实现高清音视频通话,多主播互动的毫秒级实时互动直播和游戏音视频。
亮亮视野成立于2014年,团队为来自谷歌、联想、微软、英特尔和中国航天等企业的专业人士和技术专家。目前已完成千万美元的B轮融资。
(完)