一:沉浸式MR,三大刚需场景拆解
林总系统解析MR技术双轨分化:
-
信息式MR:消费级轻量化应用(导航/试妆),依赖手机或基础眼镜; -
沉浸式MR:需毫米级空间定位、眼控/手势多模态交互、低延迟渲染,直击三类不可替代场景:
工业精密作业
(波音公司进行飞机线束装配)
手术实时导航
(梅奥诊所利用AR导航完成脊柱手术)
复杂培训
(空客通过AR模拟发动机拆装)
二、全栈式技术打造国产化产品矩阵、专注沉浸式XR场景, 已实现规模化落地
公司以空间计算技术为核心,推出全栈式空间计算及感知交互解决国产化方案:
SeerLens® 沉浸式MR眼镜
- 空间计算交互式MR眼镜;
- 支持6DoF自追踪手柄、眼球追踪技术、25关节3D自然手势交互、多人协同、远程协助;
- 可应用于航空航天、口腔种植手术导航、工业辅助可视化等MR作业场景;
SeerSense®空间计算模组
- 边缘计算能力, SLAM算法集成, 多传感器融合(RGBD,双目鱼眼,ToF传感器),内置SLAM/深度/AI引擎;
- 适配Open CV & Open VINO开源工具,提供丰富的SDK和便捷的开发体验;
- 可应用于室内外机器人,人形机器人,无人机,虚拟制作等人机交互场景;
SeerController®自追踪 6DoF手柄
- INSIDE-OUT 视觉定位,可达5米/秒,毫米级动作追踪,操控无死角;
- 支持通用蓝牙、无线通讯,可适配各种XR设备/PC/无人机/3D TV;
- 可应用于机械臂、人形机器人交互训练等场景;
三:全栈式自研:从空间算法到产业落地的垂直壁垒
诠视科技的核心差异化在于全栈自研技术闭环。区别于行业常见的模块拼装方案,诠视科技构建了从底层感知到上层交互的完整技术链:
- VSLAM 引擎(空间定位与建图)
- SimEdgeXR 引擎(混合现实仿真)
- 音频索引引擎(声学分析与交互)
- 深度引擎(三维环境感知)
- 手势眼控引擎(自然人机交互)
基于上述引擎技术,公司打通了从底层算法到终端产品的全链条能力,衍生出丰富的产品线,这一架构充分体现了垂直整合的技术自主性:从底层算法出发,通过五大引擎实现关键技术模块化,最终在硬件终端(MR眼镜、感知模组、交互设备)与行业解决方案(航空航天、医疗、工业等)层面完成闭环,形成覆盖"算法-引擎-产品-应用"的全栈式创新体系。
结语:做细分领域的“空间计算铲子”
诠视科技始终聚焦精密复杂工业、医疗、机器人、教育培训等高壁垒场景,以全栈式自研技术为“铲”,深挖细分领域刚需。创新机器人感知力,超越人类视觉极限。
XR产业正处于“硬件性能拐点+内容生态起步+政策红利释放”三重叠加期。短期看VR放量,中期看AR眼镜替代手机,长期看MR成为下一代通用计算平台。
来源:诠视科技
稿件/商务合作: 向前(微信 Shixiangqian7)电话:18700987744
创始人:张明军(微信 13720775110)
更多精彩内容,请关注ARinChina微信公众号(ID:X增强现实)

我的微信
这是我的微信扫一扫
评论