商品别名 |
ky智能蓝牙眼镜 |
面向地区 |
全国 |
根据视频演示,Project Glass可提供天气、交通路线等信息,用户还可以用语言发信息、发出拍照指令等,它还能显示附近的好友。举个例子:如果看到地铁停运,眼镜会告诉用户停 运的原因,提供替代路线;如果看到自己喜欢的书,可以查看书评和价格;如果在等朋友,眼镜会显示朋友的位置。
主要介绍应用于智能眼镜比较广泛的三种交互方式,即语音控制、手势识别和眼动跟踪。
语音控制
在人们的日常交流中,说话是常用的方式,将语音交互引入可穿戴领域,那人们将能够享受到更加自然和轻松的交互体验。语音控制即是让计算设备能听懂人说的话,还能根据人的说话内容去执行相应的指令。对于体积小、佩戴在身体上的智能眼镜来说,语音控制是行之有效的交互方式。
语音控制原理
语音控制中核心部分是对语音的识别技术。骨传导技术能完成对语音的识别和传输,多款智能眼镜均采用了此项技术。以Buhel 的 Sound Glass 为例,Sound Glass 中配备了间接骨传导传感器。他的每个镜腿内各有一个发声变频器,变频器振动时产生的声音能够通过用户头部侧面的骨头传递到内耳,这样用户就可以听到声音了.语音控制虽然是智能眼镜中重要的交互方式,但语音控制却碰到了不少难题。
手势识别原理及传感器
三维手势识别要用到深度信息,能够识别各种手势、手型和动作。要获取深度信息就要用到特别的硬件,在配合上识别算法就能实现三维手势识别了。接下来,介绍几款手势识别的传感器:TMG399,该产品是非接触式光学 IR 手势识别传感器,配备有手势识别、环境光检测、接近感知和颜色感知的四合一传感器模块;MGC3130,微芯科技推出的 3D 手势识别芯片,在其电场的作用下,无需接触就能感应手势,能够在 15cm 的距离以内按 150dpi 的确定坐标位置;MYO,初创公司 Thalmic Labs 的产品,它是一个戴在手臂上的臂环;16Lab,这是一款用于手势控制的智能戒指,内置有惯性传感器模块、处理器和低功耗蓝牙模块。