首尔国立大学的韩国研究团队创造了一个叫做exo-glove poly ii的可穿戴手工机器人,可以帮助失去手动流动性的残疾人。通过利用机器学习算法收集行为,机器人可以检测用户的意图。
首尔软机械师研究中心(SRRC)的研究团队由Sungho Jo教授从韩国先进的科学技术(Kaist)和首尔国立大学Kyu-Jin Cho领导。合作者包括来自卡斯特的Daekyum Kim和Jeesoo Ha,以及来自首尔国立大学的京峰町京峰金康Brian Butunghyun康。
SRRC团队提出了一种新的耐用手动机器人的意图 - 检测范式。基于用户行为预测抓住和释放意图,使脊髓损伤(SCI)损失丢失的脊髓损伤(SCI)患者攻击和放置物体。
研究人员开发了一种基于一种算法的方法,该方法通过使用第一人称视图相机预测可穿戴手机机器人的用户意图。他们的发展基于假设,即可以通过收集用户手臂行为和手对象交互来推断用户意图。
本研究中使用的机器学习模型,基于EgoCentric视图(视频网络)的视觉的意图检测网络是基于该假设而设计的。视频网络由空间和时间子网组成,其中时间子网是识别用户ARM行为,空间子网是识别手对象交互。
佩戴exo-glove poly ii的sci患者(以前版本的视频)一个柔软的可穿戴手工机器人,成功挑选各种物品,并执行日常生活的基本活动,例如饮用咖啡,没有任何额外的帮助。

基于视觉的机器学习算法。(信誉:首尔国立大学软机械学研究中心)
他们的发展是有利的,因为它会检测到用户意图,而无需任何人对校准和额外的动作。这使得可穿戴手机机器人无缝地与人类互动。
该研究发表于2019年1月30日作为焦点文章的第26期科学机器人学。研究团队更多地解释了系统。
这个系统如何工作?
该技术旨在通过利用安装在眼镜上的第一人称视图相机来预测用户意图,特别是掌握和释放到目标物体的意图。(将来可以使用谷歌玻璃等东西)。Video-Net是一种基于深度学习的算法,设计为基于用户ARM行为和手机交互来预测来自摄像机的用户意图。通过视觉,捕获环境和人体运动数据,用于训练机器学习算法。
而不是使用经常用于意图检测残疾人的生物信号,我们使用简单的相机来找出用户的意图。这个人是否试图掌握或不掌握。这是有效的,因为目标用户能够移动他们的手臂,而不是他们的手。我们可以通过观察臂运动和距物体和手的距离来预测用户抓握抓握的意图,并使用机器学习解释观察。
谁可以从这项技术中受益?
如前所述,该技术检测人员手臂行为和手机交互的用户意图。这种技术可以由丢失的手动损失,如脊髓损伤,中风,脑瘫或任何其他伤害,只要它们可以自愿移动。这种使用视觉来估计人类行为的概念
有什么限制和未来的作品?
大多数限制来自使用单眼相机的缺点。例如,如果另一个对象被另一个对象封闭目标对象,则该技术的性能会降低。此外,如果在相机场景中无法看到用户手势,则该技术无法使用。为了克服由于这些原因的缺乏,需要通过结合其他传感器信息或其他现有意图检测方法来改善算法,例如使用电拍摄传感器或跟踪眼睛凝视。
在日常生活中使用这项技术,您需要什么?
为了使该技术用于日常生活中,需要这些设备:具有致动模块,计算设备和具有相机的眼镜的可穿戴手机机器人。我们的目标是降低计算设备的尺寸和重量,使得机器人可以便于在日常生活中使用。到目前为止,我们可以找到满足我们要求的紧凑型计算设备,但我们预计能够执行深度学习计算的神经形态芯片将是商业上市的。
编辑注意:本文已重新发布首尔国立大学。
告诉我们你的想法!