[转载]让遥控器遍布全身_鸿鹄说话_新浪博客

本文转载自CHIP《新电脑》20107月号《科技与未来》专栏文章。在今后的几期中,还将陆续介绍微软亚洲研究院的新技术,我们将及时转载,与您分享新技术的精彩。

 

动动手指就能打开汽车后备箱,动动舌头就能让轮椅随意在院子中驰骋,隐形眼镜能随时把{zx1}的资讯和信息推送到你眼前,这些看似只有在科幻片中的场景正在微软的实验室中逐一被实现。

 

 

人与电脑等机器和设备如何能进行更好的沟通,一直是技术工程师们在努力研究的问题。随着互联网的发展,硬件的性能和软件的功能都在突飞猛进的发展,而作为现在人与电脑最重要的沟通工具,键盘和鼠标已经很多年没有实质性的技术突破,这已经与硬件和软件的发展速度严重脱节,不过这一状况在不远的将来有望得到改善。最近,CHIP再次走进了微软亚洲研究院,采访了,为大家挖掘出了{zx1}的,十分酷炫的人机交换技术。

 

用肌肉打开后备箱

 

你可曾想过当双手在忙于处理一些事情的时候如何才能控制电脑?比如说你双手提着篮子,这时又想把汽车的后备箱打开。要实现这一目标我们并不需要在脑袋上罩个感应脑电波的设备,其实人体有很多可以输出信号的方式,这些方式都比获取脑电波更加方便和准确。

 

研究人员发现,当我们动手指或者晃动手腕时,肌肉都会运动,而通过感应和翻译这些肌肉运动就可以实现对机器的控制,因此他们设计了肌肉计算产品。目前,他们已经设计出了样品,这个样品已经可以连接到电脑上,来控制一些类似Guitar Hero(吉他英雄)的游戏,只需要移动某个手指或摆动手腕就可以模拟出弹吉他的压弦或拨弦的动作。

 

当我们的大脑需要进行一些动作时,会发信号给肌肉,而肌肉在进行相应的动作时就会产生电信号,这个电信号的强度要高于脑部的电信号,因此也比脑部信号更容易捕捉。微软的专家们设计的肌肉计算产品是一个包含了12个电信号传感器的臂带,将这个臂带绑在手臂上之后,只需要经过一次简单的校准就可以使用。目前的肌肉计算臂带能够感应到大部分手部的大幅度动作,比如拇指与其他四指分别捏在一起的动作,手腕上下左右摆动的动作等。

 

如何准确地判断每个手指的动作是这项技术{zd0}的难点,优化感应和判别的算法,避免出现误判的情况。另外
,并不是每个手指都只与单一的肌肉相连接,需要判断一组肌肉的运动才能识别一个手势。另外,由于电信号感应器绑在皮肤上方,而肌肉在皮肤下方,皮肤的阻隔会影响识别的准确率。为了解决这些问题,微软研究院的研究员们采用机器学习的方式,不断地优化算法,进行识别和校准。在设计这个产品方面微软研究院的研究员也动了很多心思,例如让用户精准地将每个传感器都对准相应的肌肉是很困难的,所以他们将臂带中的传感器设计成环状,用户绑好后只需要连接电脑并根据提示动几下手指,即可将肌肉与环状传感器中合适的某个传感器对应起来。

 

目前,{zx1}肌肉计算臂带采用的数据分析芯片十分小巧,只有7mm×7mm,再配合传感器、电池和Wi-Fi模块,可以通过无线的方式与电脑或其他电子设备相连。在保证臂带体积合理的情况下,通过电池供电它已经可以工作4个小时,这个工作时间是在未对产品进行耗电优化的情况下得出的,例如传感器无论是否有信号输出都处于工作状态,微软的研究人员正在尝试对它进行优化,以实现只有在有数据传输的时候才开启传感器,没有时则关闭传感器以节电。

 

当然,这种技术并非只能用于采集手臂的肌肉信号上,只要是有肌肉的地方这项技术都可以发挥作用,如果有需要,你弯腰、踢腿甚至动动脚趾都可以被识别成一种控制命令。微软内部已经针对这一技术展开了部门间的合作,例如他们正尝试将这一技术与微软的Surface产品结合,这样你在操作Surface这个互动桌面的时候就可以脱离触摸屏这个平面了,你将可以把桌面中的物体从桌面中拿出来或再扔回去。

 

把皮肤变成触摸屏

 

皮肤也能变成按键,现在微软研究院的研究员们正在努力将人的皮肤变成一个超大的触摸屏。

这种被微软研究员称为皮肤输入的技术目前也已经有了样品,这个产品与肌肉计算的产品在结构上类似,也采用了臂带的形式,将臂带绑在手臂上后,点击手臂皮肤的不同位置即可发出不同的操作命令。在微软的演示样品中,采用绑在大臂上的微型投影机在小臂的皮肤上投影出一幅影像,比如一个手机的拨号键盘,之后只需用手指点击这个画面中的按键,肌肉计算臂带就可以感应到并将它翻译成相应的按键输入动作。

 

这个技术采用了类似波震动传导能量的原理,当我们点击身体的皮肤时,使用高速摄像机进行拍摄,并对拍摄的
画面进行慢动作回放时,可以看到点击皮肤的能量像水波一样向周围扩散和传导。而使用震动传感器进行分析这些皮肤震动时可以发现,点击手臂皮肤不同的位置时,返回的震动波是不同的,通过特殊的算法进行分析,即可对点击的位置进行定位。

 

虽然从原理上理解这个技术并不复杂,但是实际上在实现时同样会遇到很多问题。首先,用手指点击皮肤同一位置的力量、角度不同,产生的波都会有所不同,所以需要对胳膊进行建模,然后再不断完善算法才可以提高点击的识别率。另外,目前的技术仍旧不允许感应模块距离点击位置太远,因为在波的传递过程中,通过关节等地方时会被明显削弱。目前的皮肤输入原型样品采用了10个尺寸不同的传感器来感应不同频次的震动波,而未来很多使用硬件感应不同频次波的工作都可以借助软件计算的方式来完成,这样能够让感应臂带的体积更小,传感器也可以用的更少。

 

现在使用微型投影机在小臂投出20个按键,已经xx都可以被准确识别,也就是说目前这种皮肤输入技术的分辨能力已经可以区分出1cm~1.5cm距离以上的点击操作。与肌肉计算的技术原型类似,皮肤输入产品在每次使用前也需要进行校正,微软研究院的研究员们正在尝试将投影机、摄像头与皮肤输入产品结合,以实现自动位置感应和校准,这样以后在佩戴时就无需再进行校正操作了。

 

还有一件有趣的事,就是人体肥胖的程度会对这种波的传输产生干扰,在比较胖的时候,传输的信号会被削弱,不过实际测试后表明,即使是非常胖的人使用这个传感器,同样可以正常工作,只是工作的效果会打折扣,看来要想更好地使用这种未来的人机交互设备,首先要做的就是控制体重。

 

除了在皮肤上进行点击外,皮肤输入技术同样可以实现类似肌肉计算技术的功能,比如将两个手指捏在一起的动作同样可以被皮肤输入技术识别。微软研究院的研究员也正在尝试将这两个技术整合到同一条臂带中,以实现更全面的功能,另外他们还将在未来在臂带中嵌入加速器感应器,这样在运动时可以得到更好的感应效果。

 

用舌头驾驭轮椅

 

利用人体的不同部位来传达人机交互信号可以更好地帮助肢体不健全的残疾人。例如一个瘫痪的病人,即使全身都无法动弹但仍旧有可能控制自己的舌头,因此大部分全身瘫痪的人都可以正常说话。而人对自己的舌头有很强的控制力,用来传达人机交换的信号再合适不过。

为此,微软研究院的研究员展开了舌头计算项目,这个项目的工作原理相对简单,通过在嘴内安装一个包含4个(前后左右各一个)光学传感器的感应模块来感应舌头的动作,4个光学传感器可以检测舌头到特定位置的距离,进而可以将动舌头的行为翻译成某种控制机器设备的动作。目前使用这种控制工具已经可以连接电脑玩俄罗斯方块,或者控制一个轮椅缓慢的行进。舌头计算项目的原型产品体积跟舌头的大小类似,采用内置电池供电,可以工作约3小时,并使用蓝牙技术与电脑等设备进行无线数据传输。未来通过优化后,这个产品的功耗将更低,体积也可以做到更小,甚至可以直接通过在牙上打洞的方式进行安装。目前这款原型产品已经可以感应4~8个动作,准确率能够达到95%。

 

微软研究院的研究员希望将来可以为这款产品加入更多的传感器,以感应更多舌头的动作,他们希望这款产品在未来能够直接感应出人想说的话。使用者无需发出声音,传感器只需要通过感应舌头的运动和口型的变化就可以知道他想说的话,这将改善很多病人的语言功能障碍问题。

 

装在眼睛里的显示器

 

人机交互包含两方面内容,一方面是如何更好地将信息发送给电脑等机器设备,另一方面就是如何将信息传输出来,而输出方面的技术发展相对较快,眼镜显示器和手掌大小的投影机都已经出现,而微软研究院的研究员们并不甘于在原有的显示产品上继续优化,他们认为这方面的技术研究可以从最难的开始着手,因此他们开始研发隐形眼镜显示技术,他们认为一旦这个技术能够研发成功,其他问题也就随之迎刃而解了。

 

我们在微软亚洲研究院的会议室中见到了被称为仿生隐形眼镜的产品,这个已经是6个月前的模型产品与我们日常佩戴的隐形眼镜在尺寸上没有任何区别,甚至还有只能覆盖瞳孔的小隐形眼镜。虽然内嵌了LED灯和感应线圈,但它仍旧采用了类似现在隐形眼镜的柔性材质。如果不是亲眼所见,你很难想象这个厚度只有0.001mm的薄片上会遍布发光的LED灯和各种线路。

 

这一技术目前仍旧处于初级阶段,与上边的其他几项技术相比这项技术所面临的难题更多,首先就是加工难度,要在这么薄的一个柔性物体上制作发光体非常困难。目前微软是与华盛顿大学合作,由他们的一个特别实验室来制作。而目前也只能在隐形眼镜上制作红色LED,由于蓝色和绿色的发光模块体积较大,还暂时无法放到隐形眼镜片上。如果说攻克工艺难关还只是时间的问题,那么发热量则是更难于解决的问题,目前{zx1}的仿生隐形眼镜产品已经可以实现16×16的点阵显示,这并不是因为技术限制无法继续增加像素,而是因为再大的话产品的发热量会过高,超过人眼所能承受的范围。另外,由于隐形眼镜是紧紧贴在眼球上的,所以要让人眼能聚焦到隐形眼镜上显示的内容并不容易,目前通过模拟人眼结构来进行这个隐形眼镜产品的显示测试,结果也并不算非常好,测试时显示的一个字母E仍旧比较模糊。{zh1}一个问题是供电,这么小的产品上是无法附加电池的,因此仿生隐形眼镜必须采用无线供电,目前微软研究员采用的无线供电方案类似我们目前使用的公交卡,通过电磁感应原理,使隐形眼镜上的线圈产生电流,通过控制输出的功率,隐形眼镜上的LED亮度可以进行调整,但是无论怎样都需要有一个供电的发射端,而这个发射端并不能距离隐形眼镜太远,比较理想的方案是放置在眼镜框中,但是这样做无疑让仿生隐形眼镜的便携和隐形魅力大打折扣。未来,微软研究院的研究员们希望可以将显示用的LED小型化,移到隐形眼镜的边缘,以减少对眼睛观看外面景物的干扰。另外,这个产品由于可以直接接触到眼泪,还可以收集到一些医学上的信息,在加入传感器后还可以帮助有眼疾的患者随时监控眼睛的状况。总的来说,仿生隐形眼镜还面临着很多需要解决的技术难题,在短时间内具备实用价值的产品还很难出现,但是这种技术一旦研发成功,将有可能从根本上改变我们目前人机交互的模式。

交互界面的心理学

心理学提供了关于人类认知基本规律的重要的知识,在人机交互中具有非常重要的意义。微软亚洲研究院人机交互组赵晨博士在这里倾情分享此方面的研究心得。——编者按

 

人机交互并非只是不断改进操作电脑或其他电子设备的输入或输出设备,很大程度上需要首先考虑设计一个容易被用户所接受的界面,而什么样的界面更容易使用实际上又涉及到人类的心理问题,只有符合人类心理的正常规律,设计出来的界面可用性才更强。因此在设计人机交互界面时,需要考虑到两个方面,一个是人类对界面的感知,人类怎么去识别界面是最基本的,例如界面中的容错和提醒功能就非常重要,它们可以保证人类对交互界面有准确的理解。另外人机交互界面必须是一个并环的系统,比如一个按键的操作,在我们按下键后机器需要告诉用户已经按了这个键,如按下手机按键会有声音或震动的反馈提醒。

 

而微软很早之前就在进行人机交互界面的系统化研究,例如Word 2003这一款产品就至少进行8000个小时的可用性测试。我们会设法让Office和Windows Live等产品在大家使用的时候不需要再花很多时间去学习,这就说明这些产品已经拥有了不错的用户体验。提高用户体验是我们研发产品的目标,而产品的可用性则是我们研发产品的指标,它就像系统的稳定性一样重要,只有达到了可用性指标产品才能面世。

 

微软亚洲研究院在人机交互心理方面{zx1}的研究性产品就是企业内部的社交网络,他们希望企业内部社交网络可以给企业员工提供更好的信息分享平台,能够提高企业的运转效率。微软研究院的研究员之所以以此为研究方向是因为现在并没有一个针对企业的社交网络,而在企业环境中社交网络的需求又与互联网上的不同,企业社交网络的功能性需求相对较多,例如借助社交网络认识一些人,可以使办一些事情变得更方便等。另外,社交网络毕竟是一个相对轻松的环境,以往在企业内部人与人的交往和互动相对困难,他们往往使用邮件、电话甚至面对面开会等十分正式的方式。而企业社交网络实际上可以降低人们相互交流的门槛,只要使用得当可以增加员工间的非正式交流,提高企业整体的工作效率。

--------------------------------------------------------------------------------------

相关博文:

郑重声明:资讯 【[转载]让遥控器遍布全身_鸿鹄说话_新浪博客】由 发布,版权归原作者及其所在单位,其原创性以及文中陈述文字和内容未经(企业库qiyeku.com)证实,请读者仅作参考,并请自行核实相关内容。若本文有侵犯到您的版权, 请你提供相关证明及申请并与我们联系(qiyeku # qq.com)或【在线投诉】,我们审核后将会尽快处理。
—— 相关资讯 ——