未来人与计算机的五种交互方式_~王璟~_百度空间

         


自从个人电脑诞生以后,鼠标就成为人与计算机的交互途径。电脑的功能越来越丰富, 移动性越来越好,但是交互方式却真的没什么变化。最近,革命性的产品和发明带给人全新的人机交互体验。在产出{zd0}化的鞭策下,鼠标和键盘终有{yt}会被我们抛弃。下面这些嵌入式技术可能会改变我们的交互方式。  多点触控
  鼠标和笔记本的手写板通过点击来达到双击图标和拖曳窗口的目的,而多点触控则可以仅仅用简单的手指动作就实现复杂的命令。众所周知的iphone屏幕就采 用了这种技术:用两根手指的来放大或缩小图片,或者用滑动手势滚动页面。
  苹果一系列产品ipone、itouch、macbook和{zx1}的产品ipad都广泛的使用了这种技术,其他厂商也开始跟随苹果的脚步。就连苹果新的“魔 术鼠标”也是一种带手势识别的触控设备。多点触控给普通计算机带来的改变时提高了命令输入的效率:人的五指代替了屏幕上{wy}的鼠标指针。人们在进行多点触 控的时候屏幕实际是出于锁定状态的。 R. Clayton Miller发明了一种叫做 10/GUI的界面解决多点触控这个问题。人们在一台大的移动设备上把双手解放出来,用十根手指操作屏幕。
  在电脑屏幕上,有十个可见的小圆点代表使用者的十根手指,当人们的手指手指挤压或移动时,就能够执行打开程序、滚动页面的操作。
  手势感应
  鼠标的滚轮和ipone都可以进行动作感应,但是只有手势感应允许动作在三维空间内进行。
  这几年,任天堂的wii游戏机将手势感应推向了大众。近来大量的厂商也推出了许多针对游戏玩家的手势感应产品。
  洛杉矶的布隆有限公司就是一家定位于桌面用户的企业,他们开发了一款叫做“g-speak”的产品。使用者带上一种特殊的手套以后,站到壁挂式屏幕前,像 xx那样做出一个射击的姿势,就能够把图像和数据从一个屏幕移动到另一个屏幕上(类似技术也在斯皮尔伯格2002年的电影《少数派报告》中出现过)。
  布隆的首席执行官Christian Rishel认为这种界面能够让人们从大量的数据中解脱出来。“如果你淹没在数据的海洋中那你就得在正确的时间找到正确的数据。”
  Rishel介绍道,这种昂贵的技术的早期使用者包括军方和石油公司,但是他认为五到十年内所有的电脑将使用这种技术的部分成果。
  跳出了人机互动的二维局限,Rishel认为这种技术将使人机互动更有效率,回报更加丰厚。“我们会把数据捞出来然后把他们涂在墙上”Rishel幽默的 说。
  语音识别
  我们直接与电脑对话会怎么样呢?语音识别的概念已经被提出几十年了,一系列的软件产品也被开发出来。大部分软件充当了转录机的角色,录入的速度往往只有人 们平时说话速度的三分之一。马萨诸塞州一家开发了“巨龙自然语音”的公司员工Naunce介绍,他们的产品可以让身体上有障碍而不能使用传统键盘或鼠标的 人操作电脑。该公司的副总裁兼巨龙项目总负责人Peter Mahoney说:“我们已经有了一批核心顾客..........他们在使用电脑的时候{bfb}的时间都要用到我们的软件。”
  Peter Mahoney给我们举了一些例子来介绍“巨龙”如何识别语音信号并加以执行。比如使用微软Word的时候,只要说“说的时候下划线”,软件就能给文本添 加下划线。使用者只要发音(“换行”)以及菜单命令(“恢复修改”)就能够与软件进行交互。说一声“上网”,就能打开浏览器,语音识别还能够让用户选择超 链接进行阅读。其他诸如电子邮件的应用也能够用简单的语音命令完成。
  “语音界面非常灵活,它的应用前景是无限的”Mahoney在电话采访中说。“它潜力比物理设备要多得多。”
  视觉跟踪
  既然我们看我们要去点击的东西,为什么不直接使用我们的眼睛去完成呢?
  视觉跟踪技术是依赖高清晰度摄像机和不可见红外光源来达到探测人眼方向的目的。这种技术在科学研究和广告调研中被证明非常有用。但同时这种技术几乎大部分 时候用于残疾人,而且造价很高。GUIDe(视觉加强用户界面设计)是致力于向大众普及的视觉跟踪技术的研究计划,其中开发的“Eyepoint”软件, 能够让使用者将双手放在一块板子上,眼睛聚焦屏幕上的一个点以后,这个点周围的区域就会放大,然后用手去挤压那块板就能让程序运行。
  实验人员用过“Eyepoint”软件之后认为“基于视觉将人机交互变得更快和更简单.....因为他们已经在看那个目标物了”Manu Kumer在几年前是斯坦福大学这个项目的带头人。
  Kumar谈到,Eyepoint还能比传统的鼠标使用更少的手腕压力,但是“注视再点击”比“定位再点击”错误率稍微高一点。“我坚信这种技术会发展到 取代鼠标”。但迄今为止,高昂的费用依然是视觉跟踪推广的{zd0}阻力。
  脑控计算机
  只用想一想,计算机就能帮你完成。这种{zj2}的人机融合比你预想时间还要来得快,但是真正要进入普通消费市场还需要克服一些潜在的障碍。
  脑控计算机交互(BCI)将神经细胞的脉冲直接反映到电子屏幕或者机器设备上。和语音识别一样,BCI帮助了许多身体不方便的人,比如大脑中风患者、肌萎 缩侧索硬化症患者。过去的十年,BCI帮助了许多不能移动身体的患者使用电脑。
     有一个长期以来困扰发展为正常人提供的商用BCI的问题,需要通过植入电极来提供大脑的清晰神经信号,这可能会带来感染、身体排异反应并形成xx。但是, 其他的非植入性扫描技术如脑电图可以通过在大脑皮层上带上带电极的帽子,这些技术近来发展很迅速。
  这个月早些时候在德国举行的CeBIT展会上,Guger技术展示了他们的新设备“Intendix”,被他们称为“世界上{dy}台BCI发音器”,在屏幕 上有一张包含了数字和字母的虚拟键盘,如果你想着点亮某个字符,那么Intendix就会探测你大脑活动,并将字符选中。这家公司声称Intendix能 够方便受伤和生病的人交流,并且血吸使用Intendix的功能只需要几分钟,每分钟Intendix能识别5到10个字符。当然这对于健康人来说实在是 太慢了,另外这套设备价格也高达12000美元。
  与此相关的研究还有“神经修复术”,能够连接人的大脑并通过脑电波工作,这可能会带来可行的桌面应用。
  无论未来人机交互式怎样的,看来和过去一样大家还有很长一段时间要继续使用鼠标。



郑重声明:资讯 【未来人与计算机的五种交互方式_~王璟~_百度空间】由 发布,版权归原作者及其所在单位,其原创性以及文中陈述文字和内容未经(企业库qiyeku.com)证实,请读者仅作参考,并请自行核实相关内容。若本文有侵犯到您的版权, 请你提供相关证明及申请并与我们联系(qiyeku # qq.com)或【在线投诉】,我们审核后将会尽快处理。
—— 相关资讯 ——