评论:
我一直有一个梦想,尤其是看了阿凡达以后,感触更深。人脑如果能与电脑合二为一,那么某个人的思维模式和记忆就可以导入到电脑里,那么电脑就成了这个人的阿凡达。有{yt},这个人的躯体老化了,没有了,思想还能继续存在。如果能做到这样,未来世界上可能会有一个超大的计算机系统,这个系统里保留着所有科学家、思想家的思维,为后来的人提供帮助(变形金刚里叫领导模块),那人类就会少走很多弯路。
下面是转的文章:
声控手机
自个人电脑诞生以来,鼠标便一直充当用户与电脑之间的纽带。时至今日,电脑的功能越发强大,便携式程度也越来越高,但用鼠标点击界面的做法仍被绝大多数用户采用并且没有发生太大变化。令人欣慰的是,众多新想法和新产品的问世正让人们使用电脑的方式发生革命性变化。随着一系列操控电脑的新方式出现,鼠标甚至于键盘正在退出历史舞台。
1.多点触控
电脑用户都知道,我们要利用鼠标或笔记本触摸板控制鼠标指针的移动,而后在需要进行操作的图标上双击或者拖拽滚动条。随着多点触控技术的出现,这种事情将成为过去。多点触控允许用户用简单的手势输入复杂命令。一个响当当的例子就是苹果iPhone触摸屏。用户可以通过两指的移动放大、缩小、旋转图像或浏览网页。
其他很多手机公司也紧随多点触控技术{ldz}苹果的脚步。现在的苹果已将这项技术广泛应用到iPhone、iPod touch、MacBook以及刚刚发布的iPad上。苹果的多点触控鼠标Magic Mouse实际上是一个手势识别触摸板。将多点触控技术引入常规电脑无疑是一项巨大进步,能够提高输入命令的速度,多指齐上阵操控屏幕上的鼠标指针显然胜过传统的单一操控模式。
多点触控技术需要克服两个主要障碍。首先,用户长时间触摸电脑屏幕会感到不适。其次,用户在多点触摸的同时也挡住了屏幕,对浏览造成影响。
2.手势感知
除了类似鼠标轨迹球滚动的移动感知外,iPhone也采用了手势感知技术,允许用户通过3维手势操控手机。近几年,任天堂的Wii游戏机也大量采用手势感知技术。其他很多制造商最近也纷纷推出手势感知产品,主要就是针对游戏玩家。
美国洛杉矶电脑公司Oblong Industries可能已将普通台式机用户锁定为目标。他们研发的g-speak可以充当一个“操作环境”。使用时,佩戴特殊手套的用户站在一个巨型壁挂式屏幕和台式机显示器前,利用一系列类似交警的手势以及比划xx射击的动作,将图片和数据从一个屏幕转移到另一个屏幕。这项技术与史蒂文·斯皮尔伯格2002年影片《少数派报告》中出现的技术非常类似。
Oblong首席战略官克里斯蒂安·里歇尔表示,这种界面允许用户快速筛选大量数据。“如果希望立即在大量数据中找到自己需要的数据,它就派上大用场了。”这种界面价格昂贵,早期的用户包括军方以及石油公司,但里歇尔认为,在5到10年内,所有电脑都将以某种形式采用这项技术。
通过让人机互动走出二维电脑屏幕,我们在电脑上花的时间将变得更有收获和更有效率,同时也让身体更多地参与其中。
3.语音识别
除了利用鼠标和键盘操控电脑外,我们是否也可以利用语音做到这一点呢?答案是肯定的。利用语音识别技术打造界面的想法已经有几十年历史,很多软件产品都可以实现这一点。 Dragon NaturallySpeaking开发商、美国马萨诸塞州公司Nuance表示,其中很多软件的工作方式与直接根据录音打字的打字员类似——人们说话的速度大约是打字的3倍。
Dragon的速度大大超过速记,允许无法使用传统键盘和鼠标的残疾用户操控电脑。Dragon部门高级副总裁兼总经理彼得·马霍尼表示:“我们拥有一批核心用户,他们在任何时候都用语音控制自己的电脑。”
马霍尼列举了一些Dragon如何识别语音命令并加以执行的例子。例如,在使用微软Word的时候,用户可以说“下划线”,接到命令的Dragon就会照办。此外,用户还可以说标点(“逗号,新段落”)和菜单选项(“审阅,修订”)操控程序。
用户只需要说“搜索网络”便可启动一个在线浏览器,而后再利用相关语音命令打开希望浏览的链接。电子邮件等其他程序也可以通过简单的语音命令打开。马霍尼说:“语音界面非常灵活,它的用途可以说是无限的,远远超过鼠标等需要用身体控制的设备。”
4.眼动跟踪
使用电脑的时候,我们需要用鼠标控制指针移动,点击需要查看的文件或者运行程序,难道我们不能靠眼睛的凝视完成这些操作吗?答案显然也是肯定的。所谓的眼动跟踪技术依靠高清晰摄像头和肉眼无法看到的红外光源探测用户眼睛的动向,即他们的目光投向何处。实践证明,这项技术有助于进行科学研究和广告调研。但对于日常使用的台式机或者笔记本,眼动跟踪技术还主要针对残疾人并且价格很高。
一项名为“凝视-增强用户界面设计”的研究计划致力于研发针对普通大众的眼动跟踪技术。这项计划开发的软件EyePoint允许用户将双手放在键盘上,键盘输入方式经过改进,与操控鼠标类似。如果用户将目光盯住屏幕上的一个点,那个部分就会放大,用户随后按下键盘,命令程序开始进行。
斯坦福大学前研究员、在几年前带头研发EyePoint的马努·库马尔表示:“EyePoint试用者认为这种基于凝视的方式速度更快并且更易于操作,因为他们已经在盯住那个目标。”此外,EyePoint导致的手腕劳损在程度上也要远远低于鼠标,但凝视-点击的错误率却要稍高于指向-点击。库马尔说:“我坚决相信这项技术能够发展到最终取代鼠标的程度。”他同时指出,在大范围普及眼动跟踪技术的道路上,价格仍是一个{zd0}障碍。
5.脑-机界面
人脑与电脑合二为一是一种{zj2}合并,我们距离这{yt}的到来越来越近,其发展速度可能已经超出很多人的想象。但在拥有足够快的速度并且得到普及前,我们也仍有很长的一段路要走。所说的脑-机界面是将神经细胞的电脉冲转化成具体行动,并在电脑屏幕上呈现或者操控机械设备。
与语音识别技术一样,脑-机界面同样可以帮助伤残人士操控电脑,例如脑干中风或者肌萎缩性脊髓侧索硬化症(通常被称之为“路格里克氏病”)患者。过去10年时间里,脑-机界面已帮助无法移动身体的患者移动屏幕上的指针。在研发针对健康人群的商用脑-机界面道路上,一个长期公认的问题是从大脑获取较强并且较为清晰的信号需要植入电极,但电极容易引起感染、身体排斥反应并形成xx组织。相比之下,其他现有非侵入式大脑扫描技术——例如脑电图,将浴帽形状的电极置于头皮上——最近却大踏步前进。
在3月初于德国举行的国际信息及通讯技术博览会上,Guger科技公司展示了一款名为“Intendix”的设备。他们将其称之为“世界上{dy}个脑-机界面拼写系统”。使用时,电脑屏幕上会闪烁一个虚拟键盘,键盘上分布着数字和字母。系统通过分析用户的脑电图来确定所要输入的字符。当用户所想的字母在屏幕上亮起时,脑电波会出现一个波峰,Intendix 随即输入这个字符。
Guger表示,Intendix能够帮助伤残者或者病人与人交流。他们只需要短短几分钟时间就能掌握如何使用Intendix界面,每分钟可以输入5到10个字符。但对于健康人群的日常使用来说,这个速度显然太慢了。Intendix的另一个劣势便是价格,售价高达1.2万美元。在这条道路上,研究人员将继续研究所谓的“神经系统弥补术”,也就是与用户大脑连接并通过脑电波操控的设备。这种设备似乎可以为可能的台式机应用铺平道路。
毫无疑问,不管未来的人机界面将以何种面貌出现,鼠标这匹卑微而稳健的驮马似乎都已时日不多,它们的命运只能像昔日的马车一样,最终退出历史舞台。(杨孝文)