情感毕竟没有像人类那样的神经系统,它们也只是根据既定的软件程序来理解人们的感受,表达自己的情绪。这样的在技术涉及上存在着严重的缺陷:随着能感知人们情绪变化的能力越来越强,其软件设计的复杂程度也就随之增加,这最终会使的内部程序变得异常复杂,反过来会严重影响软件运转的稳定性能。
克服这一技术缺陷的方法之一就是让根据它们所处的环境不断学习,建立起它们自己的一套规则。这将迫使机器人研究人员从“阿西莫夫机器人三定律”中解放出来。这些定律的存在无疑使机器人的软件设计变得极其复杂,因为在设计程序时,遇到的每一个新情况都必须充分考虑这三条定律。事实上,一个的智力应该随着年龄的增长而增加,不断学习,就像一个婴儿经过青年到成年一样,而不是在一开始的时候就把“道德模式”灌输进去。
抛弃阿西莫夫定律对制造者来说将会是一个痛苦的抉择和巨大的难题,尤其是对那些开发为国防安全服务的的研究人员来说。但是,桥本非常坚持他的信念:“只要我们遵从阿西莫夫定律,我们将永远不能制造人类伙伴式的机器人。”然而,如果我们抛弃阿西莫夫定律,机器人有了情感之后会不会厌恶人类对它们的“奴役”,从而举起造反的大旗?
为了防止人类“虐待”,并防止机器人“造反”,韩国当局正草拟一份“机器人道德宪章”。这份“机器人道德宪章”将规定机器人用户和制造商应该遵循的道德准则,其主要内容包括:确保人类对机器人的控制,保护机器人获得的数据,防止违法使用机器人等。宪章将在2007年底正式公布。卡纳梅罗博士在她们的公开网站上写着一句话:“我们不能阻止不可避免的事情发生,但至少我们可以让能够明白,我们{jd1}不喜欢它们强大而有力的铁爪子掐着我们脖子的那种感觉。”
其他信息:
|