我们到底需要怎样的机器人?
发布时间:1970-01-01 08:00
发布者:[db:作者]
浏览次数:
940年,享誉全球的科幻小说作家艾萨克。阿西莫夫(Isaac Asimov)构思和酝酿了“机器人三定律”,于1941年5月至10月完成和发表的一系列短篇小说中,把“机器人三定律”公之于众:第一定律。机器人不得伤害人类个体、或者目睹人类个体遭遇危险却袖手旁观;第二定律。机器人必须服从人类给予它的命令,除非这一命令与第一定律相矛盾;第三定律。不违反第一定律和第二定律的前提下,机器人要尽可能的确保自己的生存。基于“机器人三定律”,艾萨克。阿西莫夫希望人类(即“碳文明”)和机器人(即“硅文明”)可以携手并进、共生共存。
尽管“机器人三定律”堪称机器人学的金科玉律,可它的局限性也显而易见,比如第一定律中,艾萨克。阿西莫夫强调了“人类个体”、却忽视了“人类整体”,因此,对于“机器人三定律”的修订和补充也陆陆续续的提了出来。艾伦人工智能研究所的首席执行官埃齐奥尼认为,于“机器人三定律”的基础上,还要增补“人工智能系统必须明确的表示它不是人类”、“未经允许,人工智能系统不能保留和披露机密信息”等等规则。不过,中国科技大学的陈小平教授说,修订和补充“机器人三定律”的意义和效用并不大,迫在眉睫的问题不是“原则”、而是“细节”,人类急需完善人工智能和智能机器人相关的伦理细节。
第一定律中,“机器人不得伤害人类个体”,那么“伤害”究竟是指什么呢?机器人对待某一人类个体的什么方式才称得上“伤害”呢?人们如何量化和标准化“伤害”、且准确的认定和排除“伤害”呢?若机器人对某一人类个体并未造成生理层面的损害,但这一人类个体因主观的厌恶和恐惧而出现了精神层面的问题,这是不是一种“伤害”呢?以上的问题仅仅是九牛一毛而已,还有数之不尽的问题需要细化和深究,更需要人们探讨和制定比较具体的规则来“防患于未然”,不能停留在“机器人三定律”的框架中。
美国人工智能伦理领域的知名学者泰格马克呼吁人们超越艾萨克。阿西莫夫的“机器人三定律”,商讨和确立新的人工智能伦理原则,确保人类的利益不受人工智能的损害、且人工智能与人类的发展目标一致。因此,泰格马克发起了“AI有益运动”,倡导人们把“有益于人类”树立为核心,围绕着这一核心而开创一套人工智能伦理体系,已故的物理学家斯蒂芬。霍金和多位著名科学家支持“AI有益运动”。泰格马克一再强调,AI人工智能在“乘数效应”的推动下会变得越来越强大,留给人类试错的时间和空间越来越小了。
为了呼应泰格马克,美国机器智能研究院的开创者尤德科夫斯基提出“友善人工智能”的理念,他号召人工智能领域的研发人员和科研机构把“友善”树立为核心,从人工智能的设计和开发之初,就把“友善”植入智能系统中,这样的话,“友善”就成了人工智能伦理的基础和宗旨了。
陈小平教授认为,现阶段的人工智能和智能机器人并无重大的隐患和风险,短期之内,只有网络用户个人隐私安全和相关技术滥用等等问题急需管控和防范,但从长远的角度来说,崭新和完善的人工智能伦理体系必须尽快的确立和落实,绝不能出了严重的问题之后再“亡羊补牢”,毕竟一些犯错的代价是人类无法承受的。