为什么要制定机器人三大定律定律等定律呢?机器人和人一样有了思维和感情后不就和人差不多了吗?机器人也可以有

  70 年前,阿西莫夫提出他著名的机器人三定律,来保证机器人会友善待人。虽然最早提出时这只是个文学手法,但是有些人认为这些定律是现成的方案,能挽救我们免于机器末日。那么,阿西莫夫的安保措施成功经历了时间的考验吗?专家的回答是,没有。


伊萨克·阿西莫夫(),20 世纪最有影响力的科幻作家之一。图片来源:

  1942 年,阿西莫夫在短篇小说"Runaround"(《环舞》)中首次提出了三定律:

一机器人不得伤害人类,或因不作为使人类受到伤害。

二除非违背第一定律,机器人必须服从人类的命令。

三除非违背第一及第二定律,机器人必须保护自己。

  但后来,阿西莫夫加入了一条新定律:第零定律。

零机器人不得伤害人类整体,或因不作为使人类整体受到伤害。

  阿西莫夫的科幻设定里,机器人三定律是植入到近乎所有机器人软件底层里,不可修改不可忽视的规定,绝不仅仅是“建议”或者“规章”。但是显然这不是一个物理定律,所以现实中的机器人并不遵守——至少暂时如此。


在《环舞》里,负责水星开矿任务的机器人在第二和第三定律的冲突中陷入“焦虑”,开始不停地绕圈子。图片来源:

  正如阿西莫夫许多小说里显示的,这三条定律的缺陷、漏洞和模糊之处不可避免会导致一些奇怪的机器人行为。比方说,这三条定律连何为“人”、何为“机器人”都没有良好定义。而且,如果机器人获取的信息不完整,它们完全可以无意中打破定律。更何况,你要怎么阻止一个智力超群的机器人自己把定律改掉呢?

  因此,很多人都认为这只是单纯的推动剧情用的写作手法而已。但是,1981 年,阿西莫夫本人在“Compute!”里说:

  “……有人问,我是不是觉得我的三定律真的可以用来规范机器人的行为——等到机器人的灵活自主程度足以在不同的行为方式中选择一种的时候。我的答案是,‘是的,三定律是理性人类对待机器人(或者任何别的东西)的唯一方式’。”

  好吧,三十年过去了,我们的机器人——准确地说,是操纵机器人的人工智能——真的在逼近阿西莫夫所说的那一天。事实上,人工智能恐怕再过一段时间就要抵达技术奇点,发生爆炸式增长,彻底把人类智能甩在后面。

  而如果这样一个超级智能的程序编得不够好,或者它不在乎人类的需求,那么对我们而言就是彻头彻尾的灾难。我们必须保证它是安全的。

  那么,阿西莫夫三定律可以帮我们吗?我们采访了两位人工智能理论研究者:本·格策尔(Ben Goertzel ),艾迪亚金融预测公司首席科学家;路易·海尔姆(Louie Helm),机器智能研究所代理主任。他们的观点是,阿西莫夫三定律完全不能胜任——而如果我们想保证超级智能的安全,我们需要一些全然不同的东西。

  “我认为阿西莫夫预想的机器人过不了多久就会实现”,格策尔说,“但是在他大部分小说里,看起来人类级别的机器人好像就是机器人学和 AI 工程的顶峰了。事实看起来并非如此。在抵达阿西莫夫式类人机器人之后,很快超人 AI 也会成为可能。”

  典型的阿西莫夫未来里,大部分生活都如常——只不过多了些人形智能机器人走来走去而已。“但这种未来不太可能实现——或者就算是它实现了,也只会存在很短的时间,”他说。


电影《我,机器人》就是根据阿西莫夫的同名小说集改编的,机器人三定律是其核心。图片来源:popculture-

  他总结了三定律的几处缺陷:

  • 基于有缺陷的伦理框架(义务伦理)
  • 哪怕在科幻文学里也会出问题

  格策尔表示赞同。“设立三定律的目的就是以有趣的方式出问题,这也正是为何围绕它们的小说如此有趣,”他说,“所以三定律只在这个意义上有指导作用:它告诉我们,用具体的定律来规范道德伦理是必定行不通的。”三定律在现实中完全无法运作,因为其中的术语太模糊,受制于主管解释。

  三定律的另一个侧面是显而易见的基质沙文主义——按照定律,就因为机器人的躯体是硅做的,不是血肉之躯,他们就必须遵从人类的需求,不管他们有多么强大的能力也没用。

  “百分之百,”格策尔说,“阿西莫夫的未来社会是光天化日的基质沙文主义,人类拥有的权利比人形机器人的权利更多。三定律的目的就是维持这种社会秩序。”


但是,如果真的出现了和人类一样聪明一样可爱一样有能力自主决策的机器人,我们还应该因为他们是“人造”的而不给他们平等权利吗?图片来源:

  海尔姆的视角略有不同,他认为,如果我们真的身处这样的场景,那我们已经走得太远了。

  “我认为设计有意识、有自我觉知的人工智能或机器人,本身就是很不明智的,”海尔姆说,“而且,虽然那些电影小说里 AI 研究者常常‘不小心’就搞出了有意识的人工智能,我认为这在现实中不可能发生。人们不可能纯靠好运碰上意识,需要大量的努力和知识才行。而且大部分 AI 研究者都是遵循伦理的人,他们会避免创造出哲学家所谓‘有道德意义的存在体’。毕竟,他们完全可以创造出不具有内在道德问题的高阶思考机器嘛。”

  因此,关于设计不对称定律、管理机器人价值的问题,海尔姆并不太在意。他认为未来的 AI 研究者只需少许道德约束即可。

  “话虽如此,我认为人类也是原子组成的,所以理论上也可以人工合成一种生命形态或者机器人,让它拥有道德意义,”海尔姆说,“我希望没人会真的这么做,大部分人应该也不会做。但恐怕不可避免地,总会有些好炫耀的傻瓜为了追名逐利而第一个做些什么事情——任何事情——哪怕是如此不道德、如此愚蠢的事情。”

  “当一群聪明的原始人发明语言的时候,他们是等到一套成熟的语言形式理论出现、用它预测了语言引入社会后的未来影响,然后才动手的吗?”

  这一点上两位受访者又取得了一致。海尔姆所在的机器智能研究所花了很长时间考虑这件事情——简短的答案是,这还不是个工程学问题。需要更多研究。

  “这么说是什么意思?我在机器智能研究所的同事卢克·穆豪森总结得很好。他说,问题总是从哲学领域移到数学领域再到工程领域,”海尔姆说,“哲学提出有意义的问题,但这些问题常常太不精确,没人能知道一个新答案是否意味着我们又进了一步。但如果我们能把重要的哲学问题——智能,本体,价值——复述成足够精确的数学,要么对要么错;接下来就可以建立模型,在此基础上成功扩展,总有一天能够用作真实世界的工程目的。”

  海尔姆说,这是科学和哲学里的一个真正难题,但是进步依然是可能的:“我怀疑哲学能不能只靠自己解决它,毕竟过去三千年里它似乎没有什么特别显著的进展。但是我们也不能凭现有这点粗浅的了解就去编程。我们还需要大量的理论研究。”

}

???é??é?¨??????????????°???“è???????????è??????????¨???è??è???¤???????????????????????????????????????¤????????????é???????¤???”è§???????è???±??????¨è???????°“è???¤??????¨??????????°?é??é???????§è??è??????¤?è????¨???è????????????????¨è???????§?????¨???”

????????¨??????????????????????????????è?¨è?????è????????????§???????è?????è?????è?????????¨????????°¤??????——???????????¨???è??????????¨???

?????????è???????????è§?????????????“????±????é???????¨?????????è???????????è??????????¨??????è??è??????????????é??é???????°è????????é???????????è§????????????????????????????é???§??????¨??????è????±??????”

“è????????é????·è§????é????????è??????????????è§????è??è??????¤????”???è?????“é????·è§??????????????????????è§?è§????????????¨é??????????¨???è·?è?????é????·è§???????????????????”

}

我要回帖

更多关于 机器人三定律 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信