【科普】阿西莫夫和机器人三大法则(6)

欢迎关注我的专栏( つ•̀ω•́)つ【人工智能通识】
进这里点赞,助力申请【人工智能通识】小岛ヾ(≧∇≦感謝≧∇≦)ノ


在现实中的机器人是否也应该真的遵守阿西莫夫三大法则?

波士顿动力学公司的人形机器人

在提及机器人三大法则时,阿西莫夫曾表示这其实只是对那些显而易见的规则进行的总结,无论是机器人还是其他工具,人们总是会遵循这些原则:

  • 法则1:工具必须使用安全(A tool must not be unsafe to use)。这就像锤子和螺丝刀都有把手也便于手握。但是工具也可能造成伤害,但是这一定是由于人类错误的使用方式造成的,而不是工具的设计造成的。
  • 法则2:工具必须能有效地实现功能,除非会伤害用户(A tool must perform its function efficiently unless this would harm the user)。例如很多电器中设置的漏电保护和接地保护,在人体触电的时候尽可能自动切断电源避免造成严重伤害。
  • 法则3:工具必须在使用过程中保持完整,除非需要被拆毁或者可能造成伤害(A tool must remain intact during its use unless its destruction is required for its use or for safety.)

从工具这个角度出发,阿西莫夫认为理想情况下人类也应该遵循相应的法则:

“如果有人问我,如果你用机器人三法则来约束和控制机器人,那么一旦机器人足够聪明并且能够从多种可能中自主选择行为了,又会怎样?我的回答是,这些法则是理性人类对于机器人或者什么其他东西唯一能做的约束。但当我这么说的时候,我也很清楚人类不是一直能够保持理性的。”

从这里可以领悟到,机器人三大法则其实是阿西莫夫对工具和人类的基本行为准则的最简要抽象和概括。它既适用于任何工具、机器人,也适用于人类自身。

EPSRC

在2011年,英国工程和自然科学研究委员会EPSRC( Engineering and Physical Sciences Research Council )和大不列颠艺术与人文研究委员共同发布了机器人设计与建造五原则:

  1. 机器人不能设计主要用于杀害或损伤人类。Robots should not be designed solely or primarily to kill or harm humans.
  2. 人类,非机器人,是可承担责任的个体;机器人是用来实现人类目标的工具。Humans, not robots, are responsible agents. Robots are tools designed to achieve human goals.
  3. 机器人应设计的安全无害。Robots should be designed in ways that assure their safety and security.
  4. 机器人是人工的,它们不能被设计的带有情感,它应该与人类有所分别。Robots are artifacts; they should not be designed to exploit vulnerable users by evoking an emotional response or dependency. It should always be possible to tell a robot from a human.
  5. 永远要有人对机器人负法律责任。It should always be possible to find out who is legally responsible for a robot.
萨蒂亚·纳德拉Satya Nadella

在2016年,微软CEO萨蒂亚·纳德拉简要的提出了人工智能AI设计六原则:

  1. A.I. must be designed to assist humanity。人工智能必须协助人类,即人类自主权必须被尊重。
  2. A.I. must be transparent。人工智能必须透明,即人类必须能够理解它们是怎么工作的。
  3. A.I. must maximize efficiencies without destroying the dignity of people。人工智能必须在不损害人类尊严的条件下最大化工作效率。
  4. A.I. must be designed for intelligent privacy。人工智能必须保护人类的隐私。
  5. A.I. must have algorithmic accountability so that humans can undo unintended harm。人工智能必须有问责算法,以便于人类能够撤销无意识的损害。
  6. A.I. must guard against bias。人工智能必须预防偏见,不能歧视某些人类。

此外,机器人物理学家马克·蒂尔登Mark Tilden也提出了他的机器人三原则,实际上这更像是“野生机器人法则”:

  1. A robot must protect its existence at all costs.机器人应该不惜一切代价保护自身。
  2. A robot must obtain and maintain access to its own power source.机器人必须获得或接近自己的能源。
  3. A robot must continually search for better power sources.机器人必须不断努力寻找更好的能源。

下一篇阿西莫夫和机器人三大法则(7)

<未完待续>


进这里点赞,助力申请【人工智能通识】小岛ヾ(≧∇≦感謝≧∇≦)ノ
欢迎关注我的专栏( つ•̀ω•́)つ【人工智能通识】


每个人的智能新时代

如果您发现文章错误,请不吝留言指正;
如果您觉得有用,请点喜欢;
如果您觉得很有用,欢迎转载~


END

你可能感兴趣的:(【科普】阿西莫夫和机器人三大法则(6))