机器人道德危机背后的深层剖析

电影《机械公敌》中描绘的是2035年人类所处机器人的时代!”这不仅仅指那些已经高度发达的机械化大生产,充满成熟科技的生活用品和家用电器,机器人已经渗透入人类生活的智能机器人。作为最好的生产工具和人类伙伴,机器人开始在各个领域扮演着日益重要的角色,而由于众所周知的“机器人三原则”的限制,人类对这些能够胜任各种工作且毫无怨言的伙伴充满信任,它们中的很多甚至已经成为了一个家庭的组成成分。芝加哥警探戴尔.史普纳一直对机器人充满怀疑,他不相信人类与机器人能够和谐共处,而这种疑问终于因为一起凶杀事件而坚定:美国机器人研究中心的总工程师阿尔弗莱德.蓝宁博士被杀,而受到怀疑的就包括一名他自己研制的NS-5型高级机器人。上级派戴尔负责前往调查这宗案子,经过周密的调查和分析,他发现机器人研究中心的负责人行迹可疑,而最后从研究中心泄露出秘密更加惊人:似乎已经有部分机器人开始不受控制了。机器人研究中心为NS-5型高级机器人设计了控制程序,但随着机器人运算能力的不断提高,他们已经学会了独立思考,并且自己解开了控制密码,现在,它们已经是完全独立的群体,一个和人类并存的高智商机械群体,同时它们也随时会转化成整个人类的“机械公敌”。这部电影是描述机器人道德的一部电影,

机器人道德危机背后的深层剖析_第1张图片
《机械公敌》电影片段

虽然机器人时代距离我们依旧遥远,但道德问题依然是我们值得关注和研究的。在《机器人伦理的进路及其内涵》一文中强调机器人伦理研究所运用的是交叉学科的方法,其主要方向是在机器人学等工程技术层面对机器人的伦理、法律与社会层面的概念进行解读,使这些概念可以通过技术系统在工程上得以实现。人工智能与机器人道德研究与实践已经在建立一个双向的体系。一方面是以人为责任主体的机器人伦理;另一方面是人工道德与伦理的构建,试图将机器设计为一种内置伦理规范与伦理学习及实践能力的人工道德能动者。由此可知机器人伦理道德问题是相当复杂的,需要机器人科学技术与哲学思维的相互结合、共同努力。伦理学家不仅需要本学科的专业知识,还要熟悉决策论、博弈论等领域的理论,思考这些理论的哲学前提,加强对人工智能的人文考量。机器人道德这一新兴领域的少数专家正在试图解决上述问题。来自计算机领域的科学家正在与哲学家、心理学家、语言学家、律师、神学家以及人权专家一道,对机器人可能遇到的决策点进行识别,以便让机器人可以模仿人类判断对错的思考过程。

将机器人伦理道德问题提升至哲学高度,可能是基于信任危机,由信任危机引发道德危机。正如《机械公敌》中警探戴尔.史普纳对机器人的不信任,可能是人类对人工智能机器人不信任感的隐喻,而我们所熟知的“机器人三原则”

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

真的能框住拥有独立思考能力的机器人吗?机器人的思维为什么要服从“机器人三原则”呢?机器人也会想人类就不能有三原则吗?机器人就不能统治人类吗?

当然这些问题都是基于对机器人的不信任而产生的道德思考,信任危机是一个恶性循环的过程,因为机器人的意识是人类给予的,如果人类本身充满恶念,难道还指望所创造出来的机器人对人类社会充满爱意吗?由此可知道德危机的背后仍然是人类自身的信任危机。

真的能框住拥有独立思考能力的机器人吗?机器人的思维为什么要服从“机器人三原则”呢?机器人也会想人类就不能有三原则吗?机器人就不能统治人类吗?

当然这些问题都是基于对机器人的不信任而产生的道德思考,信任危机是一个恶性循环的过程,因为机器人的意识是人类给予的,如果人类本身充满恶念,难道还指望所创造出来的机器人对人类社会充满爱意吗?由此可知道德

你可能感兴趣的:(机器人道德危机背后的深层剖析)