返回望京网首页
泺喜机器人 泺喜机器人 [收录]
咨询电话: 13810888037
返回上一页
点击 这里 查看更多 新闻动态 信息
【泺喜机器人】机器人三原则的起源与发展
最后更新:2012-12-12 18:59 阅读:112014 次
【泺喜机器人】机器人三原则的起源与发展

一、机器人三原则的起源
        科学技术的进步很可能引发一些人类不希望出现的问题。为了保护人类,早在1940年科幻作家阿西莫夫就提出了“机器人三原则”,阿西莫夫也因此获得“机器人学之父”的桂冠!
二、机器人三原则
      第一条:机器人不得危害人类。此外,不可因为疏忽危险的存在而使人类受害。
      第二条:机器人必须服从人类的命令,但命令违反第一条内容时,则不在此限。   
       第三条:在不违反第一条和第二条的情况下,机器人必须保护自己。      
The Three Laws of Robotics:   
1.A robot may not injure a human being, or, through inaction, allow a human being to come to harm.   
2.A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.   
       3.A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

三、机器人三原则的发展

       【弊端】 机器人三原则理论提出的半个世纪以来,不断的被科幻作家和导演使用。但有趣的是,凡是出现三原则的电影和小说里,机器人几乎都违反了本条例。其中主要的一点就是机器人对“

人类”这个词的定义不明确,或者是更改人类的定义。比如某个极端主义者,像3K党有反对黑人倾向这样的组织,利用电脑病毒等手段,把机器人对人类的定义是:“只有白人是人类。”这样,机器人

很有可能成为种族屠杀的工具。   
因此,完善原则。增加以下:   
第四条:不论何种情形。人类为地球所居住的会说话、会行走、会摆动四肢的类人体。 
       第五条:接受的命令仅只能接受合理合法的指令。不接受伤害人类及各类破坏人类体系的命令。如杀人、放火、抢劫、组建机器人部队等。   

第六条:不接受罪犯(不论是机器人罪犯还是人类罪犯)指令。罪犯企图使机器人强行接受。可以执行自卫或协助警方逮捕。

联系人:刘老师
电  话:010-84786861 
官  网:www.luxerobot.com

泺喜机器人地址:北京市朝阳区望京六佰本商业中心北区二层B20
  已在线累计:0 人
Copyright 2011 All Rights Reserved 版权所:泺喜机器人 望京网 发布者 0