机器人三定律标准,详细解答
天纵君(SKYLABS)与大家一样经常在科幻电影中看到机器人的三定律。这个大名鼎鼎的机器人三定律有多个表述,但它的源头是在1942年阿西莫夫在短篇小说"Runaround"(《环舞》)中首次提出的,其具体如下:
一、机器人不得伤害人类,或因不作为使人类受到伤害。
二、除非违背第一定律,机器人必须服从人类的命令。
三、除非违背第一及第二定律,机器人必须保护自己。
后来,阿西莫夫又加入了一条新定律:第零定律。
零、机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
在阿西莫夫提出的机器人三定律,其设想是植入到所有机器人软件的底层里,三定律作为不可修改不可忽视的规定,作为机器人与人类关系的一个规则而存在。但是显然这不是一个物理定律也不是一个真实的规章,所以现实中的机器人并不遵守——至少还是暂时如此。
在现实生活中有没有机器人和人类社会的标准规则了?最近天纵君还真发现了一份这样的标准,它就是英国标准协会(BSI)编写的BS 8611:2016。这个标准名称我们翻译过来应该是《机器人和机器人系统的道德设计和应用指南》。
BS 8611的宗旨是为识别日常生活中使用的越来越多的机器人和自治系统引起的潜在道德伤害提供指导。该标准提供了额外的指导方针,以消除或降低与这些道德风险相关的风险,达到可接受的水平。该标准涵盖了机器人设计和应用的安全设计,保护措施和信息。
BS 8611:2016标准是由科学家,学者,伦理学家,哲学家和用户共同所撰写的。这份标准文档定义了一些宽泛的道德准则,例如机器人的设计不应该以杀害或者伤害人类为唯一或首要目的;责任人应该是人类而非机器人;任何机器人都应该有负责人,而这个人应该为机器人的行为负责。此外,该标准还提到了一些有争议的话题,例如,人类是否应该与机器人建立感情联系,特别是那些与儿童或老人交互的机器人。
总的看来,这是一个类似阿西莫夫三定律的标准,它是真实世界中第一次去尝试定义了机器人和人类社会行为关系的文件,并第一次定义了“机器人的道德”问题。这个问题现在说起来是绕口而陌生的,但在科技高速发展的今天,它在多年后天纵君相信它必然会成为一个真实的社会问题而存在着。