英国英国标准协会(简称
BSI)标准BS8611的目标——《机器人和机器系统的伦理设计和应用指南》中提到“机器需要讲道德”。该标准主要针对机器人设计研究者和制造商,指导他们评估机器人的道德能否融入人类社会。

实际上,机器人伦理,面露着许多严肃和艰巨的挑战,甚至可能动摇人类文明的根基。当远超于人类能力的机器有了类似人的情感,如何能确保人类的主导地位?他们变坏怎么办?

在现实世界中,“机器变坏”的忧虑仍然存在。今年3月,微软公司上线了一款叫“泰”的聊天机器人,几小时后又被迫将它下线。原因是“泰”不断爆出种族歧视、性别歧视之语。

据了解,“泰”的聊天才能来自深度学习技术。这项技术不再通过编写程序,让机器按照某种既定方式完成任务。面对问题,机器将通过模拟高达数十万次不同的解决方式,自己探索出成功策略。

这需要海量数据的支撑,很多数据来自用户,更多来自整个互联网。而这些数据既包含着道德上“对”的,也有“不对”的。“泰”的雷人之语,就是从和他聊天的坏家伙那里学来的。

这让人不禁思考:机器学习人的智慧做得比人;当他们开始学习人性中的恶时,我们将面对一个怎样的未来呢?

相对于可能发生的噩梦,离我们更近的麻烦,可能是人工智能对善恶标准带来的挑战。当机器以人的形态越来越融入人类社会,人类社会道德概念的外延被扩宽了。

科幻作家艾萨克·阿西莫夫在自己的科幻小说《我,机器人》里讨论了数个更加复杂的机器人伦理问题。女主人公达尔文博士依靠机器人三定律屡破困局:

机器人不得伤害人,也不得见人受伤害而袖手旁观;

机器人必须服从人的一切命令,但不得违反定律;

机器人应保护自身的安全,但不得违反、第二定律。

这三条定律被确定在机器人的逻辑电路中,容不得一点修改。而在现实世界中,这三条小说的产物也已经在人工智能的实际研究中被应用。

此次的《机器人和机器系统的伦理设计和应用指南》,是在技术发展的新时代,对三定律更详细的延伸。这项指南究竟能不能发挥效用还待观察。比如,它建议设计者增强机器工作的透明性。但科学家们觉得太悬了——深度学习系统作出决策的过程太复杂,有时候连系统的设计者都难以理解。