如果一旦机器人有了尊严,会不会为了尊严向人类发动战争呢?
“会呀!一定会的!”姜岳升竟然脱口喊出了声。
想到这儿!他惊出了一身冷汗!
在有了一些思路和疑问之后,他决定带着问题找组长再深入地沟通一下。
“组长,你说机器人有了荣辱感会不会反噬人类呢?”
“嗯……会的……嗯……我们也考虑过这个问题……所以要对机器人的荣辱观进行一个简化,让机器人只针对特定任务有荣辱观就可以。也就是说,我们在程序里把荣辱的逻辑写死,只跟特定的任务建立关联就可以。让机器人以任务为中心,而不是以自我为中心。只要不让机器人有自我的观念,应该不会出大问题。”
“哦……这还差不多……我再好好想一想。”本来想与组长长谈的姜岳升,被组长几句话就打消了顾虑。
他心想,如果只跟特定任务关联就容易多了,应该也不会出现机器人反噬人类的情况。
“会不会有人故意赋予机器人荣辱观呢?”姜岳升突然想到了会有一些反社会的人。
“当然会,但是这个社会也不能因为有人用刀杀人,就把刀具全部没收呀。道德和法律不能约束所有人,更不能为了道德和法律放弃生存和发展,因为生存和发展是压倒一切的。”
“嗯嗯……”姜岳升觉得组长说得有道理,“我再好好想想。”
“嗯,确实需要好好想想,你也可以查阅一下有关人工智能的法律条文,只要不违法就可以。”
“组长,现在有关于机器人耻辱与尊严的任务清单吗?”
“还没有,你可以假设一个任务清单,或者给任务模块留一个接口就行,这样以后可以单独处理任务模块了。”
“哦……”姜岳升大概明白了组长的意思,这样独立开发的模块扩展性更好。
他回去后,便开始构思耻辱感的核心要素。
其实人的耻辱感是很广泛的,有时候说话的语气、眼神等肢体动作都能引起对方的耻辱感,从而诱发反感。但是他并不需要把人类如此复杂的耻辱感赋予机器人,而且法律也不允许。
按照组长的要求,在机器人达不到任务的要求时,能触发耻辱感就可以,所以决定耻辱感的是任务的级别和与任务目标的差距。只要确定两组参数来标定任务级别和与目标的差距,再通过数学公式把任务级别与目标差距关联起来,就可以把耻辱感量化了。
尊严和荣耀无非是反过来,可以用任务的级别和超越目标的多少来衡量。任务级别越高、超越目标的幅度越大,荣耀感就越强,就越有尊严。
至于像人类这样,通过互相比较来产生的荣耀感是万万不能赋予机器人的,否则机器也会像人类一样,互相攀比、互相嫉妒、甚至互相残杀。