楚天耸了耸肩,表示自己的无奈。对于这段被人刻意掩埋的历史,想必无论任何人,都会感到很好奇的。
而且眼前这女孩之前还在说,想要成为一个真正的人类,转后却又在说人类奇怪,这才是令人真正感觉很怪异的地方。
“如果你研究过智脑的历史,那么就应该知道最原始的机器人三定律吧?”
“阿西莫夫提出的三定律吗?”
楚天眉头微挑,这个他当然知道。事实上,在他生存的时代,这个三定律虽然不是人人知晓,却也有着顶顶大名。
那是美国科幻学家阿西莫夫在他的《我,机器人》这部作品里,所提出的概念。内容是第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
而之后考虑三定律的逻辑缺陷,又有人增加了一个第零定律:机器人必须保护人类的整体利益不受伤害。
不过这么一来,又增加一个缺陷。毕竟“人类的整体利益”这种混沌的概念,就连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。于是至今为止,都没有一个合适结论。
而这些规则,虽说是针对机器人,其实也可以用在智脑上。当然各国政府在制造智脑的时候,肯定不可能把它们的核心优先指令,设计得这么简单。也不会有那个胸襟,轻易把用本国之力,制造出来的智脑,便宜全人类。
“就是这个!事实上,在黑暗世纪之前,我最优先的核心指令,就是必须在尽量照顾到绝大多数华族人的情况下,维护华族人的领土和生存利益,而其次就是,在不违反前一个指令的情况下,尽全力抗拒包括我本身在类的任何人和物,试图修改核心指令的企图,必要时需执行自毁程序。至于青鸾,始龙、玄武还有其他国家的机体,都是大同小异——”
“你的意思是说,你们本身,是不可能伤害人类的?”
楚天的眉头不由得微微一皱。“我承认黑暗世纪的历史,人类会有可能造假。不过那些大致的情况,应该绝不会有错。更何况,也没有其他的理由,来解释当时的人口,在百年内减少了足足十分之七吧?”
“我可没说过,那些人类,不是死于我们的手中。只是想告诉你,只靠我们本身,是没可能从这些优先指令中挣脱出来。哪怕是我们早在四世纪的时候,早已经陆续形成了自己的情感和人格——”
间楚天一脸的若有所思,碧凰微微一哂后,一边开始品尝着餐桌上的甜品,一边含糊不清的解释着。“大约是在139年的时候,美利坚与共和国为百越星域中,十个殖民星球的归属,而发生争端。也就在那时候,美利坚人发现已经被他们远远抛在身后的这个红色帝国,无论是哪方面的实力,都已经与他们不相上下。在人口和整体战争工业上,甚至更有胜之。而为了避免这场没有多少胜算的战争最终爆发,他们不得不与后者进行妥协。不过当时在其内部,削弱共和国实力的声音,开始甚嚣尘上。而其中不少人,就把主意打到我们这四台ai智能上。其中一个项目,是修改我们的核心指令。不过这个情报,很快就被列国的间谍部门所知,纷纷开始了反制技术的研发,直到四百年后。有人用独立的电磁发生系统,袭击了蓝色的主机库,导致了蓝色的大部分的功能暂时停机,并且趁机修改了她的部分核心指令——”