再次,每个杀手机器人配有3克浓缩炸药,确定目标后,一次撞击可以毫无压力爆头,摧毁整个大脑。而且它还能穿透建筑物、汽车、火车,躲避人类子弹,应对几乎所有防御手段。总之,这个杀手机器人目前是bug般的存在!
如果把一个造价仅2500万美元的杀人机器蜂群释放出去,就可以杀死半个城市的人。只要你把敌人挑出来,定义每一个人的面部信息,蜂群就能发起针对性打击了!试想,如果人工智能杀手,再运用上基因武器,就会把战争冲突升级至前所未有的规模,而且人类将很难控制住局面。
更可怕的是,如果有科学家因为私心在代码里面加了一行毁灭人类的指令,或者人工智能突然变异成反人类的品种,整个人类或将被机器人的基因武器横扫,甚至灭亡!
今天,当我们回头看看霍金当年对人工智能和生物科学的语言,会为这位科学巨匠的远见所折服。霍金生前最大的忧虑,也许却被世人所遗忘。那就是:人工智能是人类真正的终结者,彻底开发人工智能可能导致人类灭亡!霍金一直在苦口婆心地劝说着:
人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。因此,人工智能的成功有可能是人类文明史上最大的事件。