还在嘴硬!20多国围攻美国 重创特朗普

新闻出处:新闻来源于
作者:
2019-03-30 11:38:51

进入21世纪后,全世界的军事专家和研究人员一直在争论一个被称为“终结者”的严重问题。原因是,由于深度学习所反映出的AI的飞跃式进步,可识别敌我并能判断是否发动攻击的杀手机器人武器登场亮相,使“终结者”问题具有现实性。

根据人类多大程度参与从识别到攻击的决定,杀手机器人可以分为3类。一类是完全由人类决定、由人远程操作的无人机。具体来说,美国MQ-1“捕食者”侦察机就是典型代表。第二类是机器人可以自己判断,但中途人类可以中断或取消的半自主型。以色列的“哈比”自杀式无人机就是这种类型。这两类都已经实战部署。被视为“终结者”问题的是第三类,它是人类完全不参与决策过程的自主型杀手机器人。

关于自主型杀手机器人,其风险包括:程序错误等原因导致误伤、扩散至恐怖分子手中、自主判断做出人类意想不到的敌对行为、决定攻击作战时抑制力下降等。

推进派的专家们则主张,自主型杀手机器人“可以减少被愤怒和恐怖驱使的不必要的杀伤”“可以降低己方军队士兵的被杀伤率”“可以维持本国的军事优势”“成功量产能削减军费”等。

然而,我们真的能够允许将杀伤人类的判断交给不能承担责任的AI吗?