日本《东洋经济》周刊3月2日发布的题为《美国开始在AI军事利用上动真格》的文章,现将原文编译如下:
美国总统特朗普2月11日签署总统令,命令联邦政府加强人工智能技术(AI)开发。次日,五角大楼发布首份《人工智能战略概要》报告,提出了加速在军事领域引入AI的方针。
特朗普发布的总统令主要是以民间产业领域为对象,但他署名时发表声明称:“美国在AI领域保持领先地位,对于经济和国家安全非常重要。”也就是说,特朗普也寻求AI在军事层面的优势地位。
《人工智能战略概要》则更加直接,点名批评俄罗斯等国在AI军事利用方面投入巨额资金,抢夺了美国的技术优势,动摇了国际秩序。报告提出,要扩充2018年在国防部内部新设的“AI中心”,加强与民间企业、学术机构以及盟国的合作。
进入21世纪后,全世界的军事专家和研究人员一直在争论一个被称为“终结者”的严重问题。原因是,由于深度学习所反映出的AI的飞跃式进步,可识别敌我并能判断是否发动攻击的杀手机器人武器登场亮相,使“终结者”问题具有现实性。
图为美军使用的无人机
根据人类多大程度参与从识别到攻击的决定,杀手机器人可以分为3类。一类是完全由人类决定、由人远程操作的无人机。具体来说,美国MQ-1“捕食者”侦察机就是典型代表。第二类是机器人可以自己判断,但中途人类可以中断或取消的半自主型。以色列的“哈比”自杀式无人机就是这种类型。这两类都已经实战部署。被视为“终结者”问题的是第三类,它是人类完全不参与决策过程的自主型杀手机器人。
关于自主型杀手机器人,其风险包括:程序错误等原因导致误伤、扩散至恐怖分子手中、自主判断做出人类意想不到的敌对行为、决定攻击作战时抑制力下降等。
推进派的专家们则主张,自主型杀手机器人“可以减少被愤怒和恐怖驱使的不必要的杀伤”“可以降低己方军队士兵的被杀伤率”“可以维持本国的军事优势”“成功量产能削减军费”等。
然而,我们真的能够允许将杀伤人类的判断交给不能承担责任的AI吗?
关于自主型杀手机器人,日本外相河野太郎在去年11月众议院外务委员会上明确表示,“日本采取应该禁止的立场”“没有开发的意向”。然而,在联合国专家会议等场合上,日本的主张极其微弱。
美国国防部的立场是“让人类参与判断”。美国为了维持本国在这个领域的优势,不同意采取限制措施。有专家甚至预测,在不久的将来,全世界都会拥有自主型杀手机器人。
对于所有国家的领导人来说,不论大国、小国,自主型杀手机器人的“优点”是极具诱惑力的。对奉行“本国优先”、重视计算得失的特朗普来说,尤其如此。
如果再加上对其他国家先行拥有的恐惧,关于伦理是否正确的问题很可能不再是考虑对象。这些情况都在支持“不久全世界都拥有”的预测。
有观点认为,AI不会出现在前线,而是越来越多地被用在司令部启动、策划和执行作战的过程中。因此,不同于人类与机器人关系的3种分类方式,AI军事化的新类型可能率先成为现实——不进行个别的杀伤判断,以己方士兵损害最小化和敌方损害最大化为目的、针对整个战斗做出判断的“AI参谋”。
要想阻止和推翻噩梦般的预测,需要国际性的舆论合力,但各国军方仍在暗处激烈地进行开发竞争。
与瞬间造成大规模破坏和大量军民死亡的核武器那种大规模杀戮武器不同,不身处战场的普通人可能无法实际感受到杀手机器人的反人道性。
然而,在这个问题上,美国领导人很难自己踩刹车,几乎已经不可能回头。从特朗普签署的总统令可以读出这样的信息:为对抗中俄,世界上最大的军事强国必须正面参与开发竞争。