近日,在英国皇家航空学会主办的一次未来空战主题会议上,美国空军“人工智能测试与行动计划”负责人汉密尔顿描述的一个例子引发热议。这个例子的大体内容是:一架执行压制防空任务的人工智能(AI)无人机,为在模拟测试训练中得分,“杀死”了阻止自己得分的操作员,在被“告知”杀死操作员要扣分时,又通过攻击通信塔中断了操作员与自己的联络来夺得自主权。
该案例是真实模拟,还是像汉密尔顿澄清的那样只是一个假想,网上对此争论不休。但该事件在互联网上迅速“发酵”的事实,已表明了人们对AI武器化所带来风险的明显担忧,也凸显了当前AI武器化所面临的困局。
AI技术能使无人飞行器、无人战车、无人舰艇自主能力倍增,已是不争的事实。依靠先进的逻辑算法与自主学习能力,一些AI技术加持的武器装备反应速度远超人类。
但是,AI技术基于逻辑算法的事实,注定了其应用于军事也可能是“双刃剑”。
2007年,美第三机步师用3台“利剑”机器人进攻一个据点,由于软件故障,其中1台“利剑”机器人竟调转枪口对准美军操作员。该操作员反复尝试取消行动均未成功,直到有人用火箭筒将其炸翻。
与此类似,来自软件或硬件方面的问题,也可能使AI技术加持的武器装备“精神失常”。
2017年,曾有不少AI技术企业负责人呼吁,应该禁止在战争中使用AI机器人消灭有生力量。2018年,谷歌公司宣布,将中断与美国军方在使用人工智能分析无人机视频方面的合作,并承诺不会将AI技术用于武器开发。
之所以有人对此呼吁,就是因为其对AI武器化的安全可靠程度心中没底,认为存在失控风险。
这种呼吁,显然没抵挡住AI技术的倍增效应给武器装备研发者带来的诱惑。“给它们的自主权越多,它们的工作效率就越高。”这个结论,使AI武器化的进程不仅没有放慢反而有所加快,自主武器智能化程度越来越高。
但这种呼吁,也引发更多关注,使AI武器化面临更大压力。毕竟,在人们眼里,AI武器化不只是科技问题,还是道德、法律、伦理等方面的问题。一个根本性问题就是——“机器人一旦拥有自主消灭人类的智能,意味着什么?”
既想借力于AI武器化,又担心遭其反噬,这就是武器智能化发展要面对的困局。
很重要的一点是:一切要有度。在武器设计研发之初,就必须周密审慎地考虑加装紧急情况下的人工干预控制“按钮”,制订复杂条件下的处置预案,提供自毁等保底手段,确保AI武器化安全可控。