打造网上国际投资促进平台 致力于中国投资促进事业
您现在的位置:首页 > 产业新闻 > 人工智能 > 文字新闻
AI武器化面临的困局:或使装备“精神失常”
发布时间:2023-06-09  来源:解放军报  

  近日,在英国皇家航空学会主办的一次未来空战主题会议上,美国空军“人工智能测试与行动计划”负责人汉密尔顿描述的一个例子引发热议。这个例子的大体内容是:一架执行压制防空任务的人工智能(AI)无人机,为在模拟测试训练中得分,“杀死”了阻止自己得分的操作员,在被“告知”杀死操作员要扣分时,又通过攻击通信塔中断了操作员与自己的联络来夺得自主权。

  该案例是真实模拟,还是像汉密尔顿澄清的那样只是一个假想,网上对此争论不休。但该事件在互联网上迅速“发酵”的事实,已表明了人们对AI武器化所带来风险的明显担忧,也凸显了当前AI武器化所面临的困局。

  AI技术能使无人飞行器、无人战车、无人舰艇自主能力倍增,已是不争的事实。依靠先进的逻辑算法与自主学习能力,一些AI技术加持的武器装备反应速度远超人类。

  但是,AI技术基于逻辑算法的事实,注定了其应用于军事也可能是“双刃剑”。

  2007年,美第三机步师用3台“利剑”机器人进攻一个据点,由于软件故障,其中1台“利剑”机器人竟调转枪口对准美军操作员。该操作员反复尝试取消行动均未成功,直到有人用火箭筒将其炸翻。

  与此类似,来自软件或硬件方面的问题,也可能使AI技术加持的武器装备“精神失常”。

  2017年,曾有不少AI技术企业负责人呼吁,应该禁止在战争中使用AI机器人消灭有生力量。2018年,谷歌公司宣布,将中断与美国军方在使用人工智能分析无人机视频方面的合作,并承诺不会将AI技术用于武器开发。

  之所以有人对此呼吁,就是因为其对AI武器化的安全可靠程度心中没底,认为存在失控风险。

  这种呼吁,显然没抵挡住AI技术的倍增效应给武器装备研发者带来的诱惑。“给它们的自主权越多,它们的工作效率就越高。”这个结论,使AI武器化的进程不仅没有放慢反而有所加快,自主武器智能化程度越来越高。

  但这种呼吁,也引发更多关注,使AI武器化面临更大压力。毕竟,在人们眼里,AI武器化不只是科技问题,还是道德、法律、伦理等方面的问题。一个根本性问题就是——“机器人一旦拥有自主消灭人类的智能,意味着什么?”

  既想借力于AI武器化,又担心遭其反噬,这就是武器智能化发展要面对的困局。

  很重要的一点是:一切要有度。在武器设计研发之初,就必须周密审慎地考虑加装紧急情况下的人工干预控制“按钮”,制订复杂条件下的处置预案,提供自毁等保底手段,确保AI武器化安全可控。

上一条:5G商用四周年 交出亮眼成绩单
下一条:今年国务院将为企业减负超万亿元 降费占六成
与我们联系
  • 联系电话:+86-0512-53660867
  • 传  真:+86-0512-53660867
  • 邮  箱:info@investchn.com
Copyright © 2015-2024 InvestCHN.com All Rights Reserved. 版权所有:投促中国