当地时间8月10日,美国国防部宣布成立生成式人工智能(AI)工作组,名为利马(Lima)工作组,将在分析和集成国防部的大型语言模型(LLM)等生成式人工智能工具方面发挥关键作用。
“利马特别工作组的成立突显了国防部对引领人工智能创新的坚定承诺。”负责指导该小组成立的美国国防部副部长凯瑟琳·希克斯(Kathleen Hicks)说, “当我们驾驭生成式人工智能的变革力量时,我们的重点仍然是确保国家安全、最大限度地降低风险以及负责任地整合这些技术。国防的未来不仅在于采用尖端技术,还在于以远见和责任感,以及对我们国家更广泛影响的深刻理解来实现这一目标。”
在数字和人工智能首席办公室的领导下,利马工作组将评估、同步和利用整个美国国防部的生成式人工智能能力,还将利用国防部与情报界和其他政府机构之间的合作伙伴关系。
数字和人工智能首席办公室于2022年6月开始运营,致力于整合和优化整个国防部的人工智能能力。
美国国防部称,通过利用生成式人工智能模型,旨在加强其在作战、商务、健康、战备和政策等领域的运作。国防部数字和人工智能负责人克雷格·马泰尔(Craig Martell)表示, “我们还必须考虑我们的对手将在多大程度上使用这项技术,并寻求破坏我们对基于人工智能的解决方案的使用。”
“国防部认识到生成式人工智能在显著改善情报、作战规划以及行政和业务流程方面的潜力。然而,负责任地实施是有效管理相关风险的关键。”利马工作组任务指挥官、数字和人工智能首席办公室算法战争理事会成员、海军上校曼努埃尔·泽维尔·卢戈(Manuel Xavier Lugo)表示。
据美国军事媒体“国防一号”报道,该工作组还将帮助五角大楼更好地了解实现新的人工智能目标需要采购什么,可能包括更多的云服务、数据或合成数据、模型。
生成式人工智能根据训练过的数据生成新的输出,面向公众的此类工具包括ChatGPT等基于大型语言模型的聊天机器人,它可以编写看起来与人类输出一样的新文本,已经被用来撰写论文、商业计划甚至科学论文。但由于大型语言模型基于来自互联网的数据语料库训练,因此它们有时会撒谎,被称为产生“幻觉”。出于这个原因,五角大楼官员一直表示不愿接受生成式人工智能。
“国防部必须负责任地寻求采用生成式人工智能模型,同时确定适当的保护措施并减轻可能因培训数据管理不善等问题而导致的国家安全风险。”马泰尔说。他指出,许多用例中出现“幻觉”的风险太高,无法采用大型语言模型,例如“任何运动的东西”,或者处理致命武器时。国防部必须了解它们可以在哪里安全使用,以及对手可能在哪里部署它们。
一个问题是,美国国防部是否拥有足够的数据让生成式人工智能发挥作用。虽然该部门拥有大量精心整理的内部数据,但大量的喷气发动机诊断数据或多年的中东无人机监控录像并不能构成大型语言模型。
“我们是否有足够数据覆盖足够广泛的范围,以至于在没有预先训练的数据的情况下也能维持模型的价值,这是一个悬而未决的问题。另一方面,我的假设是,预先训练的数据越多,产生幻觉的可能性就越大。所以这是我们必须探索的一个权衡。我不知道,实际上我认为科学界还不知道答案。”马泰尔说。
至少,像ChatGPT这样的工具现在不适合国防部,原因之一是产生合适结果所需的工程量。马泰尔表示,冗长的提示树对于业余爱好者来说很好,但是必须执行复杂任务的操作员需要一个直观且从一开始就功能更好的界面。