Tiger
推荐活动
  • “驭风同行 畅享朱雀”
  • 2025-04-13
  • 宾客人数
  • 参加(31)可能(0)
  • 徽伍e族车友会二季度活动
  • 2025-04-12
  • 宾客人数
  • 参加(8)可能(0)
  • 驭风而行 共赴美好 轰趴主题活动
  • 2025-03-30
  • 宾客人数
  • 参加(12)可能(0)
  • 春韵沂蒙,长安同行
  • 2025-03-23
  • 宾客人数
  • 参加(33)可能(0)
美陆军启动新“防御人工智能”计划应对AI攻击
阅读 6372
2024年08月05日 18:12分

砺道智库 2024年08月05日 09:00 北京

据勇士网8月2日报道,美国陆军已启动“100天”人工智能风险评估试点,以推动确保、强化和改进人工智能系统及其带来的希望。

美国需要多久才能做好与自主机器人大军作战的准备?答案虽然在某些方面尚不明确,但可能是“很快”。尽管在机器人、自主和人工智能的分析中,“终结者”类型的比较已是陈词滥调,但这种可能性在某种程度上还是相当“真实”的。

后果是严重的,因为尽管五角大楼和美国各军种都强调人工智能的“道德”以及确保在使用致命武力方面“人为参与”的必要性,但几乎没有保证潜在对手会采取类似的做法。五角大楼并没有忽视这可能会带来前所未有的危险,这就是为什么目前在作战行动和武器开发方面有如此多的努力来优化人工智能、自主性和机器学习的使用。

“零信任”指的是“保护”人工智能并使其更可靠的关键、高优先级的努力。当然,人工智能的优点是众所周知的,然而一个明确且经常被解决的挑战或悖论仍然占据着中心位置;人工智能系统的效率只能与其数据库一样高,那么当一个先进的人工智能系统遇到它以前没有“见过”或处理过的东西时会发生什么?这在某种程度上无疑存在“误报”或错误分析的可能性,引发了现在成为零信任和使人工智能更可靠的需要的“动力”的那种担忧。

在这方面已经取得了很大进展,因为先进的算法现在可以通过分析“上下文”和周围指标来辨别含义并准确分析看似未知的想法和物体。例如,算法越来越能够通过评估周围的单词来准确评估概念框架,从而区分脚“球”和舞蹈“球”之间的差异。人工智能支持的“分析”继续以越来越快的速度发展,目标是设计一个可以执行近乎“实时”分析的系统,并对已识别或看似无法识别的指标做出可靠和准确的判断。

陆军“保卫人工智能”

美国陆军一直致力于此,在取得进展的同时,也开始着手保护人工智能的下一步工作……“保护”人工智能免受攻击和反制。”作为第一个在五年预算规划(POM)中规划实际人工智能计划的军种,陆军已启动“100天”人工智能风险评估试点,以推动保护、强化和改进人工智能系统及其带来的希望。

美国陆军采购、后勤和技术部副部长Young Bang表示,“100天实施计划之后将有一个500天实施计划。我们通过100天计划设定条件,并通过500天的努力将其付诸实施。我们是第一个将人工智能计划正式列入POM(项目目标备忘录)的军种。”

这项多层次努力的重点涉及许多关键变量,例如旨在激励行业开发可集成到陆军和国防部系统中以支持安全系统和“分层”防御网络的算法的努力。陆军这项大规模努力迅速兴起的名称是“保卫人工智能”。

人工智能与人机融合

Bang解释说,这些努力与一个明确的概念基础相一致,强调了人类和机器能力的重要性。五角大楼的教义不仅要求人类“了解”致命武力,而且陆军技术开发人员还认识到,先进的人工智能计算的某些元素根本无法复制人类意识中至关重要但更主观的现象。那么伦理呢?直觉?道德?意识?情感?这些只是决策过程中许多明显的“人类”属性中的一小部分,因此对作战行动和决策至关重要。数学生成的算法可以复制这些东西吗?

这些问题和变量可能为陆军部长克里斯蒂娜沃穆斯最近发布的人机界面指令提供了参考,该指令旨在确定和优化高速机器和人类决策之间的必要平衡。

沃尔穆斯表示“人类投入的整合仍然是一项核心原则……在推动快速采用人工智能系统的过程中保持以人为本仍将是我们的主要目标。”

美国陆军在利用正确应用人工智能来拯救生命、增强战斗力方面正在迅速进步,该部队最近展示了一项突破,即利用人工智能和自主性安全快速地将武器调动到攻击位置并准备快速射击。陆军武器开发人员称之为“自主多域发射器”,展示了使用人机协作进行精确射击的能力。陆军关于AML实弹射击的一篇文章称,“演习展示了发射器能够独立从隐藏位置移动到射击点、根据指示调整方向以及从远程炮手接收火控命令的能力。”

人类参与

关键方法之一就是支持这一努力,在引用人工智能前所未有且看似无限的优点及其带来的战斗优势的同时,Bang明确强调在许多领域需要“人类”指挥和控制,以便能够解决战斗中的“艺术”或不可计算的元素。Bang解释说,这项工作的一部分涉及为人类决策者组织和“扩展”或分层数据,以确保高效、最佳的决策。

“我们把领导力称为一门艺术和科学……对我们来说,我们希望利用大量科学来真正加速这一速度,无论是数据、愿景还是数据融合……这样我们就能获得洞察力,让领导者或指挥官能够根据军事经验做出决策。这是一个处理所有数据的维度,但领导者不需要所有数据,他们只需要一些洞察力来真正帮助他们获得数据点,这样他们就可以做出判断和决策,真正掌握战争艺术,”Bang说道。Bang强调,这种平衡对于战斗中的“生死攸关”问题至关重要。

Bang说:“我们如何在其中引入算法,使我们能够更快、更有效地完成任务,并为我们的士兵提供更多的战斗机和更多的带宽,以便他们不必执行琐碎的任务,而可以执行更高效的任务。”

保护人工智能免受攻击

确保AI系统能够分析、辨别、组织和有效传输时间敏感的战斗情报是首要任务,但陆军也已开始考虑“保护AI”,使其免受攻击、欺骗和其他高科技手段的干扰或破坏……这些手段可能会产生误报或灾难性错误。考虑到这一点,Bang解释了AI风险计划如何探索开发“对策”来识别和阻止对AI系统的攻击或“欺骗”企图。也许可以通过分析相互关联的多个变量和指标来提高可靠性。例如,在识别物体时,除了电光或视觉指示器外,也许还有与敌方目标相关的声学或热特征?这些东西很可能为“保护”AI系统免受敌人攻击的前沿努力提供信息。

Bang表示:“这个概念很难实现,但我们正在推动人工智能、反人工智能和反制人工智能的发展。”

脱离循环的人工智能

Bang还回答了五角大楼武器开发人员提出的新问题,介绍了将纯“自主”或“非循环”人工智能用于纯粹防御性、非致命性目的(如无人机和巡航导弹防御)的前景。如果人工智能能够立即确定给定的威胁或物体不涉及人类,并且可以用非致命性武力击败或“拦截”,那么是否有地方可以使用高速处理和人工智能防御来抵御来袭导弹、迫击炮、火箭、无人系统或无人机群攻击?我们能相信人工智能能够准确地做出这些判断吗?如果出现错误或不正确的识别或漏报怎么办?这就是为什么Bang和其他人正在快速跟踪人工智能以利用和优化其优点,同时优先考虑道德问题并“警告”不要“非预期用途”。

未来,非循环人工智能也许有一天会在某些特定条件下出现,用于纯粹的非致命和防御目的,作为在敌人快速攻击下拯救生命的高速方式。当然,人工智能的优点尚未完全发掘,但Bang显然优先考虑了人工智能应用的伦理、理论和安全相关变量。事实上,这可能是“保卫人工智能”概念的整个概念的一部分,因为该努力旨在加速人工智能快速回报的好处,同时优先考虑旨在“保护”人工智能的伦理和举措,使其更可靠、更能抵御敌人的攻击。

Bang认为,“人工智能很棒,会推动我们进步,但从军事角度来看,我们总是考虑这种权利的意外用途。在这种情况下,你谈到了人类脱离圈子或出于防御目的。这很容易被重新用于其他意想不到的原因,而且,如果我们不保护或加强,这就会成为一个可能被接管的漏洞。”


* 本内容及图片由会员自行发布,英客对其真实性、准确性及图片版权归属不承担任何责任!
  •  -  - 
  • 36
  • 6
  • 0
  • 举报
帖子
  • 发帖
  • 添加照片
发布
近期动态
  • 最新回复
  • 最多回复
  • 最多赞
正在加载...