砺道智库 2024年07月02日 09:00 北京

据美国航空航天期刊网7月1日报道,自5月起担任美国NASA首任首席人工智能官大卫·萨尔瓦尼尼将其角色比作管弦乐队指挥:他自己不演奏乐器,但他必须领导和指挥演奏者。
NASA局长比尔·尼尔森5月任命萨尔瓦尼尼为首席人工智能官,以回应美国总统拜登去年发布的一项行政命令。该命令指示管理和预算办公室确保每个联邦机构指定一名人员承担“主要责任”,确保人工智能软件得到适当的开发和使用。对于NASA,萨尔瓦尼尼认为人工智能可以做任何事情,从帮助为宇航员训练创建更准确的月球表面模拟到生成财务报告。但也存在潜在的陷阱,例如员工或承包商在不知情的情况下根据受版权保护的材料创建艺术效果图。Cat Hofacker副主编采访了萨尔瓦尼尼,想知道他如何让NASA的18,000名员工和众多承包商都按照同一份人工智能乐谱演奏。
问:您将如何平衡首席人工智能官角色的创新和监督方面?
答:去年年底行政命令发布后,我受命领导NASA老虎队,思考如何才能最好地管理这项活动。所以当我第一次和NASA的领导层谈论这个角色时,我说:“嗯,你知道,拜登政府的监督者要求我们回应这些行动,但这也是符合NASA最佳利益的。”我认为这个角色需要同时做这两件事。当你考虑在组织内建立联盟时,你不一定会围绕“嘿,我们必须遵守某件事”来建立很多支持和动力。然而,当你开始以组织的增值合作伙伴的身份出现时,你会这样做,你想帮助他们采用人工智能,你想让他们以负责任、合乎道德和透明的方式做到这一点。当你开始在你的角色中表现出这些行为时,你就会开始建立很多伙伴关系,你就能建立动力。所以这真的是我在这个角色中努力做的事情。是的,我必须满足合规要求,但我也想做对NASA有利的事情。对NASA来说,真正正确的做法是让员工和领导者了解如何应对我们之间的所有变化。这些变化尤其与生成式人工智能有关,我认为这才是拜登政府行政命令和指导的重点。
他们关注隐私、道德使用、负责任的使用和透明度,因为现在我们将人工智能从专家手中解放出来,并将其用于非常具体的利基用例,实际上,每个人都可以掌控。如果你不让员工了解人工智能在他们工作中的影响,你可能会产生一些无法预见的后果。
问:NASA现有的审查新工具和新技术的政策在多大程度上可以应用于审查人工智能工具,您认为需要在哪些方面创建一些新流程?
答:这个问题问得很好。让我们从多个不同的角度来谈谈人工智能:首先,让我们谈谈系统工程生命周期。任何进入太空平台或航空系统的新技术都会按照这些程序进行严格测试。所以这一点没有改变。人工智能是一种新技术,它前景广阔,也将经历同样的严格考验。当你考虑一些科学应用以及科学界如何验证科学发现和同行评审时,科学方法的核心就是能够重复结果并验证这些结果。这其中也有很多严格要求。开放科学界围绕科学生命周期有很多方法。让我谈谈网络。当你考虑如何安装工具、如何将其带入环境以及如何评估和授权在nasa.gov保护范围内使用时,有非常完善的风险控制机制。事实上,美国国家标准与技术研究所(NIST)去年发布了一份文件,该文件涉及人工智能工具的风险管理框架。因此,该文件与现有的网络政策非常契合。因此,其中很多内容都是完整的。不完整的是,在理解人工智能、如何从安全风险框架的角度评估人工智能、如何测试人工智能、如何确保透明度方面可能存在一些细微的差异。换句话说,人工智能不仅仅是一个神奇的黑匣子;我们需要了解输入的内容、输出的内容,并且我们必须建立机制来验证模型没有漂移,并且这些系统的输出可靠。我们将努力解决其中的一些细微差异。然而,主要重点是真正装备劳动力。换句话说,就是要提高员工的技能,使他们能够通过桌面自动化软件安全地、有效地处理他们手头上的工具:例如,微软、谷歌或其他一些云提供商(如亚马逊)提供的工具。确保人们在使用这些工具时能够做出正确的决定。我们可能还需要解决一些有关版权保护的问题。你可以出去用DALL·E创建一个图像,但你不一定知道由此产生的所有这些信息的来源。
如果您曾经使用过DALL·E,就会发现其中一些图像存在一些不准确之处。假设您可能将其用于宇航员的图像,然后您查看该图像并发现美国国旗上的条纹数量不正确,星星数量也不正确。我们必须解决某些社区中特定用例特有的类似问题。
问:这些培训中有多少是向员工传授新的技术技能,而不是教他们NASA的指导原则?例如,即使使用人工智能,人类也要对准确性负责。
答:在5月份的NASA市政厅会议上,我提出了这一点:责任在于个人,而不是人工智能。个人有责任以适合用例的方式使用人工智能——所以你不会在需要用扳手的地方使用锤子,而且他们要验证人工智能的结果是否准确。因此,他们了解导致结果的数据,或者至少在某种程度上了解人工智能为获得结果所采用的算法方法,然后他们就会确信结果实际上是准确的。我们现在正在开展“人工智能之夏”活动,我们提供了大量关于如何有效理解和使用这些人工智能工具的内容。我们必须使其适应广泛的技能和能力。在某些情况下,我们发表了该领域的博士学位,他们的职业生涯都是围绕人工智能的非常非常专业的用途建立的。想想自主系统,或者人工智能正在增强某种类型的太空操作。我们经常谈论的一个话题是在火星表面驾驶毅力号探测器,其中有人工智能辅助,以确保车辆的移动能够感知地形并保证安全。有些人可能在新闻中爆出ChatGPT时才第一次听说人工智能,但他们真的不了解人工智能背后的任何原理。因此,我们试图确保活动的内容适用于两者。当然,这位资历很高的博士仍然需要了解生成式人工智能的使用对隐私的影响以及一些道德影响,特别是如果它是在影响权利的用例中,比如我们正在招聘人员,而我们现在正在使用人工智能作为其中的一部分。这并不是说我们正在这样做,但这只是人工智能用例的一个例子,它将上升到需要大量额外审查的水平,因为它会对申请NASA职位的广大民众产生权利影响。
问:这项审查是由NASA总部办公室的人员进行的吗?还是计划在不同的现场中心或特定项目中嵌入AI审查人员?
答:我最初在NASA担任首席数据官。这意味着,与AI角色类似,可以推断出我负责所有数据。我怎么可能知道处理各种不同数据类型的所有细微差别呢?AI也一样。所以我们把这些分散开来;我们建立了一个框架;我们确定了处于领导角色的人——无论是数据还是AI——来代表他们的组织并代表该组织的权益。当团队需要帮助来驾驭特定领域时,他们确实挺身而出。我们有律师;我们的OGC[总法律顾问办公室]同事也参与其中。我们有隐私人员参与其中。我们有安全人员参与其中。所以我们有纵观整个企业的人员——当然,我也担任这个角色——然后我们会有接近任务的人,他们非常了解这些具体细节。所以归根结底,这是团队的努力。
问:NASA有哪些有趣的人工智能应用?
答:一种是增强现实,即虚拟现实训练。假设你想让准备执行任务的宇航员掌握各种不同的乘员程序。人工智能现在正用作研究工作的一部分,用于创建那些AR/VR环境,用于培训目的。例如,你穿着宇航服在月球表面进行某种舱外活动,在月球栖息地进行某种操作,或者在火星表面做某事。他们可以在AR/VR环境中进行大量测试。想想宇航员在太空中遇到的医疗紧急情况。你知道宇航员不是医生,但他们需要参考某种精心挑选的医疗状况库,以尝试快速诊断病情。这是一个令人兴奋的机会。我们有在太空中自主操作的飞行器,我认为我们将继续看到载人航天领域以及航空领域的更多自主性和增强性。有很多潜在的效率提升空间。想象一下,如果你是任务控制中心的医生操作员。传统上,你会认为内容活页夹是你工作的一部分,可能需要解析这些内容,然后你会发现现在这些内容是PDF,你可以搜索它。也许在未来,会有一个生成式人工智能模型,你可以用母语提问并得到答复。想想我们以相同格式定期生成的财务绩效报告。给它新的数字,生成式人工智能就可以生成报告。这些都是我们现在正在试行的领域,以确定生成式人工智能使用的有效性。
问:您预计什么时候它才能成熟到可以协助完成这些任务?今天,似乎必须由人来检查一切以确保准确性。
答:这非常依赖于用例,而AI和AI使用的有效性很大程度上取决于数据质量。这很有意思;数据集中可能存在大量自由格式的数据,而数据集中可能存在大量高度结构化的数据。机器当然更容易解释高度结构化的数据,因此某些用例最接近成熟。当然也有一些用例已经经过验证,并且是可行的,例如图像检测。你有10,000或20,000张图像,你用“猫长什么样?”来训练模型。然后你要求它生成所有有猫的图像。我们在这个领域已经相当成熟,但那是非常结构化的数据,所以你实际上是在用一种模式来训练它。这对计算机来说更容易。我认为,在某些情况下,我们会看到快速的进步,而在其他情况下,我们会尝试一些东西,但结果却并不可靠,因此,这不是人工智能的良好用途。我经常说,“在NASA,我们正在学习”,我希望其他所有组织都能以同样的方式看待它。不仅有很多机会空间,还有很多可靠性开始下降的情况需要学习,所以你要避免这些用例。
问:业界是否预期会遵循NASA的AI政策?
答:从系统工程的角度来看,如果他们正在开发NASA将要使用的系统,他们的工作将接受测试。这是一个“信任但要验证”的模型,他们自己进行测试,然后我们当然必须对结果感到满意。因此,对于支持我们的承包商社区来说,这是共同的责任;他们将承担同样的责任,确保人工智能的使用合乎道德、负责任、可靠、透明。不仅在人工智能方面,而且在导致各种不同测试活动的业务流程中也必须具有良好的透明度,以便政府对供应商所做的工作充满信心。我认为风险开始进入方程式的地方不是这些类型的用途,而是比如说,一家小型初创公司急于推销一种有助于招聘的功能。他们是否像我们希望看到的那样严格地对待这个问题,我们是否会对他们关于人工智能是可靠和无偏见的断言充满信心?我认为这些领域对我们来说还是未知的。但是,很多供应商都会说:“嘿,我们的工具中现在有了人工智能。在下一次更新中,我们将让人工智能为您完成这五件事。”这很好,但是我们如何验证?我们如何对您在人工智能中采用的方法有信心,以便我们能够舒适地使用它?
问:到明年此时您希望能够实现什么目标?
答:我们正在进入第三次人工智能清查。
现在,我们从OMB[管理和预算办公室]那里得到了更多关于该清单性质的信息,包括哪些是可以的,哪些是不能的。我们正在评估与我们使用人工智能相关的安全和权利用例,作为清单活动的一部分,并将在今年晚些时候发布。一个目标肯定是让NASA更广泛地了解人工智能的使用,并建立这个网络,拥有一个分布式团队。我们正在考虑如何负责任地做到这一点的各个方面,以及如何真正创新,以最适合NASA的任务,当然还要满足道德和负责任的要求。让这个网络活跃起来,继续在此基础上建设,然后建立我们的治理。换句话说,你可以在工程组织中拥有非常熟悉人工智能的最低级别的人,但他们是否能够向NASA最资深的领导介绍他们的用例,最资深的领导会理解吗?这关乎团队,并确保我们同步活动。这几乎就像协调管弦乐队的各个部分:在很多方面,我并不是在演奏乐器。我不是任何一个音乐领域的音乐专家。但我当然能够组织和协调整个NASA的活动,让每个人都朝着同一个方向前进。