阿什顿·卡特:为了在人工智能领域击败中国,美国需要制定新的计划

来源:观察者网

2021-03-28 08:53

阿什顿·卡特

阿什顿·卡特作者

哈佛大学肯尼迪学院贝尔弗科学与国际事务中心主任、美国前国防部长

【文/美国《连线》杂志总编辑尼古拉斯·汤普森】

2021年1月13日,我对前国防部长阿什顿·卡特(Ashton Carter)进行了一次视频采访,他目前在哈佛大学肯尼迪学院贝尔弗科学与国际事务中心(the Belfer Center for Science and International Affairs at the Harvard Kennedy School)担任主任。这次采访是《连线》杂志“2021美国消费电子展”(CES)系列访谈的一部分,策划这一系列访谈的目的在于为大家介绍从医学、无人驾驶到国防科技等对未来趋势有重大影响的技术领域的发展情况。我所问的问题有些是从观众们实时提出的诸多问题中选出的。为了便于读者理解,本文所呈现的采访稿已经过编辑。

美国《连线》(Wired)杂志2021年1月17日刊发了该杂志总编辑尼古拉斯·汤普森对哈佛大学肯尼迪学院贝尔弗科学与国际事务中心主任、美国前国防部长阿什顿·卡特的采访记录:《为了在人工智能领域击败中国,美国需要制定新的计划》

尼古拉斯·汤普森(总编辑):您在政府部门和私营公司积累了35年非凡的工作经验,作为一位在共和党政府和民主党政府都工作过的高级官员,您总是很清晰地指出我们这个时代最关键的问题,您不但为此提出了极具智慧的解决方案而且还向大家介绍了自己成熟的思考过程。

在担任国防部长期间,您曾经非常明智地规定:在做出任何与击毙敌人有关的决定时都必须有人参与其中(in every kill decision,a human would have to be involved)。因此,对于一个人工智能武器系统来说,它是没有权限向无人机下达攻击指令的。不过在这方面,我还有一个疑问,防御性武器系统是否可以由人工智能来控制呢?也就是说,未来是否可能出现一种能够比人更精确地识别来袭导弹、更精准地进行瞄准响应、更快速地下达发射命令的反导系统呢?攻击性武器必须由人来操作,而在进行防御时,是否也必须由人来操作呢?

阿什顿·卡特:从道德角度来说,防御比进攻时的顾虑更少,这是毫无疑问的。顺便提一下,尼古拉斯,你刚才说“由人来操作”,我认为这并不符合事实。这是绝对不可能的,而且很早以前人就已经不在武器系统的决策环里面了(it's not literally possible, and hasn't been for quite some time, to have a human in the decision loop)。你的意思或者说我们实际上在谈论的问题是:我们该如何确保人工智能技术在应用时能够受到道德判断的干预。或者换一种说法:如果人工智能把问题搞砸了,你该如何为自己辩解呢?当你站在法庭上,站在股东面前,站在记者面前,你该如何解释“人工智能把事情搞砸不应被视为人类的一种犯罪”呢?这是一个非常实际的问题。

如果你是一个采用了人工智能技术的广告商,那当然问题不大。一个从不买东西的人可能收到了你推送的广告,或者一个经常购物的人没有收到你的广告,这些都不是很严重的问题。可是在涉及国家安全时,在军事、法律或者医疗领域,人工智能犯下错误就会造成很严重的后果。

在军事领域,相较于防御,进攻行为所担负的责任更加重大。例如,发射核武器的决策就是严重依赖人类意志的,发射核武器的命令必须由美利坚合众国总统亲自下达。我曾担任国防部长,但是我本人和我所有的部下都没有按下核按钮的权力。我们绕过总统自行决定使用核武器的可能性是不存在的,我们必须获得总统的核武密码才能发射。而且我自己也有一组核武密码以证明我就是国防部长本人,毕竟发射核武器是最高层级的军事行为。

当然,也有层级不是那么高的军事行为,比如拦截来袭导弹。如果反导系统犯了错误,它在美国没有受到攻击时向空中发射了一颗导弹,这颗导弹在空中爆炸了,导弹很贵,损失了很多钱,军方会出丑,可问题不大,毕竟没有死人。总统把实施这一军事行为的权力给了我,而我把这个权力又给了美国北方司令部的洛里·罗宾逊(Lori Robinson)将军。她当然也可以把这个权力再下放给更低层级的军官,因为这种军事行为没有发射核武器那么事关重大。

此外,在发射核武和反导这两者之间还有一个居中的层级,比如击落民航客机,这也是一个后果非常严重的军事行为。不过总统把这一权力下放给了国防部长,我在任期间每天都是肩负这一责任的。你也许不知道,此类事件曾多次发生。有时候是民航客机偏离了航线,有时候是无线电应答出了问题,有时候甚至一架飞机直接冲着国会大厦飞过来,有时候悲剧是难以避免的。如何应对,还要看具体情况。

我想我们今天谈论的问题是观众们日常在使用大数据和人工智能时都会遇到的,那就是——我们该如何让技术行为也符合伦理道德标准?向人们进行说教是意义不大的,大家需要很实际的建议。所以我希望把这个问题进行简化,也就是说:我们该怎么做才能让技术行为符合伦理道德标准?我要讲的是具体的做法而不是原因,因为我们每个人都想做一个有道德的人。我们必须做一个有道德的人,否则我们的事业就会失败,我们的名誉就会丧失。对于任何一个有良心的人来说,做不道德的事是会令其内心崩溃的。

尼古拉斯·汤普森(总编辑):是的,我们应该好好讨论一下您说的问题,不过首先我们还是先谈一谈您刚才提到的击落民航客机的话题。当一架飞机向白宫或五角大楼飞去的时候,您作为国防部长会收到关于飞机时速、方向等信息的报告。不过在未来,自动化的防空系统可能会比现在更加高效,它可以追踪每一架飞机,对其信号进行分析以判断该飞机是否应被视为恐怖威胁。您认为未来有一天是否会出现一种工作效率极高、极可信赖且工作原理可被人类理解的人工智能系统能够在无需高级军官授权的情况下自动执行击落飞机的任务呢?

阿什顿·卡特:我希望这一天最好不要到来。担任国防部长时,我的工作日程表是排得满满的。要知道,我在夜里12点还没有睡。保密电话就在我旁边,联邦航空局、联邦调查局和中央情报局都有人在电话线的那一边待命,军队的指挥官们也在待命,大家的神经都是紧绷的。有时候留给我们采取行动的时间只有几分钟。几分钟时间还是有的,并不是几个毫秒那么危急。

不过也有另外一种情况,就是必须对局势作出极为快速的反应,快到不容人类介入的程度。如果局势要求我们作出如此快速的反应,我们又该如何确保道德因素能够参与其中呢?答案就要在算法、数据集、武器系统设计过程以及设计标准中去寻找了,而且要确保最终拿出的武器系统在道德层面是站得住脚的。我们无法参与武器系统的分析决策,不过我们必须确保系统所采取的行动在道德上是站得住脚的。它未必完美,但必须在道德层面体现出其正当性。

该怎样做到这一点呢?这就要靠算法了。机器学习算法是如何实现那些设计意图的呢?这个问题是不太容易搞明白的。你需要把那些设计目标进行分解,你需要让设计团队认识到算法须满足一定的设计标准,否则最终生产出来的武器系统是无法投入实际使用的。设计团队要很严格地对数据集进行审查。数据集并不是越大越好,质量始终是第一位的。待一切都完成之后,你需要从头到尾进行检查,整个工作流程并非是全自动的,其中有些环节会涉及人工,而只要是人就会犯错。在整个工作过程中,你要有一套设计协议和测试协议。飞行器的飞行软件设计就是一个比较相似的例子。波音737MAX机型搞砸了,虽然不属于人工智能系统,但这个机型的飞行软件设计也是非常复杂的。根据设计,该软件在飞机飞行时将发挥极为重要的作用,但软件设计团队还是把这个工作搞砸了。他们是怎么搞砸的?该如何进行正确的设计?最典型的办法就是在设计团队A之外还要组建一个与之有竞争关系的设计团队B,此外还要有专门的审查团队对设计团队的工作成果进行全面的测试。

采取这些措施并不能确保一定不出问题,不过它会让人工智能在应用时满足道德标准。我们至少需要做到一点,那就是即便人工智能会犯错,我们也要确保自己在道德层面是无懈可击的。这一点非常重要。作为美国的国防部长,我必须让自己的行为符合道德标准。为了保护美国民众的安全,有时我们会使用很暴力的手段,但暴力的使用也要符合道德标准。就人工智能武器来说,如果你无法在武器实际运行时做到这一点,那么你就要在设计时把它考虑进去。

无论如何,我们不能对记者说出这样的话:“昨晚有人被炸死了,是误炸,是自动化的武器系统进行的误炸;我现在还无法告诉你具体原因,不过的确不是人的操作,而是机器进行的误炸”。如果出现这样的情况,我这个国防部长会被人们钉在十字架上的。实际上,从技术角度来说,避免出现这样的情况还是可以操作的。你在算法、数据集、武器系统设计过程这几个方面把好关,这样出了问题时你就能在法官面前、在公众面前、在记者面前拿出说得过去的理由。其实这种情况非常普遍,每天都在发生。如果车祸中死了人,肇事者就会对法官说:“发生这样的车祸非常不幸,我并没有酒驾,我也没有超速,可事情还是发生了”。只要是机器就会发生故障,我们对这一点也都能接受,只有道德层面的错误是我们不能接受的。

尼古拉斯·汤普森(总编辑):如果我没理解错的话,您的意思是,人工智能和机器学习技术未来在软件设计过程中是极为重要的;这些技术会更多地在防御性而非进攻性武器系统中获得应用;这些技术在战场快速决策时极为关键;作为该技术的基础,经人类研究得出的算法应该是可理解的,而且从法律角度来说也应该是可解释的;此外,作为该技术基础的数据集也应该是经过仔细审查并值得信任的。您大概是这样一个意思对吗?

阿什顿·卡特:是的。一个优秀的工程师在这个问题上会说,“不要只是空谈道德原则,我们应该用技术把它加以落实”。你的上述说法很言简意赅。

尼古拉斯·汤普森(总编辑):下面我们聊一个更大的话题。您曾经指出,如果美国无所作为的话,那些专制国家就会通过人工智能技术重塑我们这个世界的诸多规则。您认为在未来几年里美国在人工智能政策方面有哪些很大、很危险的疏漏需要弥补呢?

阿什顿·卡特:曾有人问我,“互联网会分裂吗?”其实中国已经做出了选择,中国已经公开宣称他们要独立自主,他们要活在由自己制定规则的体系里,不过这种做法并不符合我们美国的价值观。我们不会去改变他们,但我们也无需改变自己的价值观。所以,其实没什么可争的。就像刚才我们谈论的话题,我们干我们的。不过除了美中两国,这个世界上还有好多其他国家。要知道,仅中国一个国家就相当于半个亚洲。如果亚洲的另一半以及欧洲国家等世界各国都能留在我们这个尊重法治的体系里,那么这个体系里的公司就能够继续赢利,他们的合同就能得到执行,人员的自由流动、信息的自由传播、技术进步和社会公正等近来受到威胁的价值观就能获得有力维护。我们的体系仍然可以在世界上发挥榜样的作用,世界各国仍然可以在我们的技术生态体系里发展。

不过,面对中国时我们还是要有一个现实的态度。中国和俄罗斯不同。俄罗斯无论人口还是经济都在走下坡路,它的影响力一直在衰落,如果俄罗斯没有在我们的选举中拼命搅局的话,这个国家在美国人眼里不会有什么存在感。一个没有实力的搅局者对我们来说是危险的,因为除了捣乱,它没有能力做别的事情。很显然,俄罗斯之所以具备捣乱的能力是因为它是个核大国,不过我们这里谈的是网络。俄罗斯在科技领域无法成为独立的一极。令人遗憾的是,中国却有这个实力。

我已经跟中国人打了30年交道,我曾一度希望他们能变得跟我们一样,我们美国人都曾有过这个期待。其实,很久以前我对中国人就不抱什么希望了。他们不会走我们的道路。如果你读过中国的一些文件,你会发现他们要建立属于自己的一套体系。他们是共产党国家,他们要技术为他们的理念服务。这种想法与我们的体系是不兼容的,所以我们需要与他们的体系展开竞争。

不过,这并不意味着我们要切断与中国的贸易关系。我希望我们能搞出一个双轨制,在某些领域里我们可以跟中国人继续做生意,不过在另一些领域里我们分属不同的技术生态系统。我认为美国比过去要强大,我们的体系比中国的要好,所以我没什么可忧虑的。虽然这样一种未来并不十分理想,可这就是我们要面对的现实。中国人已经做了他们的决定。

尼古拉斯·汤普森(总编辑):目前有许多人主张一种观点,而且这种观点已经获得了很多支持,他们认为美国需要改变策略。我们目前的做法是与中国脱钩,我们要捣毁华为的生产线。而他们认为美国应该向中国伸出橄榄枝,他们认为两国应该就人工智能技术的发展共同制定标准、分享数据集,两国应该构建一种更加合作互助的关系。如果我没有理解错的话,你是反对这种观点的,你认为这不过是一种很美好的设想,没有实际意义。我说的对吗?

阿什顿·卡特:是的,你说的基本正确。能合作的时候我们当然还是要合作;在对我们自己有利的时候,我们当然还是愿意跟中国人做生意。不过中国已经决定要走自己的路。美国在鼎盛时期的价值观与欧洲启蒙时期的价值观是一致的,当然最近几周发生的事情说明我们距离鼎盛时期还是有差距的。人们在启蒙运动中曾高举“人的尊严”这一旗帜,而现在我们会用“大众的尊严”这一说法。中国有自己的政治哲学,他们的政治哲学符合他们中国人的价值观。如果你是中国人的话,接受那套政治哲学没有问题,不过那套政治哲学对我们是不适用的。

对于那些主张与中国合作的人,我的回应是,能合作的时候我们当然会合作。不过我要指出一点,如果他们希望通过合作来改变中国,在我看来,历史并不会站在他们一边,他们的想法还是有些幼稚了。不过美国和中国并不会开启第三次世界大战,两国甚至也不会开启冷战。与冷战时代的剧本不同,我们今天要写一套新的剧本。很多人都在问美中两国是否会陷入冷战,我经历过冷战,与今天的局势相比,冷战还是要简单一些。我们在冷战中的对手是前苏联——一个共产主义独裁政权,我们只是与它进行道德斗争,美苏之间没有什么贸易活动。当时美国的对苏政策就好像把一层防水膜严严实实地裹在苏联身上,什么也穿不透。甚至百事可乐在苏联上市当时也被视为一个很重大的事件。

可如今美中关系却不同,我们是希望与中国进行贸易的。所以我们需要一套新的剧本,这套剧本有体现防御色彩的一面,比如说出口管制,还有你刚才提到的我们对华为采取的措施,对中资在美国公司所有权方面的限制以及反间谍措施等等诸如此类。不过这套新剧本主要还是应该体现一种主动进攻的色彩——美国要成为一个优秀的国家,我们要变得更好,我们要在人工智能领域大力投资,我们要在人工智能领域引领世界,我们要跟其他国家一起面向未来构建一个共同的技术体系,在这样一个技术体系里面,科技发展迅速,但其发展方向应该是有利于维护我们的价值观的。

我们需要一套与冷战时期完全不同的剧本,不过在过去四年里我们并没有拿出这样的剧本。我们尝试了各种应对之策,我们对中国输美商品加征了关税,采取了许多类似的自保措施。不过我觉得这些做法还是太草率了。美国应该拿出一套更简洁、更经过深思熟虑的对华政策。我相信拜登新政府会在这方面有所作为。新政府里的官员我都很熟悉,我们很早以前就认识了,他们都是各领域的资深人士,其中当然也包括科技领域。我们需要协助他们把这个新的剧本编写出来,我相信把这件事做好是完全没问题的。

我希望在这套新的剧本里我们能更加重视主动进攻的一面。“主动进攻”不是说要去攻打中国,而是说要提升我们自己的实力,我们不能总是想着要削弱对手,也不能总是想着如何自保,而是应该想一想该如何让美国变得更好。这才是新剧本中最关键的地方。

尼古拉斯·汤普森(总编辑):我希望有人,也许是现在在政府里任职的人,能像当年乔治·凯南那样再写一份“长电报”或所谓的“X文稿”(1947年7月,时任美国驻苏联代办乔治·凯南署名“X先生”在《外交事务》杂志以《苏联行为的根源》为题公开发表了1946年2月撰写的“长电报”的内容,文章明确提出“美国应该对苏联的扩张倾向进行长期、耐心、坚定、警觉的遏制”——观察者网注),为我们阐明一套适应当前情况的新版对华遏制战略。

阿什顿·卡特:政府里并不缺少有此能力的人,不过他们需要科技行业的协助。我一直主张的一个很重要的观点就是,我们应该在科技行业和政府之间搭建桥梁。其实我认为我自己扮演的就是这样一种角色,我曾是个物理学家,我是个科技迷。当然,我也很清楚搭建这样一座桥梁并不容易,不过为了塑造一个我们大家都希望生活于其中的世界,做到这一点尤为关键。

尼古拉斯·汤普森(总编辑):下面我们选几个观众提出的问题。你觉得国防部内部有多少人能够意识到国防部在科技公司眼中其实是一个挑剔的小客户而且国防部并不在他们的顶级客户之列?当然,就我所知,你一直在很努力地改变国防部的这一形象。

阿什顿·卡特:我最开始在卡斯帕·温伯格(Caspar Weinberger,1981-1987期间担任美国国防部长,人称“冷战武士”;他在任期间负责实施2万亿美元的军事扩张计划,参与推动了美国在和平时期最大规模的军力提升——观察者网注)手下工作,那时候“星球大战”计划影响巨大。当时全球最重大的科技进步都是在美国出现的,之所以如此是因为美国政府发挥了重要的推动作用,互联网、GPS等都是那时的成果。不过现在情况不同了,我对现状当然是很了解的。国防部目前在科技领域扮演重要角色,我们在研发方面的投入比所有大型科技公司的总和还要多。不过你说得对,国防部在分包商眼中相对来说只是个令其感到麻烦的小客户。我们的采购流程十分繁琐,这对我们是不利的。很多公司都说,“跟五角大楼合作让人头疼,实在划不来”。因此对于国防部的领导们来说,他们应该尽己所能增加自己对科技公司的吸引力。手段之一是对科技研发进行投资,国防部要对拥有广泛应用前景的最新科技的研发进行资助;手段之二就是国防部要做新技术的尝鲜者,新技术在刚刚推出时价格都是比较高的,但国防部还是应该承受那个价格,因为他们必须做好自己的分内事。这样做就能对美国的科技产业起到保护作用。所以说,国防部还是可以有所作为的,但国防部不能把自己封闭起来,它需要融入到大的军事工业生态系统中去。国防部要谦虚地认识到自己已经不再像过去那样主导一切了。我是亲身经历了这一变化过程的,当前的情况已经与我刚刚开始工作时完全不同了。

尼古拉斯·汤普森(总编辑):我们再选一个有价值的问题。最近美国政府的系统频频受到黑客入侵,您认为我们该怎么做才能让我们的人工智能武器系统尽量少地受到外军干扰呢?您在这方面有没有一个大的框架性的想法?

阿什顿·卡特:其实我们的武器系统与普通网络之间并没有那么大的差异,我们为武器系统所采取的安全措施与一般意义上的网络安全措施是一样的。总结起来就是“安全上网,别犯错误”。大多数问题都是由粗心大意引起的,SolarWinds事件也是如此。比如,点击附件链接就可能引发问题,许多重大网络安全事故都是这样发生的。

另外就涉及技术了,在这方面我们也有待加强。据我所知好多公司都想自己做公司的网络管理,我此前在国防部工作的时候,国防部等政府部门都很关注网络安全问题,而那些网络公司给出的解决方案却是模块化的,他们说模块A是这个功能,模块B是那个功能。这样一来就会遇到系统整合的问题。对于政府部门或非技术类公司来说,他们自己很难解决这个问题。此外,也有的公司宣称他们可以帮你做系统整合,不过实际上他们只是想借机卖自己的产品。所以我认为我们在整个网络安全系统中真正欠缺的其实是高质量可信赖的系统整合方案。我接触过的许多公司都很清楚,系统整合是其公司网络的一个巨大的软肋。即便你是一家做普通小商品的公司,如果你的公司数据、商业机密或者客户信息泄露了,那也是天大的麻烦。这里面潜藏着巨大的商业风险。令人遗憾的是,我们为了保护自己并没有拿出什么特别好的办法。

不过这个问题获得解决的前景也不是一片黯淡,我们刚才不是聊过人工智能吗,人工智能有它的问题,它给我们带来了挑战,不过人工智能在网络安全方面是可以帮上忙的。黑客在发动网络攻击时可以利用人工智能对攻击界面进行全面的分析,不过作为网络用户你也可以借助人工智能进行全面的防御。无论攻击还是防御,这里面的技术是共通的,叫做“全天候周界监测”(constant perimeter surveillance)技术,它可以持续不断地对网络入侵等反常现象进行监测。因此,在网络安全方面,人工智能是一把双刃剑,它是你的敌人,但也可以成为你的朋友。

尼古拉斯·汤普森(总编辑):是的,的确如此。我们接着看下面一个问题,这个问题与我们最初讨论的话题有关。当人工智能出现问题时,谁应该承担责任呢?谁该为人工智能技术中的瑕疵负责呢?是程序员?高级管理人员?还是别的什么人?无论是谁,难道我们人类不该为人工智能所犯下的错误承担某种责任吗?

阿什顿·卡特:是的,人类无法逃避责任。说实话,从道德角度来讲,我认为为人工智能技术所造成的后果承担最终责任的人是这一技术的实际使用者。如果你是一个公司的老板,你在为客户服务时设备出了问题,你可以去找设备的供应商。不过从实际角度来说,你公司的声誉一定会受损,你的生意也会受影响。作为设备供应商的客户和设备的实际使用者,你有责任要求供应商提供没有问题的设备,你应该很清楚一旦出问题自己是无法把责任推给别人的。如果你的公司使用有问题的设备,出了问题你是会受到指责的,你也应该受到指责。你无法把责任推给设备供应商,这行不通,因为人们会说,“请等一等,是你在众多设备中选择了这个品牌的设备,你了解这个厂家的产品,它是你的选择”。

在我看来,你有一个担责链条。如果你是设备供应商的客户和设备的实际使用者,你应该对供应商提出要求,你应该对他说:“我必须确保这个设备没有问题。请向我保证,从算法的角度也好,从数据集整合的角度也好,从测试评估的角度也好,我在使用你的人工智能产品从事公司经营时是不会有任何问题的”。你可以把整个问题分解为两个工程问题,然后分别找到解决方案。一旦你采购了一台人工智能设备在你的公司里使用,你就要为这台设备承担责任了。我曾担任国防部长,出问题时我会对总统说:“我是一名负责的官员,在公众眼中我是命令下达链条中的二号人物,我无处藏身,我无法推脱责任,我也不应该那样做。你期待我会维护你,但同时你也希望我能以道德原则行事”。其实这番话对全美国所有的商界领袖都是适用的。他们不可能把所有责任都推给技术,他们必须对技术的供应商说:“我需要可靠的技术”。

尼古拉斯·汤普森(总编辑):谢谢您参加我们今天的访谈节目。我希望政府里有人能看到这一期节目。相信拜登新政府会对我们今天讨论的问题有深入的思考。

(观察者网马力译自2021年1月17日美国《连线》杂志网站)

本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。

责任编辑:马力
美国 中国 人工智能
观察者APP,更好阅读体验

“欧洲战略自主正触底反弹,对华合作能更好认清方向”

习近平抵达贝尔格莱德,塞空军战机为专机护航

习近平抵达塔布,马克龙总统夫妇机场迎接

习近平将抵达塔布,继续对法国进行国事访问

中法关于中东局势的联合声明