设为首页收藏本站 关注微博 关注微信

全球新闻在线

全球新闻在线 首页 科技新闻 军事科研 查看内容

美国前防长:为在这一范畴击败华夏 美须要新的计划

2021-5-10 13:12| 发布者: wdb| 查看: 88| 评论: 0|原作者: [db:作者]|来自: [db:来源]

摘要: 美国前防长:为在这一范畴击败华夏 美须要新的计划,更多关于军事资讯关注我们。

  原标题:阿什顿·卡特:为了在人力智能范畴击败华夏,美国须要制订新的计划

  [文/美国《连线》杂志总编辑尼古拉斯·汤普森]

  2021年1月13日,咱对前国防部长阿什顿·卡特(Ashton Carter)发展了一次视频采访,他日前在哈佛大学肯尼迪学院贝尔弗科学与世界事务中心(the Belfer Center for Science and International Affairs at the Harvard Kennedy School)担任主任。这一次采访是《连线》杂志“2021美国花费电子展”(CES)系列访谈的一部分,策划这一系列访谈的目的在于为大伙推荐从医学、没有人驾驭到国防科技等对未来趋向有重要作用的技艺范畴的进行概况。咱所问的难题有些是从观众们实时提议的诸多难题中选出的。为了便于读者了解,本文所表现的采访稿曾经过编辑。

  美国《连线》(Wired)杂志2021年1月17日刊发了该杂志总编辑尼古拉斯·汤普森对哈佛大学肯尼迪学院贝尔弗科学与世界事务中心主任、美国前国防部长阿什顿·卡特的采访纪录:《为了在人力智能范畴击败华夏,美国须要制订新的计划》

  尼古拉斯·汤普森(总编辑):您在政府部门和私营企业积累了35年非凡的事业经历,作为一位在共和党政府和民主党政府都事业过的顶级官员,您总是很清楚地指明咱们这种时期最要害的难题,您不仅为这提议了极具智慧的解决方案况且还向大伙推荐了本人老练的思考进程。

  在担任国防部长久间,您以前十分明智地划定:在做出全部与击毙敌人相关的打算时都必需有人参加此中(in every kill decision,a human would have to be involved)。因而,关于一种人力智能武器体系来讲,它是无权限向没有人机下达进击指示的。只是在这方面,咱另有一种疑问,防御性武器体系能否可行由人力智能来操控呢?也便是说,未来能否可能显露一个能够比人更精准地辩别来袭导弹、更精确地发展瞄准响应、更迅速地下达发射命令的反导体系呢?进击性武器必需由人来操作,而在发展防御时,能否也必需由人来操作呢?

  阿什顿·卡特:从道德方位来讲,防御比进攻时的顾虑更少,这是全无疑问的。顺便提一下,尼古拉斯,你刚才说“由人来操作”,咱以为这其实不适合实是。这是一律不可能的,况且很早从前人就曾经不在武器体系的决策环内部了(it‘s not literally possible, and hasn’t been for quite some time, to have a human in the decision loop)。你的意思或许说咱们实质上在谈论的难题是:咱们该如何保证人力智能技艺在利用时能够遭到道德判断的干预。或许换一个说法:假如人力智能把难题搞砸了,你该如何为本人辩解呢?当你站在法庭上,站在股东眼前,站在记者眼前,你该如何解释“人力智能把事宜搞砸不应被视为人类的一个犯罪”呢?这是一种十分实质的难题。

  假如你是一种采纳了人力智能技艺的广告商,那自然难题适中。一种从不买东西的人可能收到了你推送的广告,或许一种经常购物的人无收到你的广告,这点都非是很惨重的难题。但是在涉及国度平安时,在军事、法律或许医疗范畴,人力智能犯下错误就会形成很惨重的后果。

  在军事范畴,相较于防御,进攻举止所担负的责任愈加重要。比如,发射核武器的决策便是惨重依赖人类意志的,发射核武器的命令必需由美利坚合众国总统亲自下达。咱曾担任国防部长,可是咱本人和咱全部的部下全没有按下核按键的权力。咱们绕过总统自行打算运用核武器的可能性是不存留的,咱们必需得到总统的核武密码才能发射。况且咱本人也有一组核武密码以声明咱便是国防部长本人,终归发射核武器是最高层级的军事举止。

  自然,也有层级非是那末高的军事举止,例如拦截来袭导弹。假如反导体系犯了错误,它在美国无遭到进击时向空中发射了一颗导弹,这颗导弹在空中爆炸了,导弹很贵,损耗了好多钱,军方会出丑,可难题适中,终归无死人。总统把实行这一军事举止的权力给了咱,而咱把这种权力又给了美国北方司令部的洛里·罗宾逊(Lori Robinson)将军。她自然也可行把这种权力再下放给更低层级的军官,由于这类军事举止无发射核武器那末事关重要。

  另外,在发射核武和反导这两者之中另有一种居中的层级,例如击落民航客机,这也是一种后果十分惨重的军事举止。只是总统把这一权力下放给了国防部长,咱在任时期每天皆是肩负这一责任的。你或许不晓得,此类事故曾屡次产生。有时刻是民航客机偏离了航线,有时刻是没有线电应答出了难题,有时刻甚而一架飞机干脆冲着国会大厦飞过来,有时刻悲剧是难以幸免的。如何应对,还要看详细概况。

  咱想咱们今日谈论的难题是观众们平常在运用大数据和人力智能时都会碰到的,那便是——咱们该如何让技艺举止也适合伦理道德准则?向大家发展说教是意义适中的,大伙须要很实质的提议。是以咱期望把这种难题发展简单化,也便是说:咱们该怎样做才能让技艺举止适合伦理道德准则?咱要讲的是详细的做法而非是原因,由于咱们每私人都想做一种有道德的人。咱们必需做一种有道德的人,不然咱们的工作就会不成功,咱们的名誉就会丧失。关于全部一种有良心的人来讲,做不道德的事是会令其心里崩溃的。

  尼古拉斯·汤普森(总编辑):是的,咱们应当好好讨论一下您说的难题,只是起首咱们仍是先谈一谈您刚才提到的击落民航客机的话题。当一架飞机向白宫或五角大楼飞去的时刻,您作为国防部长会收到对于飞机时速、方向等消息的汇报。只是在未来,自动化的防空体系可能会比此刻愈加高效,它可行追踪每一架飞机,对其信号发展剖析以判断该飞机能否应被视为恐怖威胁。您以为未来有一天能否会显露一个事业效能极高、极可信赖且事业原理可被人类了解的人力智能体系能够在没有需顶级军官受权的概况下自动执行击落飞机的任务呢?

  阿什顿·卡特:咱期望这一天最佳不需要到来。担任国防部长时,咱的事业日程表是排得满满的。要晓得,咱在夜里12点还无睡。保密手机就在咱旁边,联邦航空局、联邦考查局和中央情报局都有人在手机线的那一边待命,军队的指挥官们也在待命,大伙的神经皆是紧绷的。有时刻留给咱们采用行动的时间唯有几分钟。几分钟时间仍是有的,其实不是几个毫秒那末危急。

  只是也有此外一个概况,便是必需对形势作出极为迅速的反映,快到不容人类介入的水平。假如形势请求咱们作出如许迅速的反映,咱们又该如何保证道德要素能够参加此中呢?谜底就要在算法、数据集、武器体系设置进程以及设置准则中去寻觅了,况且要保证终归拿出的武器体系在道德层次是站得住脚的。咱们没有办法参加武器体系的剖析决策,只是咱们必需保证体系所采用的行动在道德上是站得住脚的。它不一定完美,但必需在道德层次表现出其正当性。

  该怎么做到这一丝呢?这就要靠算法了。机器学习算法是如何实现那一些设置意图的呢?这种难题是不太简单搞清楚的。你须要把那一些设置指标发展分解,你须要让设置团队认识到算法须满足必定的设置准则,不然终归制造出去的武器体系是没有办法投入实质运用的。设置团队要很严刻地对数据集发展检查。数据集其实不是越大越好,品质始终是第一位的。待一切都达成以后,你须要从头到尾发展审查,全个事业过程却非是全自动的,此中有些步骤会涉及人力,而只需是人就会犯错。在全个事业进程中,你要有一套设置合同和测试合同。飞行器的飞行软件设置便是一种相比类似的例子。波音737MAX机型搞砸了,尽管不隶属人力智能体系,但这种机型的飞行软件设置也是十分繁杂的。依据设置,该软件在飞机飞行时将发挥极为要紧的效用,但软件设置团队仍是把这种事业搞砸了。它们是怎样搞砸的?该如何发展正确的设置?最典范的法子便是在设置团队A之外还要创建一种与之有竞争关连的设置团队B,另外还要有专门的检查团队对设置团队的事业效果发展周全的测试。

  采用这点举措其实不能保证必定不出难题,只是它会使人工智能在利用时满足道德准则。咱们至少须要做到一丝,那便是即使人力智能会犯错,咱们也要保证本人在道德层次是没有懈可击的。这一丝十分要紧。作为美国的国防部长,咱必需让本人的举止适合道德准则。为了庇护美人民众的平安,有时咱们会运用很暴力的伎俩,但暴力的运用也要适合道德准则。就人力智能武器来讲,假如你没有办法在武器实质运转时做到这一丝,那末你就要在设置时把它考量进入。

  不论如何,咱们不行对记者说出这样的话:“昨晚有人被炸死了,是误炸,是自动化的武器体系发展的误炸;咱此刻还没有办法叮嘱你详细原因,只是的确非是人的操作,却是机器发展的误炸”。假如显露这样的概况,咱这种国防部长会被大家钉在十字架上的。实质上,从技艺方位来讲,幸免显露这样的概况仍是可行操作的。你在算法、数据集、武器体系设置进程这几个方面把好关,这样出了难题时你就可以在法官眼前、在公众眼前、在记者眼前拿出说得往日的理由。本来这类概况十分普及,每天全在产生。假如事故中死了人,肇事者就会对法官说:“产生这样的事故十分不幸,咱并未酒驾,咱也无超速,可事宜仍是产生了”。只需是机器就会产生故障,咱们对这一丝也全能接纳,唯有道德层次的错误是咱们不行接纳的。

  尼古拉斯·汤普森(总编辑):假如咱没了解错的话,您的意思是,人力智能和机器学习技艺未来在软件设置进程中是极为要紧的;这点技艺会更多地在防御性而非进攻性武器体系中得到利用;这点技艺在战场迅速决策时极为要害;作为该技艺的根基,经人类探讨得出的算法应当是可了解的,况且从法律方位来讲也应当是可解释的;另外,作为该技艺根基的数据集也应当是通过用心检查并值得相信的。您大概是这样一种意思对吗?

  阿什顿·卡特:是的。一种优秀的工程师在这种难题上会讲,“不需要不过空谈道德准则,咱们应当用技艺把它加以贯彻”。你的上述说法很言简意赅。

  尼古拉斯·汤普森(总编辑):下方咱们聊一种很大的话题。您以前指明,假如美国没有所作为的话,那一些专制国度就会经过人力智能技艺重塑咱们这种全球的诸多准则。您以为在未来几年里美国在人力智能政策方面有哪些相当大、很危险的疏漏须要弥补呢?

  阿什顿·卡特:曾有人问咱,“互联网会断裂吗?”本来华夏曾经做出了抉择,华夏曾经公布宣称它们要独立自助,它们要活在由本人制订准则的体制里,只是这类做法其实不适合咱们美国的价格观。咱们不会去改变它们,但咱们也没有需改变本人的价格观。是以,本来没甚么可争的。就像刚才咱们谈论的话题,咱们干咱们的。只是除了美中两国,这种全球上另有很多其它国度。要晓得,仅华夏一种国度就差不多于半个亚洲。假如亚洲的另一半以及欧洲国度等全球列国全能留在咱们这种尊重法治的体制里,那末这种体制里的企业就可以够接着赢利,它们的协议就可以获得执行,人士的自由流动、消息的自由流传、技艺进步和社会公正等近来遭到威胁的价格观就可以得到有力维护。咱们的体制依然可行在全球上发挥榜样的效用,全球列国依然可行在咱们的技艺生态体制里进行。

  只是,面临华夏时咱们仍是要有个现实的态度。华夏和俄罗斯不同。俄罗斯不论人数仍是经济全在走下坡路,它的作用力一直在衰落,假如俄罗斯无在咱们的选举中拼命搅局的话,这种国度在美国人眼里不会有甚么存留感。一种无实力的搅局者对咱们来讲是危险的,由于除了捣乱,它无能力做别的事宜。很赫然,俄罗斯之是以具有捣乱的能力是由于它是个核大国,只是咱们这边谈的是网站。俄罗斯在科技范畴没有办法成为独立的一极。令人遗憾的是,华夏却有这种实力。

  咱曾经跟华夏人打了30年交道,咱曾一度期望它们能变得跟咱们一样,咱们美国人都曾有过这种期待。本来,很久从前咱对华夏人就不抱甚么期望了。它们不会走咱们的公路。假如你读过华夏的少许文献,你会发觉它们要构建隶属本人的一套体制。它们是共产党国度,它们要技艺为它们的理念效劳。这类想法与咱们的体制是不兼容的,是以咱们须要与它们的体制开展竞争。

  只是,这其实不意指着咱们要切断与华夏的贸易关连。咱期望咱们能搞出一种双轨制,在某些范畴里咱们可行跟华夏人接着做业务,只是在另少许范畴里咱们分属不同的技艺生态体系。咱以为美国比往日要强盛,咱们的体制比华夏的要好,是以咱没甚么可忧虑的。尽管这样一个未来其实不非常理想,可这便是咱们要面临的现实。华夏人曾经做了它们的打算。

  尼古拉斯·汤普森(总编辑):日前有众多人主张一个看法,况且这类看法曾经得到了好多扶持,它们以为美国须要改变战略。咱们日前的做法是与华夏脱钩,咱们要捣毁华为的制造线。而它们以为美国应当向华夏伸出橄榄枝,它们以为两国应当就人力智能技艺的进行一同制订准则、分享数据集,两国应当建立一个愈加合作互助的关连。假如咱无了解错的话,你是反对这类看法的,你以为这只是是一个很美没有问题设想,无实质意义。咱说的对吗?

  阿什顿·卡特:是的,你说的根本正确。能合作的时刻咱们自然仍是要合作;在对咱们本人有益的时刻,咱们自然仍是乐意跟华夏人做业务。只是华夏曾经打算要走本人的路。美国在鼎盛时代的价格观与欧洲启蒙时代的价格观是绝对的,自然最近几周产生的事宜讲明咱们距离鼎盛时代仍是有差距的。大家在启蒙活动中曾高举“人的尊严”这一旗帜,而此刻咱们会用“大众的尊严”这一说法。华夏有本人的政治哲学,它们的政治哲学适合它们华夏人的价格观。假如你是华夏人的话,接纳那套政治哲学无难题,只是那套政治哲学对咱们是不适用的。

  关于那一些主张与华夏合作的人,咱的回应是,能合作的时刻咱们自然会合作。只是咱要指明一丝,假如它们期望经过合作来改变华夏,在咱看来,历史其实不会站在它们一边,它们的想法仍是有些幼稚了。只是美国和华夏其实不会打开第三次全球大战,两国甚而还不会打开冷战。与冷战时期的剧本不同,咱们今日要写一套新的剧本。好多人全在问美中两国能否会陷入冷战,咱经验过冷战,与今日的形势比较,冷战仍是要容易少许。咱们在冷战中的对手是前苏联——一种共产主义独裁政权,咱们不过与它发展道德斗争,美苏之中无甚么贸易运动。那时美国的对苏政策就好像把一层防水膜严严实实地裹在苏联身上,甚么也穿不透。甚而百事可乐在苏联到市场那时也被视为一种很重要的事故。

  可现在美中关连却不同,咱们是期望与华夏发展贸易的。是以咱们须要一套新的剧本,这套剧本有表现防御色彩的一面,例如说出口管控,另有你刚才提到的咱们对华为采用的举措,对中资在美国企业全部权方面的节制以及反间谍举措等等诸如许类。只是这套新剧本最重要的仍是应当表现一个主动进攻的色彩——美国要成为一种优秀的国度,咱们要变得更好,咱们要在人力智能范畴鼎力投资,咱们要在人力智能范畴引领全球,咱们要和其它国度一同面向未来建立一种一同的技艺体制,在这样一种技艺体制内部,科技进行快速,但其进行方向应当是有益于维护咱们的价格观的。

  咱们须要一套与冷战时代十足不同的剧本,只是在往日四年里咱们并未拿出这样的剧本。咱们尝试了各式应对之策,咱们对华夏输美商品加征了关税,采用了众多相似的自保举措。只是咱感觉这点做法仍是太草草了。美国应当拿出一套更简练、更通过深思熟虑的对华政策。咱信任拜登新政府会在这方面有所作为。新政府里的官员咱都很熟悉,咱们很早从前就认识了,它们皆是各范畴的资深人员,此中自然也包括科技范畴。咱们须要辅助它们把这种新的剧本编写出去,咱信任把这件事做好是十足没难题的。

  咱期望在这套新的剧本里咱们能愈加重视主动进攻的一面。“主动进攻”非是说要去攻打华夏,却是说要提高咱们本人的实力,咱们不行总是想着要削弱对手,还不能总是想着如何自保,却是应当想一想该如何让美国变得更好。这才是新剧本中最要害的位置。

  尼古拉斯·汤普森(总编辑):咱期望有人,或许是此刻在政府里任职的人,能像当年乔治·凯南那样再写一份“长电报”或所谓的“X文稿”(1947年7月,时任美国驻苏联代办乔治·凯南署名“X男士”在《外交事务》杂志以《苏联举止的根源》为题公布发表了1946年2月撰写的“长电报”的内容,文章准确提议“美国应当对苏联的扩张偏向发展长久、耐心、坚定、警觉的遏制”——观看者网注),为咱们阐明一套适理当前概况的新版对华遏制策略。

  阿什顿·卡特:政府里其实不缺少有此能力的人,只是它们须要科技产业的辅助。咱一直主张的一种很要紧的看法便是,咱们应当在科技产业和政府之中搭建桥梁。本来咱以为咱本人扮演的便是这样一个角色,咱曾是个物理学家,咱是个科技迷。自然,咱也很明白搭建这样一座桥梁其实不简单,只是为了打造一种咱们大伙都期望生活于此中的全球,做到这一丝尤为要害。

  尼古拉斯·汤普森(总编辑):下方咱们选几个观众提议的难题。你感觉国防部里面有多少人能够意识到国防部在科技企业眼中本来是一种挑剔的小消费者况且国防部其实不在它们的高级消费者之列?自然,就咱所知,你一直在很努力地改变国防部的这一造型。

  阿什顿·卡特:咱最最初在卡斯帕·温伯格(Caspar Weinberger,1981-1987时期担任美国国防部长,人称“冷战武士”;他在任时期负责实行2万亿美元的军事扩张计划,参加推进了美国在和平时代第一大范围的军力提高——观看者网注)手下事业,当时候“星球大战”计划作用庞大。那时全世界最重要的科技进步皆是在美国显露的,之是以如许是由于美国政府发挥了要紧的推进效用,互联网、GPS等皆是当时的效果。只是此刻概况不同了,咱对现状自然是很理解的。国防部日前在科技范畴扮演要紧角色,咱们在研发方面的投入比全部大型科技企业的总和还要多。只是你说得对,国防部在分包商眼中相对来讲不过个令其感觉麻烦的小消费者。咱们的收购过程非常烦琐,这对咱们是不利的。好多企业都讲,“跟五角大楼合作使人头疼,切实划不来”。因而关于国防部的领导们来讲,它们应当尽己所能增添本人对科技企业的迷惑力。伎俩之一是对科技研发发展投资,国防部要对具有广大利用前景的全新科技的研发发展资助;伎俩之二便是国防部要做新技艺的尝鲜者,新技艺在刚刚公布时价值皆是相比高的,但国防部仍是应当承担那个价值,由于它们必需做好本人的分内事。这样做就可以对美国的科技资产起到庇护效用。是以说,国防部仍是可行有所作为的,但国防部不行把本人封闭起来,它须要融入到大的军事产业生态体系中去。国防部要谦虚地认识到本人曾经没再像往日那样主导一切了。咱是亲身经验了这一浮动进程的,当前的概况曾经与咱刚刚最初事业时十足不同了。

  尼古拉斯·汤普森(总编辑):咱们再选一种有价格的难题。最近美国政府的体系频频遭到黑客入侵,您以为咱们该怎样做才能让咱们的人力智能武器体系尽量少地遭到外军干扰呢?您在这方面有无有个大的构架性的想法?

  阿什顿·卡特:本来咱们的武器体系与平凡网站之中并未那末大的差异,咱们为武器体系所采用的平安举措与通常意义上的网站平安举措是一样的。总结起来便是“平安上网,别犯错误”。许多数难题皆是由粗心大意引起的,SolarWinds事故也是如许。例如,敲击附件链接就可能激发难题,众多重要网站平安车祸皆是这样产生的。

  此外就涉及技艺了,在这方面咱们也有待增强。据咱所知很多企业都想本人做企业的网站治理,咱之前在国防部事业的时刻,国防部等政府部门都很关心网站平安难题,而那一些网站企业给出的解决方案而是模块化的,它们说模块A是这种功效,模块B是那个功效。这样一来就会碰到体系整合的难题。关于政府部门或非技艺类企业来讲,它们本人不容易解决这种难题。另外,也有的企业宣称它们可行帮你做体系整合,只是实质上它们不过想借机卖本人的产物。是以咱以为咱们在全个网站平安体系中真实欠缺的本来是高品质可信赖的体系整合方案。咱接近过的众多企业都很明白,体系整合是其企业网站的一种庞大的软肋。即使你是全家做平凡小商品的企业,假如你的企业数据、商业机密或许消费者消息泄露了,那也是天大的麻烦。这边面潜藏着庞大的商业风险。令人遗憾的是,咱们为了庇护本人并未拿出甚么特别没有问题法子。

  只是这种难题得到解决的前景还不是一片黯淡,咱们刚才非是聊过人力智能吗,人力智能有它的难题,它给咱们带来了挑战,只是人力智能在网站平安方面是可行帮上忙的。黑客在启动网站进击时可行应用人力智能对进击界面发展周全的剖析,只是作为网站使用者你也可行借助人力智能发展周全的防御。不论进击仍是防御,这边面的技艺是共通的,叫做“整天候周界监测”(constant perimeter surveillance)技艺,它可行持续不停地对网站入侵等异常景象发展监测。因而,在网站平安方面,人力智能是一把双刃剑,它是你的敌人,但也可行成为你的友人。

  尼古拉斯·汤普森(总编辑):是的,的确如许。咱们继续看下方一种难题,这种难题与咱们开始讨论的话题相关。当人力智能显露难题时,谁应当承受责任呢?谁该为人力智能技艺中的毛病负责呢?是程序员?顶级治理人士?仍是别的甚么人?不论是谁,莫非咱们人类不该为人力智能所犯下的错误承受某种责任吗?

  阿什顿·卡特:是的,人类没有办法逃避责任。说实话,从道德方位来说,咱以为为人力智能技艺所形成的后果承受终归责任的人是这一技艺的实质运用者。假如你是一种企业的boss,你在为消费者效劳时设施出了难题,你可行去找设施的供给商。只是从实质方位来讲,你企业的声誉必定会受损,你的业务也会受作用。作为设施供给商的消费者和设施的实质运用者,你有责任请求供给商提供无难题的设施,你应当很明白一朝出难题本人是没有办法把责任推给别人的。假如你的企业运用有难题的设施,出了难题你是会遭到指责的,你也应当遭到指责。你没有办法把责任推给设施供给商,这行不通,由于大家会讲,“请等一等,是你在许多设施中抉择了这种品牌的设施,你理解这种厂商的产物,它是你的抉择”。

  在咱看来,你有个担责链条。假如你是设施供给商的消费者和设施的实质运用者,你应当对供给商提议请求,你应当对他说:“咱必需保证这种设施无难题。请向咱确保,从算法的方位也好,从数据集整合的方位也好,从测试估价的方位也好,咱在运用你的人力智能产物从事企业经营时是不会有全部难题的”。你可行把全个难题分解为两个工程难题,接下来区别寻到解决方案。一朝你收购了一辆人力智能设施在你的企业里运用,你就要为此台设施承受责任了。咱曾担任国防部长,出难题时咱会对总统说:“咱是一名负责的官员,在公众眼中咱是命令下达链条中的二号人物,咱没有处藏身,咱没有办法推脱责任,咱还不应当那样做。你期待咱会维护你,但同一时间你也期望咱能以道德准则行事”。本来这番话对全美国全部的商界领袖皆是适用的。它们不可能把全部责任都推给技艺,它们必需对技艺的供给商说:“咱须要可靠的技艺”。

  尼古拉斯·汤普森(总编辑):谢谢您参与咱们今日的访谈节目。咱期望政府里有人能见到这一期节目。信任拜登新政府会对咱们今日讨论的难题有深入的思考。

  (观看者网马力译自2021年1月17日美国《连线》杂志网络)