前国安顾问沙利文谈美中AI

国华P (2026-05-04 11:59:50) 评论 (0)

斯坦福大学以人为本人工智能研究所(Stanford University Human-Centered Artificial Intelligence)4月3日发布的《2026年人工智能指数报告》说:“中美AI模型性能差距已基本消除”(The U.S.-China AI model performance gap has effectively closed)。而中国大陆的DeepSeek在4月6日发布其最新V4大模型时指出,该模型落后美国顶尖大模型“3-6个月”。4月29日和5月1日,美国智库外交关系委员会和国家标准与技术研究院(NIST)下属人工智能标准与创新中心(CAISI)分别公布了他们的专家对V4模型测试后得出结论:DeepSeek的V4大模型要落后世界顶尖的美国闭源模型7-8个月。无论如何,美中间的AI竞争正如火如荼,正吸引包括美国政商科技在内的各界人士,包括拜登政府的国家安全顾问沙利文,的高度关注。毕竟,AI竞争的胜负攸关美中两国的国家命运 – 争霸失败,抑或是挑战成功。

哈佛大学肯尼迪学院教授、前拜登政府国安顾问沙利文(Jake Sullivan 下图1A Instagram)和耶鲁大学法学院的法学博士候选人费尔德曼(Tal Feldman 下图1B Instagram)在1月27日一期的《外交事务》网站发表题为《Geopolitics in the Age of Artificial Intelligence》的文章,就人工智能时代的地缘政治策略向美国政府建言。沙利文和费尔德曼认为,人工智能战略不能建立在单一预测之上,而应在高度不确定性中进行情景化、概率化规划。两人的文章围绕三个关键不确定性展开:

1. 人工智能是否会走向超级智能,还是长期呈现有限且不均衡的发展;

2. 突破性成果是否容易被复制,追赶是快还是慢、成本是低还是高;

3. 中国大陆的战略选择:是全力冲击前沿,还是侧重应用部署和商品化扩散。

文章提出了一个 2×2×2 的三维矩阵,将上述三个问题的不同答案组合成八种可能的未来场景(“八大世界”),用来检验和设计美国在不同未来情景下的人工智能战略。

沙利文和费尔德曼认为,在不同情景下战略重点会发生变化:

  • 若超级智能可实现且难以复制,重点在于前沿研发、算力控制、出口管制与风险管理,甚至可能需要“曼哈顿计划式”的国家动员。
  • 若技术易复制,竞争核心将转向扩散、部署和生态建设,谁的系统先被全球采用,谁就定义规则和价值观。
  • 若中国大陆不全力冲前沿,美国将拥有战略窗口期,但必须警惕其通过低成本应用和商品化实现反超。
  • 在多数非极端情景中,产业基础、算力、能源、人才、制造能力、盟友合作和风险治理都是长期有效的“底盘能力”。
沙利文和费尔德曼在文中强调:

  • 私营部门是创新引擎,但其利益不必然与国家安全一致,政府需通过政策信号、激励和规则进行引导。
  • 出口管制、政府采购、开放或闭源策略、海外部署融资,都是塑造全球人工智能格局的关键工具。
  • 风险管理不是拖累,而是维持稳定、合法性与长期竞争力的必要条件。
沙利文和费尔德曼指出,人工智能不是一次性事件,而是持续演化的战略格局。两人的文章最后向华盛顿提出了行政建议:真正成熟的战略不是押注某一个未来,而是一种能在多种未来中保持优势、并随形势变化不断调整的战略方法。如果美国学会以这种方式思考,它将塑造人工智能时代;否则,未来将由他人决定。以下是文章主要内容。

每个人都对人工智能有自己的看法。有人认为这项技术正朝着超级智能发展 - 超级人工智能将带来超越以往任何技术的划时代变革。还有人则认为它将提升生产力和促进科学发现,但其发展路径可能极不均衡,也未必会像超级智能那般剧烈。人们对突破性进展能否被复制也存在分歧。一些人认为竞争对手会迅速跟进(即快速模仿),而另一些人则认为追赶的速度会越来越慢,成本越来越高,从而使先行者获得持久优势。尽管许多人确信中国大陆决心在前沿领域超越美国,但也有人坚持认为北京专注于现有技术的落地,同时力求蒸馏复制美国出现的前沿创新。人们对于突破性进展能否被复制也存在分歧。一些人认为竞争对手会迅速跟进快速模仿前沿创新,而另一些人则认为追赶会变得越来越慢、成本越来越高,从而使先行者获得持久优势。尽管许多人确信中国大陆决心在尖端领域超越美国,但也有人坚持认为…

每一项自信的政策论证都建立在对上述哪种说法正确的假设之上。那些优先考虑前沿创新的人假设突破性成果会不断累积且难以复制,而那些专注于在海外推广美国系统的人则往往得出相反的结论。如果这些假设是错误的,那么基于这些假设制定的战略将会浪费资源,并可能导致美国失去领先地位。寄希望于科技发展将线性前行固然诱人,却与客观现实相悖。华盛顿不需要对人工智能时代做新的预测,而应在不确定性中做出选择 - 一种能够确保美国在多种可能的未来中保持优势,并随着人工智能时代格局的逐渐清晰而不断调整的方法。

在人工智能迅猛发展的时代,人们不断追问一个问题:美国应当如何制定自己的AI战略?这似乎是一个技术问题,实则却是一场关于未来秩序的深层博弈。沙利文和费尔德曼并没有急于给出答案,而是先指出一个更根本的事实 - 未来并不确定。与其试图预测唯一的结局,不如承认不确定性本身,并在此基础上构建一套能够应对多种可能性的思维框架。在作者看来,人工智能的未来大致取决于三条相互交织的轴线。

第一条,是技术本身的走向。人工智能究竟会迈向一种远超人类、能够自我迭代、自我强化的“超级智能”,还是停留在一种虽然强大却始终有限、甚至发展不均衡的状态?这是一个分水岭。如果超级智能成为现实,那么哪怕最初的微弱领先,也可能在自我加速的过程中被无限放大,最终形成难以撼动的优势;而如果技术始终存在边界,那么决定胜负的就不再是突破本身,而是应用、整合与扩散。

第二条,是技术扩散的逻辑。突破性成果究竟是“难以复制的护城河”,还是“可以迅速传播的公共产品”?如果复制轻而易举,那么领先者的优势将转瞬即逝,竞争将演变为一场速度与规模的较量;反之,如果技术依赖复杂的生态 - 芯片、数据、人才、基础设施 - 那么优势就能够积累,并在时间中沉淀为结构性的力量。

第三条,是中国的选择。它是全力冲击前沿,与美国正面竞争,还是更加耐心地布局应用与产业化,在关键时刻实现跨越式追赶?这一变量,使原本抽象的技术问题,变成了具体的地缘政治现实。正是在这三条轴线的交汇处,八种截然不同的未来浮现出来。这些可能的未来景象并非是预言,而更像是一组“思想实验”,用来检验战略在不同世界中的适应性。

在最紧张的情境中,世界可能重现一种熟悉却更加危险的图景:如果超级智能既可实现又难以复制,而中美双方都全力以赴,那么竞争将迅速演变为一场“认知层面的军备竞赛”。谁率先突破,谁就可能在经济、军事乃至认知层面获得压倒性优势。在这样的世界里,技术不再只是工具,而其本身就是实力。美国甚至可能不得不动员国家力量,以类似历史上重大安全项目的方式推进人工智能发展,同时严密封锁关键技术,防止任何形式的外泄。

但历史并不总是走向极端。另一种可能是,美国率先取得领先,而他国难以追赶。在这种情形下,问题悄然发生转变:竞争不再是核心,治理才是。一个国家独占如此强大的技术,将不可避免地引发信任危机。美国必须证明,它不仅能够领先,还能够负责任地领导 - 不仅追求自身利益,也愿意为全球秩序提供稳定的规则与公共产品。还有一些未来,则更加混沌不定。如果技术既强大又容易复制,那么任何领先都将是短暂的。世界将迅速进入全面扩散的时代。在这种格局中,封锁变得徒劳,控制变得困难。美国真正需要构建的,不再是“壁垒”,而是“韧性” - 一个能够承受技术滥用、系统攻击乃至意外失控的社会与国家体系。而更接近现实的图景,或许是另一种更“正常”的竞争:人工智能持续进步,但并未彻底颠覆世界。此时,胜负不再取决于谁最先突破,而在于谁能更快地把技术转化为生产力,嵌入产业、进入市场、改变日常生活。在这样的世界里,扩散本身就是战略。技术如果不能被广泛采用,就无法转化为真正的力量。

贯穿所有情景的一条暗线,是国家能力的再定义。文章提醒我们,美国政府虽然并不直接掌控最先进的实验室,但它依然拥有塑造生态的能力。通过出口管制、投资导向、科研资助以及政策信号,政府可以影响资本流向、企业决策乃至整个创新体系的节奏。更深层的基础,则始终没有改变:计算能力、能源供给、人才储备、工业体系。这些看似“传统”的要素,依然是决定未来竞争的底层支撑。人工智能并没有摆脱物理世界,它只是以新的方式重新依赖它。与此同时,风险管理在文中被赋予了新的意义。它不再只是发展的阻力,而是维持竞争可持续性的前提。如果人工智能因失控或滥用引发灾难,那么所谓的领先与竞争也将失去意义。真正稳固的优势,必须建立在安全与信任之上。在所有议题之中,“扩散”或许是最具决定性的。谁的系统被世界采用,谁就定义规则;谁的标准成为默认,谁就塑造秩序。这也是为什么技术竞争最终往往演变为生态竞争 - 不仅是“谁更先进”,更是“谁被更多的使用”。

回到最初的问题:在这样一个充满不确定性的时代,战略应当如何制定?文章给出的答案出人意料地克制:不要寻找唯一正确的路径,而要学会在多种可能性之间进行权衡。政策制定者需要设定一个“最可能的未来”,但同时也必须为那些风险最大、后果最严重的情景做好准备。真正稳健的战略,不是押注,而是对冲。换句话说,关键不在于预测未来,而在于不被未来所击倒。

文章的最后,将这一框架从政策层面延伸到公共讨论。它指出,许多围绕人工智能的争论,其实并非意见冲突,而是前提不同。有人相信技术将迅速失控,有人认为它终将受限;有人担心对手领先,有人更关注扩散风险。如果这些假设不明确,讨论就很难真正展开。因此,这一框架的意义,并不在于给出答案,而在于提供一种提问的方式。归根结底,人工智能并不是一个可以被“解决”的问题,而是一种持续展开的历史进程。它既是技术革命,也是权力重组,更是秩序重塑。在这样的时代里,真正重要的能力,或许不是预见未来,而是在不确定中保持方向感。

而谁能做到这一点,谁就更有可能,在这场尚未定型的变局中,定义未来。

* 本文作者之一杰克·沙利文(Jake Sullivan)现为哈佛大学肯尼迪学院基辛格国家治理与世界秩序实践教授(Kissinger Professor of the Practice of Statecraft and World Order)。他曾于2021年至2025年担任拜登政府的美国国家安全顾问。

  本文另一作者杰塔尔·费尔德曼(Tal Feldman)现为耶鲁大学法学院的法学博士候选人。费尔德曼此前曾在美国政府部门从事人工智能系统开发工作。

参考资料

Center for AI Standards and Innovation. (2026). CAISI evaluation of DeepSeek V4 Pro. National Institute of Standards. 链接 https://www.nist.gov/news-events/news/2026/05/caisi-evaluation-deepseek-v4-pro

Council on Foreign Relations. (2026). DeepSeek V4 signals a new phase in the U.S. – China AI rivalry. 链接 https://www.cfr.org/articles/deepseek-v4-signals-a-new-phase-in-the-u-s-china-ai-rivalry

Human-Centered Artificial Intelligence. (2026). The 2026 AI index report. Stanford University. 链接 https://hai.stanford.edu/ai-index/2026-ai-index-report

Sullivan, J, & Feldman, T. (2026). Geopolitics in the Age of Artificial Intelligence. Foreign Affairs. 链接 https://www.foreignaffairs.com/united-states/geopolitics-age-artificial-intelligence