AI时代的地缘竞争:8种“可能世界”?

日期:2026-02-25 14:08:20 / 人气:31



人工智能不仅是产业议题,更是国家安全与国际权力格局的关键变量。各国身处高度不确定的技术与地缘政治环境中,都在竭力确立自身的战略定位、争夺竞争优势。

美国拜登政府时期的国家安全顾问沙利文曾撰文指出,人工智能的发展并非只有“唯一未来”,应围绕“超级智能或有限智能”“技术易被追赶或难被追赶”“中国竞速或不竞速”这三大核心维度,构建包含8种“可能世界”的分析矩阵。他强调,美国制定人工智能战略时,既要聚焦前沿能力建设、能源与制造基础等长期竞争力,也要重视风险管理、盟友协同等工具的组合运用,确保美国相关战略在高风险世界中依然具备韧性。

作者:Jake Sullivan|美国前国家安全顾问;Tal Feldman|耶鲁大学法学院博士研究生
原文标题:Geopolitics in the Age of Artificial Intelligence
原文来源:外交事务
原文编译:数字经济发展评论

每个人对人工智能都有自己的判断。有人认为,人工智能正朝着超级智能方向加速演进,这种远超人类水平的AI将带来前所未有的颠覆性变革;也有人认为,AI虽能提升生产力、推动科学发现,但其发展路径可能更加不均衡,实际效果未必具备戏剧性突破。

人们对于技术突破的可复制性也存在明显分歧。一部分人认为,竞争对手会迅速跟进、快速模仿,难以形成持久领先;另一部分人则认为,后续追赶会变得更慢、成本更高,先发者将获得难以撼动的持久优势。

在对华判断上,分歧同样存在:许多人确信,中国决心在AI前沿领域赶超美国;但也有人认为,中国更专注于现有技术的落地应用,同时借鉴、复制美国的尖端创新成果,并未全力争夺前沿领先地位。

每一个看似笃定的AI政策主张,背后都隐含着对上述趋势的某种预设。例如,强调前沿创新的人,通常认为技术突破具有累积性且难以复制;而主张向海外推广美国体系的人,则往往持相反观点。一旦这些前提假设出现偏差,以此为基础制定的战略不仅会浪费大量资源,甚至可能让美国丧失AI领域的领先地位。

把所有赌注押在单一情景上看似诱人,实则极具风险。美国不需要再多一个关于人工智能时代的预言,它真正需要的,是一套在不确定性中做出科学决策的方法——一套能让美国在多种可能的未来中持续保持优势,并随AI时代演进动态调整的战略方案。

八种“可能世界”:AI地缘竞争的分析框架

无论人工智能最终走向何方,美国AI战略都应先明确成功的定义:利用人工智能强化国家安全、实现广泛繁荣,并在国内外维护民主价值观。当AI发展与公共利益保持一致时,便能推动科技进步、改善民生,助力应对公共卫生、发展议题与气候变化等全球性挑战。事实上,美国完全可以在负责任地管控AI真实风险的同时,实现这些核心目标。

关键在于如何实现这一目标。为了厘清政策背后的隐含假设、针对不同未来情景检验战略的可行性,研究AI地缘战略的研究者可以借助一个简洁且严谨的分析框架。这一框架围绕三个核心问题展开,每个问题都存在两种合理可能,将其组合便形成一个三维矩阵——一个包含八种可能世界的2×2×2分析框架。

这三个核心问题(即三大分析维度)分别是:

1. 人工智能的发展是会加速迈向超级智能,还是长期处在有限、渐进的水平?

2. 技术突破容易被复制,还是追赶难度大、成本高?

3. 中国是真正在争夺前沿领先地位,还是基于“后续可模仿、可商业化”的思路,将资源投向其他领域?

维度一:人工智能发展的本质特征

这一维度的一端是“超级智能”:即远超人类水平、能够递归自我优化、持续自主学习、不断创造新事物的人工智能,其发展可能带来历史性的彻底变革。

另一端则是“有限且不均衡的智能”:这类AI在科研、经济、军事等领域仍能发挥亮眼作用,但不会带来历史性的彻底断裂。说它“有限”,是因为其进步最终会遇到瓶颈,至少在一段时期内难以突破;说它“不均衡”,是因为它在数学、编程等理性领域表现突出,却在判断力、创造力或部分物理应用场景中存在明显短板。

两种发展方向对应的战略逻辑截然不同:如果发展方向是超级智能,哪怕微弱的领先都可能成为决定性优势,足以支撑对前沿领域的大规模投入;如果AI发展是有限且不均衡的,那么把无限资源投入“登月式”前沿项目,就不如优先推动技术落地与普及更具现实意义。

维度二:技术追赶的难度(“快速跟进”问题)

这一维度的一端是“追赶容易”:通过间谍活动窃取模型参数、在普通硬件上复现创新,或采用模型蒸馏(让小模型模仿大模型)等方式,都能快速复制前沿技术突破的成果,先发优势难以持久。

另一端则是“追赶困难”:前沿AI能力依赖完整的技术栈——包括专用硬件、机构积累的经验、庞大且独特的数据集、活跃的人才生态,以及诸多难以预见的结构性条件。尽管模型或软件层面或许容易复制,但训练与推理所依赖的硬件、基础设施和人力资本的质量与规模,却很难被复刻。

两种情景对应的战略重心不同:当追赶容易时,竞争重心更多转向技术扩散——抢先把美国体系嵌入海外市场,阻止对手推广其自身体系;当追赶困难时,扩散依然重要,但战略会更强调守护前沿能力的根基——即那些能让技术进步持续累积的要素与专业能力。贯穿这一维度的核心问题,并非AI是否会扩散,而是扩散的速度、扩散的对象与扩散的条件。

维度三:中国的AI战略取向

这一维度的一端是“中国全力竞速前沿”:即中国投入巨资开展大规模模型训练、建设竞争型实验室,真正争夺AI前沿领先地位。

另一端则是“中国不竞速前沿”:即中国并未全力参与前沿竞争,而是优先推动AI技术的应用与普及,偶尔推出大模型展示发展进展,以此引导美国过度聚焦前沿领域,自身则聚焦于技术落地与商业化。

需要说明的是,中国未必有一套完全连贯的国家AI计划,国内不同机构的行为也存在差异,但从体制层面看,其整体行为仍更接近“竞速”或“不竞速”中的一种。本框架以中国为焦点,核心原因是中国当前是美国在AI前沿领域的主要竞争对手;若未来其他重要力量崛起,这一分析矩阵也可相应调整。

当然,现实远比任何分析图表都更复杂。我们可以为框架加入更多维度,每个维度也可视为连续光谱而非二元对立:例如,中国可能在前沿研发上采取中间路线,技术追赶难度也可能处于中等水平,AI能力可能极强但仍有明确边界。尽管用二元结果便于战略规划,但决策者仍可以概率视角沿各维度思考,兼顾各种中间状态。例如,中国的部分投资策略,已经提升了其紧随美国甚至意外缩小差距的可能性。

更重要的是,决策者自身的选择,至少在一定程度上会影响AI未来的走向。美国的行动可以让技术追赶变得更难或更容易,这一点尤其体现在出口管制的收紧或放松上;而中国是加速还是放缓AI前沿布局,一定程度上也取决于其对AI发展速度与追赶难度的判断。不过,将不确定性纳入政策框架,至少能迫使决策者直面自身的假设,为多种可能的未来做好准备,而非只押注于单一情景。

AI地缘竞争的政策工具与核心优势

在展开具体的情景分析之前,有必要先厘清两个关键问题:究竟是谁在制定美国的人工智能战略?美国又拥有哪些工具,能够塑造人工智能的发展方向?

事实上,美国政府并不直接掌控国内顶尖AI实验室,也无法决定其研发方向;它更无法像中国那样设定明确的生产目标、引导资本流向特定领域。但即便如此,美国的政策选择与政策信号,仍会对AI生态产生显著影响——哪怕这种影响是间接的。

美国塑造AI发展的核心政策工具

其一,隐性补贴与市场引导。美国的许多政策,实际上构成了对国内AI产业的隐性补贴。例如,出口管制与投资限制,既能阻碍中国获取先进芯片与美国资本,也能通过限制美国及其盟友企业的最强竞争对手,间接提升本土AI企业的价值。同时,市场预期会进一步放大这种影响:当高层官员将AI领导力列为国家优先事项时,企业与投资者便会预期未来将出现更有利的规则、更简化的行政流程,以及与政府更紧密的协作。这些预期会直接影响企业的风险承担水平与投资者的布局方向,其作用甚至可能比国会拨款更为关键——毕竟拨款落地往往更为缓慢。

其二,直接支持与需求引导。美国的直接支持政策进一步强化了这些信号:研发税收抵免、基础设施投资、联邦研究资金,以及行政部门在许可、移民等方面的一系列决策,共同影响着AI能力的发展地点与方式。与此同时,随着美国各政府部门大规模测试与采用AI系统,联邦采购与合作本身,也成为一种重要的需求信号,能够引导企业聚焦特定领域的研发与应用。

其三,开放与封闭的平衡。美国还需要在“严格管控的专有模型”与“广泛推广的开源方案”之间做出选择——这一选择将直接影响全球AI技术的采纳格局。如果技术扩散与前沿突破具备同等战略意义,美国可能需要动用更多现有工具,为合作伙伴提供可替代中国AI体系的可信方案,并通过开发金融公司等机构,向市场机制难以覆盖的地区提供资金支持与部署服务。

美国AI战略面临的核心张力与关键优势

当前,美国面临的最艰巨任务之一,是平衡私营部门与国家利益的张力。私营部门仍是美国AI竞争的核心引擎,但企业的激励目标并不总是与国家利益完全一致。例如,美国许多顶尖AI实验室将重心押在超级智能的研发上,把大量资源投入大规模训练,而非AI的安全部署或广泛普及;部分机构更愿意在海外建设和运营大规模训练基础设施,以利用更宽松的监管、更低廉的能源与额外资金——这些选择都可能与美国的国家战略目标产生偏差。

但美国的优势从来不在于中央计划,而在于运用多种工具,将分散化的体系导向共同目标:通过创造政策激励、引导市场预期、推动资本服务国家战略,实现AI能力与国家安全、公共利益的协同。而如何利用这些工具维持美国在AI领域的领先地位,最终取决于未来出现的具体情景——在一种情景下合理的政策,在另一种情景下可能适得其反。

不过,大多数未来情景都存在几项共同的优先事项——这些要素构成了国家AI实力的核心,在绝大多数AI未来中都不可或缺,只是重要程度有所不同:

1. 算力与工业基础:算力仍是人工智能能力的核心基础,对芯片、数据中心及其运行所需能源的掌控,决定了谁能训练和部署推动技术进步的核心系统;而机器人技术与先进制造,则将这种数字能力延伸至物理世界,把智能转化为实际的生产能力。没有坚实的工业与科研基础,这一切都无从谈起——美国需要持续投入基础研究,既要支撑现有技术发展,也要探索AI开发的新路径;需要培育本土人才,也需要吸引全球顶尖AI人才;需要强化大规模制造能力,也需要保障AI系统运转的稳定能源供给(尤其值得注意的是,一旦AI企业面临电力供应不足,这一瓶颈就可能限制整体发展进度)。

2. 风险管理:风险管理常被看作一种约束,因为它可能放缓AI部署速度、限制试验空间,但它实际上能带来稳定性与合法性,避免AI竞争因事故、AI被恶意滥用,或部署人类难以可靠控制的系统而走向失控。同样重要的是,确保安全机制与国内政治支持能够快速跟进,与技术能力提升保持同步。

3. 技术扩散:即人工智能系统在海外的传播与应用。广泛落地的AI系统,将决定由谁的价值观与治理理念定义全球数字秩序,哪个国家能从中获得最大的经济与战略收益。目前,中国已将AI治理视为一项战略出口,借助自身的系统、标准与监管模板,影响其他国家的技术使用与监管方式;而美国在理念上认同技术扩散的重要性,却尚未在实践中充分证明这一点。

4. 盟友与伙伴:美国的盟友与伙伴,是AI地缘竞争拼图中最后也是关键的一环。与可信伙伴携手合作,可以放大美国的AI能力,提升由民主体系而非威权体系塑造AI时代格局的可能性。

八种“可能世界”的具体情景与战略应对

三大维度的二元组合,形成了八种不同的未来情景。政策制定者需要为矩阵中的每一种情景,匹配相应的合理政策方案,确保美国在任何可能的未来中都能保持优势。以下将逐一解析这八种情景的核心特征与对应的战略选择。

第一世界:超级智能可实现、技术难以追赶、中国全力竞速前沿

这一情景类似军备竞赛与太空竞赛的叠加,是一场争夺AI先发优势的激烈博弈,赌注极高。率先开发并掌控最先进AI系统的一方,将获得持久的技术、经济与军事优势;极端观点认为,一旦超级智能启动递归自我优化,领先优势会自我强化,后续追赶不仅困难,甚至几乎不可能实现(本框架将这种可能性视为“难以追赶”的极端情况,而非基准情景,并以此检验美国战略的韧性)。

在这种情况下,美国可能不得不考虑推行“曼哈顿计划2.0”:动员公共资源、强化政府与产业界的高度协同、采取类似军工项目的保密措施,甚至可能需要授予新权限或扩大1950年《国防生产法》的适用范围——该法案赋予总统为国防目的规范工业活动的广泛权力。这类举措将迫使决策者做出关键选择:是将研发集中于单一主体以实现严格安全监管,还是保留多个前沿实验室之间的竞争,依靠并行试验更快取得突破成果。

在此情景下,美国会将出口管制收紧到可执行的极限:半导体供应链的每一层都将受到更严格监管,与盟友的协调对规避管制规避行为至关重要;模型参数(决定AI系统行为的核心数值)、训练数据与数据中心,都需要加强防盗与防破坏保护。

值得注意的是,中美在风险管理上的合作,将围绕“避免人类失去对超级智能控制”这一共同利益展开。技术进展越快,AI事故与意外升级的风险就越高,自主AI系统之间可能出现双方都无法完全预判的互动。一个合理举措是达成相互克制协议,在限制特定AI技术开发的同时,中美各自建设能够跟上技术节奏的安全系统。但鉴于双方互信不足、核查难度高,且打破协议加速推进AI研发存在潜在收益,这类安排十分脆弱,难以长期持续。

此外,由于技术追赶难度大,且中国未必能成功实现超级智能突破,美国可能迎来一个短暂的时间窗口,率先实现超级智能。届时,美国将面临艰难抉择:是否采取措施阻止其他国家达到同等AI水平。相反的情景同样重要:如果中国率先突破超级智能,美国需要做好应对与止损准备;如果两大国先后跨过超级智能门槛,则需要通过明确的防护措施、沟通机制与行为克制降低风险,避免局面失控。

第二世界:超级智能可实现、技术难以追赶、中国不竞速前沿

这一情景将让美国迎来“单极AI时刻”,核心问题不再是如何赢得AI竞赛,而是如何掌控与管理自身的领先优势。

在产业层面,人工智能可以更稳健地发展:研发投入虽需保持高位以推动超级智能实现,但不必启动“曼哈顿计划”式的举国动员。美国的核心任务是维护AI前沿安全,保护模型参数、算力与关键人才,同时保持创新生态的动态活力。值得注意的是,随着市场成熟、部分AI企业倒闭,美国应禁止中国收购其核心知识产权,防止技术间接流失。

这种未来会让其他许多国家感到不安:如此巨大的AI变革力量集中于单一国家,会引发外界对美国是会负责任地领导,还是追求狭隘国家利益的质疑。因此,美国的重要任务是建立并维护“民主AI秩序”,塑造外界对美国前沿领导力的信任。这一任务与1945年美国面临的国际格局挑战相似,但在当前复杂的政治与地缘环境下,实施难度更大。

在超级智能边缘没有直接对手的情况下,美国可以更自主地实施单方面克制,在确保安全的前提下加快前沿技术发展。技术扩散将具有战略性与选择性:在防止AI技术无序扩散的同时,扩大盟友与伙伴的安全接入权限,巩固美盟体系的技术优势。

在国内,美国可以专注于构建新的社会契约:如果AI带来巨大的生产力与能力提升,核心挑战将转向如何将技术成果转化为广泛繁荣,同时增强社会对AI冲击的适应力。合理的AI监管将在保障安全与问责的同时,不阻碍技术进步,实现创新与安全的平衡。

当然,这种“单极AI时刻”并非永久。如果美国率先实现超级智能,中国很可能瞬间转入竞速模式,其他大国也不会长期置身事外。美国必须提前决定如何应对这种变化,如何利用自身的领先地位,塑造AI技术扩散的方式与范围,巩固自身优势。

第三世界:超级智能可实现、技术易被追赶、中国全力竞速前沿

这是一个“全面扩散的世界”:AI突破会快速出现,也会快速被复制。在这样的世界里,美国的核心任务不再是遏制中国的AI发展,而是强化自身韧性建设——提升国家网络安全、生物安全、基础设施与防御系统,抵御各类AI相关威胁。

“全力竞速”还是“快速跟进”,将成为美国的核心战略选择。如果AI突破不断涌现,率先抵达前沿的优势可能十分短暂,但哪怕只是短时间落后,也会形成显著的安全脆弱窗口;如果技术持续快速迭代,先发优势会变得更加重要,因为先行者能率先登上AI能力曲线的顶端。因此,最优路径可能是“防御性竞速”:保持高研发投入与前沿能力,同时叠加新的安全层级与韧性建设,兼顾创新与安全。

在此情景下,美国的AI创新生态本身将面临压力:单一“国家冠军企业”几乎没有安全价值,因为其技术成果会迅速被复制;而如果投资者看到创新快速被模仿、利润空间被压缩,就难以维持大量私营企业投入尖端AI项目。随着超级智能走向商品化,许多AI企业将会倒闭,那些通过创新构建更好商业模式的企业能够存活,而单纯追求更好AI模型、缺乏商业化能力的企业则可能被淘汰。

风险管理的重要性将进一步提升:不仅要应对AI技术失控与误判的风险,还要管控技术快速扩散带来的连锁反应。为减轻非国家行为体与流氓国家无序扩散AI技术带来的威胁,美国必须与盟友及中国建立新的全球合作层级,遏制或阻止不负责任的主体获取相关技术。尽管中美联合克制协议仍难以执行,但双方对这一情景危险性的共识,可能让这类合作安排更具可行性。

出口管制仍有一定作用,但其效果取决于“追赶容易”的具体原因:如果中国开发出可行的算力替代方案,美国的芯片管控将基本失效,AI竞争将转向全球部署速度的比拼;如果追赶容易源于模型蒸馏、技术窃取或新算法快速传播等其他因素,芯片管控的效果会弱于其他情景,但仍可作为拖延时间、减缓技术扩散的辅助工具。

第四世界:超级智能可实现、技术易被追赶、中国不竞速前沿

这一情景下,美国将迎来一个短暂的“单极AI窗口”:美国可以率先实现超级智能,但其他国家一旦启动竞速,也可能借助技术易被追赶的特点快速跟进。不过,这条路风险很高:中国可能秘密开展AI前沿研发、参与竞赛,或其他国家/非国家行为体可能意外超越美国的AI能力。

如果美国继续参与AI前沿竞赛,就必须决定如何利用自身的领先优势:它可以借助这一狭窄窗口,采取措施阻止其他国家达到同等AI水平;也可以利用这段短暂的绝对领先期,强化自身与盟友的防御能力,推动建立AI安全保障机制,避免技术失控与无限制扩散。

由于中国不参与前沿竞速,它很可能采取另一套策略:将美国的AI技术突破商品化,通过低成本AI产品出口,把中国的AI系统嵌入全球市场,并借助机器人技术实现AI与现实世界的深度连接——这会让技术扩散成为AI地缘竞争的核心。

因此,美国需要加大对机器人与先进制造领域的投资,把数字技术突破转化为实体与工业应用能力,并在中国填补全球市场空白之前,果断向海外推广安全、符合民主价值观的美盟AI系统,抢占市场先机。

第五世界:有限智能、技术难以追赶、中国全力竞速前沿

在这一组情景中,超级智能不再是现实目标,AI发展将长期处于有限、渐进的水平。而在“技术难以追赶、中国全力竞速前沿”的组合下,美国与中国将陷入一场激烈的AI创新竞赛——赌注虽高,但低于超级智能情景。

在此情景下,美国的AI研发投入虽不必达到紧急动员水平,但依然需要保持高位,并通过长期产业政策提供支撑,重点打造耐用的机器人与先进制造能力,将AI技术转化为实际生产力优势。

决策者必须注意:市场常常误判AI技术的转折点——投资者可能在AI释放全部潜力前就恐慌性宣称“泡沫破裂”,也可能在技术成熟后仍过度投入资源。因此,风险管理应减少对“AI失控”的担忧,更多聚焦于AI在生物、网络或军事领域的滥用风险,避免技术被用于危害国家安全与公共利益的场景。

技术扩散与部署的重要性将显著提升:美国必须推动AI在国内工业与军队的积极应用,形成规模化优势,并迅速向海外推广美国及其盟友的AI系统。值得注意的是,即便是非前沿AI模型,只要整合度高、成本低、配套基础设施完善,也能占据巨大的全球市场份额——这一点中国早已深有体会,并在实践中持续推进。

模型与数据中心的安全依然重要:因为技术追赶难度大,前沿模型对保障美盟系统安全仍有关键作用,但首要任务是尽早让强大的AI系统广泛落地,建立用户熟悉度与依赖性,抢占中国替代方案之前的市场空间。出口管制仍有价值,可以放缓中国的AI发展进度,但美国必须谨慎把握尺度,避免过度管制阻碍自身AI技术的海外部署,反而错失市场机会。

第六世界:有限智能、技术难以追赶、中国不竞速前沿

这一情景下,美国将保持稳固的AI领先优势,并拥有一段宝贵的窗口期来巩固自身地位:利用AI技术开发新药、扩大优质教育供给、振兴滞后产业,将AI成果转化为广泛的社会与经济收益。

中国未必完全退出AI领域,但会大幅削减对前沿模型开发的投入,实际上退出前沿能力竞赛,转而专注于AI技术的应用落地与美国技术突破的商业化,依托“技术模仿+商业化落地”的思路,获取经济收益。

与此同时,美国可以专注于AI技术的安全、问责与普惠,确保AI发展成果能够转化为广泛繁荣,缩小社会差距,增强社会对AI技术的接纳度。在国际上,美国将有充足空间塑造一个充满AI技术的积极世界愿景,邀请合作伙伴加入其AI生态,提供模型、数据与基础设施的访问权限,但核心技术要素仍保留在国内,保障自身技术安全。

这一情景下,美国的核心目标不是尽可能快、尽可能广地分散美国AI系统,而是确保扩散的AI系统安全、符合民主价值观,通过技术输出与生态构建,强化美盟体系的凝聚力与影响力。

第七世界:有限智能、技术易被追赶、中国全力竞速前沿

这一情景下,中美将陷入一场激烈的“AI扩散竞赛”。由于技术突破容易被模仿,没有任何国家能长期垄断AI智能优势,竞争的胜负取决于谁能比对手更快地开发与商业化AI技术,谁能更快地将技术推向全球市场。

私人资本的引导将变得更加困难:如果技术容易复制,投资者很可能因看不到可保障的长期回报而减少对AI前沿项目的投入。但美国仍必须参与这场竞赛:最先广泛传播的AI系统,将塑造全球数字环境,并体现其背后的价值观;而且由于中国处于全力竞速状态,美国需要以同等甚至更快的速度创新,否则将被中国抢占市场先机。

在此情景下,技术扩散不仅是AI战略的组成部分,更将成为美国外交政策的核心支柱。目前,中国已系统性地将AI技术推向海外市场,常常与融资、大型开发项目捆绑,形成“技术+资本+项目”的组合输出模式,扩大自身影响力。美国不能允许全球数字基础设施建立在可能泄露数据、监控通信、开展大规模影响力行动的中国AI系统之上。

因此,美国需要将AI扩散纳入国家治国方略,扩大开发金融公司等机构的权限与可调度资金,帮助美盟企业在全球范围内建设数据中心、通信网络与区域定制化AI系统。这要求美国领导层摒弃短期利润思维,致力于构建一个更多依赖美国系统而非中国系统的全球数字秩序。

需要强调的是,如果技术复制容易、扩散不可避免,保密带来的回报将微乎其微。更合理的做法可能是开源或广泛授权关键AI系统的安全版本,确保它们运行在美盟平台而非敌对平台之上。在这种世界里,出口管制的收益有限,在极端情况下甚至可能削弱美国在扩散竞赛中的地位——因为中国可以通过快速复制美国技术,有效绕过管制,实现技术快速落地与扩散。

第八世界:有限智能、技术易被追赶、中国不竞速前沿

这是八种情景中的最终一种:人工智能将类似历史上许多重要技术(如电力、互联网)——美国在创新上保持领先,但技术突破很容易被模仿。这种“搭便车”现象,会让私人资本更难投入大型前沿AI项目;而在中国不参与AI竞速的情况下,美国公共支出投入AI前沿研发的国家安全理由,也不再全面充分。

相反,AI投资将主要围绕技术扩散带来的预期收益展开,开源模型很可能成为全球AI生态的主流——因为开源能够加速技术扩散,扩大用户基础,形成规模化优势,进而实现商业化变现。

AI领导权的竞争,也将主要变成技术扩散的竞争,类似早年的5G竞赛,由部署速度与规模驱动。美国的核心任务是确保可信的美盟AI系统,成为全球产业的默认基础设施,压缩中国低成本可行方案的市场空间,通过生态优势巩固自身的领先地位。

从情景到战略:AI地缘竞争的决策逻辑

人工智能时代的地缘战略,不再是预测单一结果或寻找唯一正确的政策,而是转向概率化思考与动态调整。要有效使用这一“八种可能世界”的分析矩阵,决策者应遵循以下核心逻辑:

首先,选定基准情景。决策者应先明确一个基准情景——即他们认为最可能出现的世界,每一项重大AI政策提案,都应在基准情景中接受检验:这项政策在你认定的世界里是否合理?是否能实现“强化国家安全、实现广泛繁荣、维护民主价值观”的核心目标?

其次,防范高风险情景。决策者必须确定,如何避免或减缓美国最脆弱、风险最高的情景(如第一世界)出现最坏结果——即便他们认为这些情景的发生概率不高。毕竟,这类情景的赌注极高,一旦发生且应对不当,可能导致美国丧失AI领域的领先地位,甚至威胁国家安全。

再次,采取策略对冲。让政策与基准情景保持一致,同时提升其在高挑战情景中的韧性。这意味着要识别三类政策:哪些政策在多个世界中都有效(即“通用优势政策”,如强化算力基础、培育人才);哪些政策在未来预判出错时可以逆转(如出口管制的调整);哪些政策一旦基准假设错误就会产生严重危害(如过度投入“登月式”超级智能项目)。

最后,建立动态调整机制。针对八种世界中的每一种,政府都应准备一套可随时调整的政策方案。这要求各部门以概率视角思考问题:国家安全委员会应利用这一矩阵,对美国AI政策进行替代未来压力测试;情报界应沿三大核心维度,持续追踪动态信号(如AI前沿进展速度、新能力复制速度、中国AI投资方向变化),并相应更新各情景的发生概率;高级国家安全官员应准备好在某一情景更有可能出现时,及时提出政策调整建议。

需要强调的是,这一框架不只适用于政策制定者,它也为所有参与AI与地缘政治辩论的人,提供了一种实用的沟通与分析方法。当前,很多关于AI地缘竞争的争论最终沦为“各说各话”,核心原因是参与者没有明确自己预设的未来情景。如果参与者能提前厘清:自己认为人工智能是会走向颠覆性突破,还是渐进发展?技术会快速传播,还是难以复制?中国是在争夺前沿,还是布局跟进与商业化?——提出这些问题,并将双方论点映射到分析矩阵中,往往能揭示分歧的本质:究竟是政策主张不同,还是底层的未来假设不同。

这一框架的意义,不在于预测最终会走向哪个世界,而在于在不确定性中规范战略决策:明确隐含假设

作者:天辰娱乐




现在致电 5243865 OR 查看更多联系方式 →

天辰娱乐 版权所有