谄媚、献金、说谎?中东战争,美国这对AI宿敌彻底撕破了脸?|硅谷观察

lnradio.com 5 0

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

谄媚、献金、说谎?中东战争,美国这对AI宿敌彻底撕破了脸?|硅谷观察

  文 | 《硅谷观察》栏目 郑骏

  本就动荡的中东地区重燃战火,很可能是AI时代的第一次全面战争。

  不久前,美国和以色列对伊朗发起了代号为“史诗之怒”的联合军事行动。作为回击,伊朗也向设有美军基地的周边9个国家发起导弹与无人机轰炸。

  近日,美国战争部与AI行业领头羊OpenAI签署了一份将人工智能部署于军事用途的合作协议。这两件事或许只是时间上的巧合,但巧合背后或许却具有历史意义。

  而OpenAI之所以会接下这个项目,是因为他们的直接竞争对手Anthropic拒绝了美国战争部的最后通牒,拒绝向美军全面开放AI使用,拒绝将AI用于监控美国民众以及自主武器系统,从而被美国政府全面拉黑。

  就在昨天,媒体曝光了Anthropic一份1600字的内部备忘录,让外界全面了解了这场AI公司与美国政府首次里程碑式的对峙,也揭示了这场冲突背后远比技术分歧更复杂的政治逻辑。

  Anthropic CEO达里奥·阿莫迪(Dario Amodei)在备忘录中嘲讽,自己与美国政府关系恶劣是因为没有像同行那样给白宫捐款以及没有向白宫吹捧恭维。他继续指责同行,在OpenAI与战争部合作协议背后,所谓的安全防范只是逢场作戏。

谄媚、献金、说谎?中东战争,美国这对AI宿敌彻底撕破了脸?|硅谷观察

  美军指定AI服务商

  为什么是Anthropic?尽管Anthropic并不是AI行业的最大巨头,消费端用户基数与OpenAI及谷歌差距明显,但他们却是企业市场当之无愧的领头羊。在企业级LLM市场,Anthropic的市场份额高达32%,排名第一;而在编程与智能工作这个最具价值的细分市场,Anthropic的Claude则占据着70%市场份额的压倒性优势。

  Anthropic的年化收入已经达到190亿美元,其中80%来自企业客户。就在上个月,Anthropic 完成了由 GIC 领投的 300 亿美元 G 轮融资,估值达到 3800 亿美元。投资者普遍认为其在“治理合规”和“机构信任”方面的护城河是谷歌和 OpenAI 难以逾越的。

  虽然 OpenAI、谷歌和 xAI 都拿到了美国战争部的2 亿美元合同,但 Anthropic 的 Claude 却是唯一一个被允许部署在美军最高级别涉密网络上的大模型。他们与大数据服务商Palantir,再加上亚马逊AWS云服务,相当于美军的AI铁三角。

谄媚、献金、说谎?中东战争,美国这对AI宿敌彻底撕破了脸?|硅谷观察

  具体而言,Palantir 提供了大数据分析骨架,而Claude 则充当了其“认知引擎”。这种组合让美军能够以“机器速度”处理海量卫星图像和信号情报,迅速做出作战决策。今年年初美军强掳委内瑞拉总统马杜罗的军事行动就是两家公司强强组合的范例。

  据事后披露,美军就是利用 Claude的逻辑推理能力,在 Palantir的平台上快速处理截获的各种情报与卫星图像,交叉比对旅行记录和财务数据,最终确认马杜罗的实时位置。最终美军将马杜罗强掳至纽约,导致数十名古巴和委内瑞拉士兵死亡,自己却无人阵亡。

  此次美国与以色列对伊朗发起大规模袭击,同样使用了Claude与Palantir的组合,用于情报评估、目标识别和战场场景模拟。换句话说,美国政府周五下令封禁Claude,周六攻击伊朗用的还是Claude。

  这对五角大楼来说同样是个大问题。直到最近,Claude 仍是唯一被允许进入军方机密系统的AI工具。政府官员表示,Claude 在某些方面比其他替代方案更好,也承认如果要把 Anthropic 的工具从现有系统中移除,将会是一个非常混乱的过程。

  两条AI技术使用底线

  既然Claude已经被用于美军对外作战而且效果显著,为什么他们会与美国战争部闹翻?主要就是两条AI技术使用底线。

  Anthropic在与战争部的谈判中,坚持在合同中写入两项明确禁止条款:一是禁止将其AI用于对美国公民的大规模国内监控,二是禁止将其AI用于完全自主的致命武器系统。这两项要求,战争部都拒绝以明文写入合同。战争部的立场是:AI可用于“任何合法目的”。

  阿莫迪在备忘录中具体写道,战争部提出了最后一个要求:删掉合同中关于“批量获取数据分析”的限制性表述。这正是“合同中与我们最担忧的场景完美对应的那一行”——AI利用大规模汇集的美国公民通信数据进行训练,实现国内大规模监控。Anthropic拒绝在这一条上作出任何让步。

谄媚、献金、说谎?中东战争,美国这对AI宿敌彻底撕破了脸?|硅谷观察

  双方为此僵持不下。在设定的最后期限过后,美国战争部随即宣布Anthropic为“国家安全供应链风险”。而特朗普总统则公开称Anthropic为“激进左翼、政治正确公司”。而仅仅数小时之后,OpenAI就宣布签署了被Anthropic拒绝的合同。

  支持Anthropic的科技行业团体已经行动起来——英伟达、谷歌等Anthropic投资方组成的行业联盟向美国战争部发函,对将一家美国公司认定为供应链风险表示关切,这一认定通常是针对与外国对手有关联的企业的。Anthropic表示将在法庭上挑战这一认定。

  考虑到Anthropic八成收入来自企业客户,被列入美国政府的“供应链风险”,可能会让这家AI初创公司损失惨重,更会给他们今年预定的首次公开募股(IPO)带来重大风险。因为被列入美国政府黑名单之后,诸多持有政府合同的企业客户只能被迫放弃Anthropic的产品。

  明着赞赏,迅速接盘

  尽管OpenAI CEO山姆·奥特曼(Sam Altman)当天还在公开场合支持Anthropic坚守自己的安全底线,赞赏Anthropic重视安全,但迅速接过了Anthropic放弃的战争部合同。这种无缝衔接和“假惺惺”表态显然让阿莫迪非常不满。

  值得一提的是,Anthropic与OpenAI本就存在历史渊源与宿怨。Anthropic的创始团队主要来自OpenAI,他们由于对奥特曼的产品与商业方向不满,因而选择离开自立门户。因为OpenAI推出广告计划,Anthropic还斥资千万美元在超级碗打广告嘲讽对手,引发奥特曼愤怒回击。

谄媚、献金、说谎?中东战争,美国这对AI宿敌彻底撕破了脸?|硅谷观察

  更为有趣的是,在上个月的印度AI峰会上,奥特曼与阿莫迪正好被主办方安排站在一起,两人互相无视对方,甚至无视印度总理莫迪的要求,连礼节性地握手都没有。现场气氛相当尴尬。

  此次战争部合同事件,阿莫迪更是异常愤怒。他在内部备忘录中写道,OpenAI的交易不过是“安全剧场”,奥特曼“把自己呈现为和平缔造者和交易撮合者”,但那是“彻底的谎言”。

  需要解释一下,“安全剧场”这个词最早由计算机安全专家布鲁斯·施奈尔(Bruce Schneier)在其著作《超越恐惧》中创造,专门用来描述那些给人“更安全的感觉”、但实际上对安全几乎没有实质改善的措施。

  阿莫迪的意思是,OpenAI与战争部签的AI合同,列了几条听起来很负责任的“红线”(不用于国内监控、不用于自主战争武器),但这些条款全都依赖政府自己解释什么叫“合法”,没有任何可独立核实、强制执行的机制,并不存在Anthropic那样的坚守底线。

  看得出来,阿莫迪对OpenAI极度不满。他甚至直言不讳地表示,“我们之所以被战争部和特朗普政府针对,真正的原因是:我们没有给特朗普捐款(而OpenAI和高管们却捐了很多),没有像他们那样对总统大加赞美,我们支持AI监管(这与他们的议程相悖),我们真正坐守了AI红线,而不是像他们一样制造‘安全剧场’来安抚员工。”

  他指的是去年特朗普就职典礼时,奥特曼以个人名义捐款了100万美元,而OpenAI总裁格雷格·布罗克曼(Greg Brockman)随后还向支持共和党的MAGA超级政治行动委员会捐款2500万美元。此外,奥特曼多次在接受公开采访时对总统大加赞赏,更随着白宫一道出访。

  虽然诸多超级富豪和科技巨头都争相讨好本届政府,在捐款方面更是一掷千金,但相比之下,Anthropic始终与政府保持着距离。这也是阿莫迪指责OpenAI的底气所在。

谄媚、献金、说谎?中东战争,美国这对AI宿敌彻底撕破了脸?|硅谷观察

  解释遭受普遍质疑

  OpenAI当然不愿意遭受指责。该公司在官网发布长文,声称其与战争部的合同包含三条“红线”:不得用于大规模国内监控、不得在需要人类控制的情况下指挥自主武器系统、不得用于需要人类审批的高风险自主决策。

  奥特曼本周承认 OpenAI 最初合同确实存在缺陷,并宣布公司已经重新谈判,达成了他所称的更强安全保障。他随后还专门强调,他们补充修订了合同语言,明确不得包括针对美国国内的监控。

  然而,Anthropic却再次打脸奥特曼,指出了这个说法的根本漏洞:OpenAI的合同允许政府将AI用于“所有合法目的”,而判断什么“合法”的权力,解释权在于美国政府自身。

  不仅是Anthropic质疑奥特曼的解释,诸多行业分析人士也不相信OpenAI会坚守底线。很多人提出,如果美国战争部改变了态度,接受了OpenAI设置的三条红线,他们此前就不会和Anthropic闹翻。

  OpenAI前安全部门负责人史蒂文·阿德勒(Steven Adler)在X上写道,OpenAI“希望你相信国家情报局(NSA)被排除在他们的合同之外”,但没有任何强有力的证据支撑这一说法,公众为何应该相信?

  批评者也同样指出:美国情报机构在棱镜监控项目中,正是以“合法”为由,在《外国情报监视法》的模糊框架下,将数百万普通美国公民的通讯数据一网打尽。Anthropic并没有因为这些“合法”就放弃自己的标准。而OpenAI则模糊了这一边界。

  更深层的问题在于:“人类监督”究竟意味着什么?OpenAI前地缘政治团队负责人萨拉·肖克(Sarah Shoker)在Substack上指出,国防工业界对于自主武器中“充分的人类监督”尚无共识定义。

  一名士兵对着AI的推荐目标点一下“确认”,算不算人类监督?还是必须有人逐一审阅每个打击决策?在当代战场的时间压力下,这个问题的答案可能决定数千人的生死。

  值得一提的是,96名OpenAI员工在公司宣布签约前联署公开信,要求管理层“继续拒绝战争部当前关于允许使用我们的模型进行国内大规模监控和在没有人类监督的情况下自主杀人的要求”。

  AI战争边界模糊

  AI在现代战争中的主要应用路径清晰可见:情报快速汇总(将海量侦查数据压缩为可操作情报)、目标生成(从传感器数据中自动识别和排列打击优先级)、战场态势感知(整合多源信息绘制实时战场图景)、后勤与指挥决策辅助。这些功能单看似乎只是“辅助工具”,但当它们被串联起来,构成一条从感知到杀伤的完整链条时,性质已经根本改变。而这正是Claude与Palantir组合的威力所在。

谄媚、献金、说谎?中东战争,美国这对AI宿敌彻底撕破了脸?|硅谷观察

  从传感器数据到AI解读,再到目标选择,再到武器激活;其中的一个关键风险是:这整个链条可能在几乎没有人类控制或意识的情况下完成。

  这不是假设性场景。以色列在加沙冲突中广泛使用的Lavender系统,被前情报官员描述为一台每天可以自动生成数百个打击目标的AI机器。操作流程中,人类审核每个目标的平均时间不足一分钟,有时甚至不到20秒。目标一旦生成,即进入打击流程。换言之,人类监督已经变成了橡皮图章,而非实质辨别。

  除了AI用于作战自动化,这场争议还留下了几个无法回避的根本性问题。

  谁有权定义“合法”?如果AI使用边界由政府自行解释,那么安全护栏就不是护栏,而是政治工具。Anthropic的坚持,至少是在用合同条文来固化一条写在纸上的边界,即便这条边界不完美。而OpenAI的合同处理方式,则模糊了这一红线。

  科技公司是否有能力和勇气对抗来自全球最强势政府的压力?

谄媚、献金、说谎?中东战争,美国这对AI宿敌彻底撕破了脸?|硅谷观察

  每一次,科技公司都在舆论压力、商业利益和政府压力之间博弈。只不过,他们的犹豫越来越少。

  2018年,谷歌Maven项目曾引发4000名员工联名抗议,最终谷歌宣布不再续约,但最终微软与亚马逊接过了这个项目。2019年,微软员工抗议向美军提供HoloLens增强现实头盔用于战场;2024年,谷歌员工再次抗议Project Nimbus以色列云计算合同,但没有任何效果。

  去年夏天,谷歌、Anthropic、OpenAI、xAI四家前沿AI公司,均各自获得了上限2亿美元的战争部合同,被要求开发跨越作战、情报和企业系统的“主体性AI工作流”。只不过Anthropic拿到了最核心的机密权限。

  但这一次,当OpenAI签下战争部合同的时间点,与美以联合空袭德黑兰的时间点几乎完全重叠,震撼是前所未有的。Anthropic的这次抗拒,无论最终谈判结果如何,展示了另一种可能:至少在某一时刻,有一家公司选择了不妥协。

  但他们不配合,总会有同行愿意做。