Anthropic起诉美国国防部供应链风险指定 维护AI安全与商业利益

8 阅读3分钟视野
Anthropic起诉美国国防部供应链风险指定 维护AI安全与商业利益

背景

Anthropic是Claude系列大模型的研发公司,近期因坚持两条红线——不向美国军方提供用于大规模监控的技术,也不为全自动武器系统提供自主决策能力——与美国国防部(DoD)产生冲突。国防部秘书佩特·赫格塞斯(Pete Hegseth)主张,国防部应在“任何合法目的”下获取AI系统,且不应受私营供应商的限制。2026年3月初,DoD将Anthropic标记为供应链风险,要求所有与国防部合作的机构对其技术进行合规审查,并迫使Anthropic的“一站式政府合同”(OneGov)被终止。

诉讼要点

  • 指控不当:Anthropic称DoD的风险指定通常只针对外国对手,且缺乏国会要求的风险评估、书面安全决定及通知程序。
  • 宪法保护:诉状援引宪法第一修正案,称政府利用其庞大权力压制公司对AI安全与透明度的公开表态属于“受保护的言论”。
  • 经济损害:原告指出,合同终止将导致公司失去政府三大部门的业务,直接危害其快速增长的商业价值。
  • 救济请求:请求法院立即暂停DoD的供应链风险指定,并在案件审理期间阻止政府执行该决定。

影响分析

  1. 行业监管走向:若法院支持Anthropic的主张,可能迫使美国政府在对AI供应链进行安全审查时遵循更严格的程序性要求,提升私企在国防项目中的议价能力。
  2. AI安全争论升级:Anthropic的红线立场与政府的全域获取需求形成鲜明对立,此案将成为AI伦理与国家安全之间权衡的标志性案例。
  3. 竞争格局变化:若Anthropic被迫退出国防供应链,其他美国AI公司(如OpenAI、Microsoft)可能填补空缺,进一步加剧行业集中度。

业界与舆论反响

  • 技术媒体:多数报道将此案视为“AI公司首次以言论自由为盾,对政府供应链限制提起司法挑战”。
  • 竞争对手:OpenAI、Microsoft未公开表态,但业界分析师警告,此类诉讼可能导致更广泛的政府采购政策审查。
  • 政策制定者:国会部分成员呼吁对AI供应链风险评估机制进行立法完善,以平衡国家安全与创新生态。

“政府不应利用其权力压制企业对AI安全的合法表达”,Anthropic在声明中如此强调。

Anthropic表示,将继续通过对话与法律途径争取公平竞争环境,并坚持其对AI安全的核心价值观。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。