3 月 6 日消息,据 CNBC 报道,美国国防部已正式通知 Anthropic,将该公司及其人工智能模型 Claude 指定为 " 供应链风险 "。这一标签通常用于针对外国对手企业,而 Anthropic 成为首家被列入该名单的美国科技公司。
一名国防部高级官员向 CNBC 表示,此次决定源于军方与 Anthropic 在人工智能使用范围上的分歧。五角大楼认为,军方必须能够在 " 所有合法用途 " 中使用相关技术,而不会接受供应商对关键能力设置限制。
" 如果供应商试图通过限制合法用途来影响军方的指挥体系,就可能危及作战人员安全。" 这位官员称。
根据这一认定,未来为国防部提供服务的承包商将需要证明,他们在项目中没有使用 Anthropic 的模型。
此次冲突的核心,是 Anthropic 为其模型划定的两条红线:
公司希望确保 Claude 不会被用于 完全自主武器系统 或 针对美国公民的大规模监控。但国防部则要求,在符合法律的前提下,军方应能够在所有场景中部署相关技术。
尽管双方谈判最终破裂,但美国军方此前仍曾使用 Claude 模型支持与伊朗相关的军事行动。
该事件也迅速升级为政治争议。美国总统 Donald Trump 已指示联邦机构 " 立即停止 " 使用 Anthropic 技术,并公开批评该公司。
Anthropic 首席执行官 Dario Amodei 表示,公司将对 " 供应链风险 " 的认定提起法律挑战。
与此同时,AI 公司与五角大楼的合作格局也在发生变化。
在 Anthropic 被列入风险名单数小时后,OpenAI 宣布与国防部达成新的合作协议,允许其模型在机密网络环境中部署。xAI 也已同意在类似场景中提供模型。
这一事件正在对 AI 产业链产生连锁反应。例如,与 Anthropic 合作开展军事项目的 Palantir 一度因市场担忧而出现股价波动。分析师认为,如果 Anthropic 技术被迫退出军方系统,可能会对相关合作伙伴的短期运营造成影响。
Anthropic 曾在去年与国防部签署一份 2 亿美元合同,并成为首个将 AI 模型集成进军方机密网络工作流程的实验室。但随着围绕 AI 使用边界的争议升级,这一合作关系如今陷入僵局。(鞭牛士、AI 普瑞斯编译)


登录后才可以发布评论哦
打开小程序可以发布评论哦