- N +

美国国防部正式将Anthropic列为供应链风险

3 月 6 日消息,据 CNBC 报道,美国国防部已正式通知 Anthropic,将该公司及其人工智能模型 Claude 指定为 " 供应链风险 "。这一标签通常用于针对外国对手企业,而 Anthropic 成为首家被列入该名单的美国科技公司。

一名国防部高级官员向 CNBC 表示,此次决定源于军方与 Anthropic 在人工智能使用范围上的分歧。五角大楼认为,军方必须能够在 " 所有合法用途 " 中使用相关技术,而不会接受供应商对关键能力设置限制。

" 如果供应商试图通过限制合法用途来影响军方的指挥体系,就可能危及作战人员安全。" 这位官员称。

根据这一认定,未来为国防部提供服务的承包商将需要证明,他们在项目中没有使用 Anthropic 的模型。

此次冲突的核心,是 Anthropic 为其模型划定的两条红线:

公司希望确保 Claude 不会被用于 完全自主武器系统 或 针对美国公民的大规模监控。但国防部则要求,在符合法律的前提下,军方应能够在所有场景中部署相关技术。

尽管双方谈判最终破裂,但美国军方此前仍曾使用 Claude 模型支持与伊朗相关的军事行动。

该事件也迅速升级为政治争议。美国总统 Donald Trump 已指示联邦机构 " 立即停止 " 使用 Anthropic 技术,并公开批评该公司。

Anthropic 首席执行官 Dario Amodei 表示,公司将对 " 供应链风险 " 的认定提起法律挑战。

与此同时,AI 公司与五角大楼的合作格局也在发生变化。

在 Anthropic 被列入风险名单数小时后,OpenAI 宣布与国防部达成新的合作协议,允许其模型在机密网络环境中部署。xAI 也已同意在类似场景中提供模型。

这一事件正在对 AI 产业链产生连锁反应。例如,与 Anthropic 合作开展军事项目的 Palantir 一度因市场担忧而出现股价波动。分析师认为,如果 Anthropic 技术被迫退出军方系统,可能会对相关合作伙伴的短期运营造成影响。

Anthropic 曾在去年与国防部签署一份 2 亿美元合同,并成为首个将 AI 模型集成进军方机密网络工作流程的实验室。但随着围绕 AI 使用边界的争议升级,这一合作关系如今陷入僵局。(鞭牛士、AI 普瑞斯编译)

返回列表
上一篇:
下一篇:

发表评论中国互联网举报中心

快捷回复:

    评论列表 (暂无评论,共1人参与)参与讨论

    还没有评论,来说两句吧...