2026-04-18 15:22来源:本站

编者按:在人工智能技术突飞猛进的今天,科技公司与国家军事需求之间的博弈正悄然升级。近日,美国国防部与AI巨头Anthropic的紧张关系浮出水面,核心矛盾在于军事应用的伦理边界——五角大楼渴望“无限制”使用AI于武器开发、情报乃至战场,而Anthropic坚守底线,拒绝完全自主武器和大规模国内监控。这场拉锯不仅关乎商业合约,更触及科技伦理的深层拷问:当AI成为“战争工具”,企业该如何平衡国家安全与道德红线?其他巨头如OpenAI、谷歌等亦被卷入漩涡,预示着全球AI军事化竞赛已进入关键转折点。以下为事件详情:
据Axios周六援引一位政府官员报道,因坚持对美国军方使用其模型保留某些限制,五角大楼正考虑终止与人工智能公司Anthropic的合作关系。
Axios报道称,五角大楼正推动四家AI公司允许军方将其工具用于“所有合法用途”,包括武器开发、情报收集和战场行动等领域,但Anthropic未同意这些条款。经过数月谈判,五角大楼已逐渐失去耐心。
其他涉及的公司包括OpenAI、谷歌和xAI。
Anthropic发言人表示,公司未与五角大楼讨论将其AI模型Claude用于具体军事行动。该发言人指出,迄今为止与美国政府的对话聚焦于一系列具体使用政策问题,包括对完全自主武器和大规模国内监控的严格限制,且均与当前军事行动无关。
五角大楼未立即回应路透社的置评请求。
据《华尔街日报》周五报道,Anthropic的AI模型Claude曾被用于美军抓捕委内瑞拉前总统尼古拉斯·马杜罗的行动,该模型通过Anthropic与数据公司Palantir的合作关系部署。
路透社周三报道称,五角大楼正推动包括OpenAI和Anthropic在内的顶尖AI公司,使其人工智能工具能在保密网络上使用,且不受这些公司对普通用户的多数标准限制。