Claude模型遭国防部供应链风险认定;Anthropic提起诉讼,反击政府举措。
近日,美国国防部对Anthropic公司的Claude人工智能模型发出供应链风险警告。这一罕见举措将一家本土科技企业置于与外国对手类似的审查地位,引发业界强烈反响。首席技术官埃米尔·迈克尔在媒体采访中直言,Claude模型内置的政策倾向可能污染国防供应链,导致关键装备效能受损。
迈克尔详细解释了风险来源。他指出,如果模型的核心设计包含不同于国防需求的政策偏好,就有可能在实际应用中出现偏差。例如,在武器系统或防护装备的开发与部署过程中,这种偏差或将削弱作战人员的实际能力。供应链风险认定的目的,正是防止此类问题渗入国防体系,确保所有技术环节保持高度一致性和可靠性。

Anthropic公司迅速做出回应,已正式向法院提起诉讼。诉状中,公司将政府的认定描述为前所未有且不当行为,称此举使多项重要合同陷入危机。公司强调,遭受的损害已难以弥补,涉及金额规模庞大。尽管国防部方面表示认定范围有限,仅针对与五角大楼直接相关的项目,但Anthropic认为这一标签已对整体业务造成负面连锁反应。
迈克尔在采访中多次澄清,此事并非意在惩罚Anthropic。他提到,该公司拥有广泛的商业客户群,政府业务仅占很小比例。国防部也不会主动干预企业与非国防客户的合作。只有当技术直接进入国防供应链时,才会触发相关限制。这种界定旨在维护国家安全,而非限制技术创新。
Claude模型的诞生源于一批研究人员对AI安全与伦理的追求。他们希望通过内置机制,避免技术被滥用。然而,当应用于国防场景时,这些机制反而成为争议焦点。国防部要求AI工具必须完全适应军事需求,不受额外约束。Anthropic则坚持保留核心限制,以防潜在误用。这一分歧反映出当前AI治理面临的普遍难题:如何在推动技术进步的同时,确保其符合国家战略需要。
事件发展至今,双方立场仍显对立。Anthropic寻求通过司法途径撤销认定,恢复正常合作渠道。国防部则继续强调供应链安全的优先级。无论最终判决如何,此案都将为AI企业在国防领域的准入设定重要先例。科技与安全的平衡,需要更多对话与共识,方能实现可持续共进。
