|
|
此文章由 dootbear 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 dootbear 所有!转贴必须注明作者、出处和本声明,并保持内容完整
澳洲金融时报社论:Anthropic是美国新的奥本海默,还是“天网”?
Anthropic的这场与五角大楼的对峙,标志着硅谷的伦理立场与国家安全利益不断冲突的关键转折点。
1984年,詹姆斯·卡梅隆(James Cameron)把一个由“终结者”(Terminator)发动战争的世界搬上银幕:
人类文明的终结,源于一个失控的电脑系统“天网”(Skynet)。
它击中了人们对冷战、技术依赖以及电脑快速崛起的焦虑,但当时大多被当作好莱坞的虚构故事。
42年后,虚构已更贴近现实。美国国防部长海格塞斯放话:
如果Anthropic不把自家人工智能模型向军方“无限制使用”开放,就可能把它列入黑名单,认定为“供应链风险”。
这预示着全球AI军备竞赛进入一个更激烈、也更少约束的新阶段。
海格塞斯还提出,可能动用冷战时期的手段,让总统以“国防需要”为由指挥国内产业;甚至扩大军方权限,在未经Anthropic同意的情况下,直接使用其产品。
争端的导火索,是五角大楼一份2亿美元合同,内容是向美军提供“AI前沿技术”。
一旦军方可能用Anthropic的AI系统执行致命的自主作战行动,就会与该公司的AI安全规则正面冲突,这些规则包含公司自设的限制,例如不开发会助长暴力的模型。
Anthropic必须在周五前作出决定。
这场对峙,是硅谷伦理与国家安全利益角力升级中的分水岭时刻。
它也很可能考验“技术主权”的边界:
在一个大科技公司凭借市场主导地位获得超大经济与政治影响力的世界里,少数AI公司权力高度集中,一方面让它们更有底气在某些时候我行我素,另一方面也让外界更担心它们难以被约束。
Anthropic大规模“侵占”并从中获利,把数以百万计的学术作品与教科书拿来训练模型,就是一个典型例子。而且它既然接受了五角大楼的军方合同,也谈不上毫无瑕疵;它不该对技术被用来提升军事实力感到意外。
不过,Anthropic拒绝按海格塞斯的要求照办,也并非没有道理。
很明显,公司不相信特朗普政府会成为可靠的AI军用技术“看门人”,因此认为必须防止技术被滥用。
海格塞斯用强硬手段逼迫Anthropic就范,即使这会侵蚀企业自主原则,也明显借鉴了特朗普一贯的做法:
为推进自身议程,不惜粗暴冲撞制度与国际规则。
“我们应该追问:战场上,机器是否该被允许做出生死决定。”
把公司硬生生“按头”服从的更大风险在于,它会制造一种道德风险:为了争夺最大、最赚钱的政府合同,企业会被激励主动淡化AI研发中的人道考量,把伦理包袱当作竞争劣势甩掉。
例如,马斯克的xAI刚刚达成协议,把其聊天机器人Grok接入机密军事系统。马斯克打造Grok,部分动机就是反抗他眼中“过度谨慎”的AI风险观;而Grok并没有公开的安全框架。
另外,虽然与五角大楼的要求是两件不同的事,但Anthropic本周也采用了一套“不具约束力”的安全框架,原因是其Responsible Scaling Policy(负责任扩展政策)存在缺陷,反而限制了它在快速增长的AI市场里竞争。这一变化也说明,行业为了抢跑而集体“转向”的趋势,可能会一点点侵蚀负责任、安全使用AI的底线。
从很多角度看,Anthropic与五角大楼的争吵,像极了历史上围绕争议技术的那些拉扯。被称为“原子弹之父”的J·罗伯特·奥本海默(J Robert Oppenheimer),二战后曾主张对核能实施国际管控,并反对制造氢弹。但他最终被羞辱、被排挤:
1954年,他部分因为私人伦理立场被视为阻碍冷战军备竞赛,而遭到“封杀”并被取消安全许可。
但有一点很清楚:奥本海默和科学家团队是创造者,可技术如何被使用,责任最终落在“使用者”手里。
Anthropic对AI武器化的担忧,也一直是国际社会讨论如何监管自主武器系统时的摩擦点。围绕道德责任与人的尊严的争论长期占据核心;同样被反复追问的还有:机器缺乏同理心、良知,也无法真正理解它正在摧毁之物的价值,在这种情况下,它是否该被允许在战场上做出生死判断?
在理想世界里,如果法律能明确要求战斗中必须始终保持“有意义的人类控制”(meaningful human control),或许能缓解人们对自主机器上战场的伦理担忧。
然而,这些问题本就难以统一答案,加上各国利益冲突,导致全球想要禁止或限制“致命自主武器”的努力至今仍支离破碎、难以形成合力。
而在大国竞争不断加剧的世界里,达成共识只会更难。
中国解放军正在收获更统一的国家战略带来的红利:它成功把大学实验室与民营部门的资源整合起来,把AI深度嵌入国防体系。北京对自主作战的拥抱,去年10月在国庆阅兵上表现得非常直观:空中无人机、无人艇、机器狗悉数亮相,这像是在预告未来战场会更接近“终结者”式的图景。
当美国的对手不受伦理顾虑束缚、竞相追求军事优势时,国家安全层面确实有人主张:
五角大楼也该采取“先冲再说、边做边改”的策略(move-fast-and-break-things)。
AI武器固然拥有制造大规模暴行的骇人潜力,但它也可能减少附带伤害、提升军事效率。
Anthropic的AI工具Claude曾帮助美国成功抓捕委内瑞拉独裁者马杜罗,并把伤亡降到更低;它也可能被用于未来针对伊朗的潜在军事打击。
与“终结者”电影不同,真正的危险未必是机器替我们决定命运,而是我们没能建立一套共同的交战规则来约束它们如何被使用。


来源:
https://www.afr.com/technology/i ... net-20260224-p5o54b
Feb 26, 2026 – 6.01pm |
|